AKOOL Research

Welcome to our research hub, where we showcase groundbreaking work in GenAI.

Publicaciones destacadas

Un antecedente basado en la energía para la prominencia generativa

Autores: Jing Zhang, Jianwen Xie, Nick Barnes, Ping Li
Diario: Transacciones del IEEE sobre análisis de patrones e inteligencia artificial (TPAMI), 2023

En este artículo, presentamos un novedoso modelo de prominencia previa para generativa basado en la energía. Nuestro enfoque mejora la interpretabilidad y el rendimiento de la detección de prominencia mediante la integración de técnicas basadas en la energía, lo que permite obtener resultados más precisos y confiables en diversas aplicaciones.

Lea el documento

Aprendizaje de modelos basados en la energía mediante la probabilidad de recuperación por difusión cooperativa

Autores: Yaxuan Zhu, Jianwen Xie, Ying Nian Wu, Ruiqi Gao
Conferencia: Duodécima Conferencia Internacional sobre Representaciones del Aprendizaje (ICLR), 2024

Esta investigación presenta un método innovador para aprender modelos basados en la energía utilizando la probabilidad cooperativa de recuperación por difusión. Nuestro enfoque aprovecha las fortalezas de los procesos cooperativos de aprendizaje y difusión para mejorar la eficiencia y la eficacia de la capacitación de los modelos basados en la energía.

Lea el documento

Aprendizaje cooperativo progresivo basado en la energía para la traducción de imágenes a imágenes de varios dominios

Autores: Weinan Song, Yaxuan Zhu, Lei He, Ying Nian Wu, Jianwen Xie
Archivo: ArXiv, 2024

Proponemos un marco de aprendizaje cooperativo progresivo basado en la energía para la traducción de imagen a imagen en varios dominios. Este método aborda los desafíos de la adaptación y traducción de dominios al refinar progresivamente el proceso de aprendizaje, lo que se traduce en un rendimiento superior en múltiples dominios.

Lea el documento

Transformador de planes latentes para la abstracción de trayectorias: la planificación como inferencia espacial latente

Autores: Deqian Kong, Dehong Xu, Minglu Zhao, Bo Pang, Jianwen Xie, Andrew Lizárraga, Yuhao Huang, Sirui Xie, Ying Nian Wu

En este artículo, presentamos el Transformador de planes latentes, un marco novedoso que trata la planificación como una inferencia de variables latentes. Nuestro enfoque combina los puntos fuertes de los transformadores y los modelos de variables latentes para lograr una planificación sólida y eficiente en entornos complejos.

Conferencia: La 38a Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2024)

Lea el documento

CoopHash: aprendizaje cooperativo de descriptores multipropósito y generador de pares contrastantes mediante la enseñanza variacional de MCMC para el hash supervisado de imágenes

Autores: Khoa Doan, Jianwen Xie, Yaxuan Zhu, Yang Zhao, Ping Li

CoopHash presenta un enfoque novedoso para el hash supervisado de imágenes mediante el aprendizaje cooperativo. Al aprovechar la enseñanza de Montecarlo mediante cadenas de Markov variacionales (MCMC), optimiza simultáneamente un descriptor multipropósito y un generador de pares contrastantes. Este método innovador mejora la eficiencia y la precisión del hash de imágenes, lo que lo convierte en un avance significativo en este campo.

Lea el documento

Odisea basada en la energía latente: optimización de la caja negra mediante una exploración ampliada en el espacio latente basado en la energía

Autores: Peiyu Yu, Dinghuai Zhang, Hengzhi He, Xiaojian Ma, Ruiyao Miao, Yifan Lu, Yasi Zhang, Deqian Kong, Ruiqi Gao, Jianwen Xie, Guang Cheng, Ying Nian Wu

Este artículo presenta un novedoso método de optimización de caja negra conocido como la Odisea basada en la energía latente. El enfoque se centra en ampliar la exploración dentro de un espacio latente basado en la energía, mejorando el proceso de optimización. Al aprovechar el panorama energético del espacio latente, el método mejora la eficiencia y la eficacia de las tareas de optimización, lo que lo convierte en un avance significativo en el campo del aprendizaje automático y la optimización.

Lea el documento

Diseño de moléculas mediante Latent Prompt Transformer

Autores: Deqian Kong, Yuhao Huang, Jianwen Xie, Eduardo Honig, Ming Xu, ShuanghongXue, Pei Lin, Sanping Zhou, Sheng Zhong, Nanning Zheng, Ying Nian Wu

Proponemos el latent Prompt Transformer (LPT), un modelo generativo novedoso para el desafiante problema del diseño de moléculas. Los experimentos demuestran que el LPT no solo descubre de manera eficaz moléculas útiles mediante tareas de optimización con un único objetivo, varios objetivos y con estructuras limitadas, sino que también muestra una gran eficiencia en la toma de muestras.

Lea el documento

Acerca de nosotros

Nuestro equipo está formado por investigadores de renombre de prestigiosas instituciones, que trabajan en colaboración para avanzar en el campo de la inteligencia artificial. Nos centramos en desarrollar soluciones innovadoras que aborden problemas del mundo real y contribuyan a la comunidad científica en general.

Manténgase conectado

Comuníquese con nosotros: Para consultas, colaboraciones o más información sobre nuestra investigación, comuníquese con nosotros en info@akool.com.