AKOOL Research
Welcome to our research hub, where we showcase groundbreaking work in GenAI.
Publicaciones destacadas
Un antecedente basado en la energía para la prominencia generativa
Autores: Jing Zhang, Jianwen Xie, Nick Barnes, Ping Li
Diario: Transacciones del IEEE sobre análisis de patrones e inteligencia artificial (TPAMI), 2023
En este artículo, presentamos un novedoso modelo de prominencia previa para generativa basado en la energía. Nuestro enfoque mejora la interpretabilidad y el rendimiento de la detección de prominencia mediante la integración de técnicas basadas en la energía, lo que permite obtener resultados más precisos y confiables en diversas aplicaciones.
Lea el documento
Diario: Transacciones del IEEE sobre análisis de patrones e inteligencia artificial (TPAMI), 2023
En este artículo, presentamos un novedoso modelo de prominencia previa para generativa basado en la energía. Nuestro enfoque mejora la interpretabilidad y el rendimiento de la detección de prominencia mediante la integración de técnicas basadas en la energía, lo que permite obtener resultados más precisos y confiables en diversas aplicaciones.
Lea el documento
Aprendizaje de modelos basados en la energía mediante la probabilidad de recuperación por difusión cooperativa
Autores: Yaxuan Zhu, Jianwen Xie, Ying Nian Wu, Ruiqi Gao
Conferencia: Duodécima Conferencia Internacional sobre Representaciones del Aprendizaje (ICLR), 2024
Esta investigación presenta un método innovador para aprender modelos basados en la energía utilizando la probabilidad cooperativa de recuperación por difusión. Nuestro enfoque aprovecha las fortalezas de los procesos cooperativos de aprendizaje y difusión para mejorar la eficiencia y la eficacia de la capacitación de los modelos basados en la energía.
Lea el documento
Conferencia: Duodécima Conferencia Internacional sobre Representaciones del Aprendizaje (ICLR), 2024
Esta investigación presenta un método innovador para aprender modelos basados en la energía utilizando la probabilidad cooperativa de recuperación por difusión. Nuestro enfoque aprovecha las fortalezas de los procesos cooperativos de aprendizaje y difusión para mejorar la eficiencia y la eficacia de la capacitación de los modelos basados en la energía.
Lea el documento
Aprendizaje cooperativo progresivo basado en la energía para la traducción de imágenes a imágenes de varios dominios
Autores: Weinan Song, Yaxuan Zhu, Lei He, Ying Nian Wu, Jianwen Xie
Archivo: ArXiv, 2024
Proponemos un marco de aprendizaje cooperativo progresivo basado en la energía para la traducción de imagen a imagen en varios dominios. Este método aborda los desafíos de la adaptación y traducción de dominios al refinar progresivamente el proceso de aprendizaje, lo que se traduce en un rendimiento superior en múltiples dominios.
Lea el documento
Archivo: ArXiv, 2024
Proponemos un marco de aprendizaje cooperativo progresivo basado en la energía para la traducción de imagen a imagen en varios dominios. Este método aborda los desafíos de la adaptación y traducción de dominios al refinar progresivamente el proceso de aprendizaje, lo que se traduce en un rendimiento superior en múltiples dominios.
Lea el documento
Transformador de planes latentes para la abstracción de trayectorias: la planificación como inferencia espacial latente
Autores: Deqian Kong, Dehong Xu, Minglu Zhao, Bo Pang, Jianwen Xie, Andrew Lizárraga, Yuhao Huang, Sirui Xie, Ying Nian Wu
En este artículo, presentamos el Transformador de planes latentes, un marco novedoso que trata la planificación como una inferencia de variables latentes. Nuestro enfoque combina los puntos fuertes de los transformadores y los modelos de variables latentes para lograr una planificación sólida y eficiente en entornos complejos.
Conferencia: La 38a Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2024)
Lea el documento
En este artículo, presentamos el Transformador de planes latentes, un marco novedoso que trata la planificación como una inferencia de variables latentes. Nuestro enfoque combina los puntos fuertes de los transformadores y los modelos de variables latentes para lograr una planificación sólida y eficiente en entornos complejos.
Conferencia: La 38a Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2024)
Lea el documento
CoopHash: aprendizaje cooperativo de descriptores multipropósito y generador de pares contrastantes mediante la enseñanza variacional de MCMC para el hash supervisado de imágenes
Autores: Khoa Doan, Jianwen Xie, Yaxuan Zhu, Yang Zhao, Ping Li
CoopHash presenta un enfoque novedoso para el hash supervisado de imágenes mediante el aprendizaje cooperativo. Al aprovechar la enseñanza de Montecarlo mediante cadenas de Markov variacionales (MCMC), optimiza simultáneamente un descriptor multipropósito y un generador de pares contrastantes. Este método innovador mejora la eficiencia y la precisión del hash de imágenes, lo que lo convierte en un avance significativo en este campo.
Lea el documento
CoopHash presenta un enfoque novedoso para el hash supervisado de imágenes mediante el aprendizaje cooperativo. Al aprovechar la enseñanza de Montecarlo mediante cadenas de Markov variacionales (MCMC), optimiza simultáneamente un descriptor multipropósito y un generador de pares contrastantes. Este método innovador mejora la eficiencia y la precisión del hash de imágenes, lo que lo convierte en un avance significativo en este campo.
Lea el documento
Odisea basada en la energía latente: optimización de la caja negra mediante una exploración ampliada en el espacio latente basado en la energía
Autores: Peiyu Yu, Dinghuai Zhang, Hengzhi He, Xiaojian Ma, Ruiyao Miao, Yifan Lu, Yasi Zhang, Deqian Kong, Ruiqi Gao, Jianwen Xie, Guang Cheng, Ying Nian Wu
Este artículo presenta un novedoso método de optimización de caja negra conocido como la Odisea basada en la energía latente. El enfoque se centra en ampliar la exploración dentro de un espacio latente basado en la energía, mejorando el proceso de optimización. Al aprovechar el panorama energético del espacio latente, el método mejora la eficiencia y la eficacia de las tareas de optimización, lo que lo convierte en un avance significativo en el campo del aprendizaje automático y la optimización.
Lea el documento
Este artículo presenta un novedoso método de optimización de caja negra conocido como la Odisea basada en la energía latente. El enfoque se centra en ampliar la exploración dentro de un espacio latente basado en la energía, mejorando el proceso de optimización. Al aprovechar el panorama energético del espacio latente, el método mejora la eficiencia y la eficacia de las tareas de optimización, lo que lo convierte en un avance significativo en el campo del aprendizaje automático y la optimización.
Lea el documento
Diseño de moléculas mediante Latent Prompt Transformer
Autores: Deqian Kong, Yuhao Huang, Jianwen Xie, Eduardo Honig, Ming Xu, ShuanghongXue, Pei Lin, Sanping Zhou, Sheng Zhong, Nanning Zheng, Ying Nian Wu
Proponemos el latent Prompt Transformer (LPT), un modelo generativo novedoso para el desafiante problema del diseño de moléculas. Los experimentos demuestran que el LPT no solo descubre de manera eficaz moléculas útiles mediante tareas de optimización con un único objetivo, varios objetivos y con estructuras limitadas, sino que también muestra una gran eficiencia en la toma de muestras.
Lea el documento
Proponemos el latent Prompt Transformer (LPT), un modelo generativo novedoso para el desafiante problema del diseño de moléculas. Los experimentos demuestran que el LPT no solo descubre de manera eficaz moléculas útiles mediante tareas de optimización con un único objetivo, varios objetivos y con estructuras limitadas, sino que también muestra una gran eficiencia en la toma de muestras.
Lea el documento
Acerca de nosotros
Nuestro equipo está formado por investigadores de renombre de prestigiosas instituciones, que trabajan en colaboración para avanzar en el campo de la inteligencia artificial. Nos centramos en desarrollar soluciones innovadoras que aborden problemas del mundo real y contribuyan a la comunidad científica en general.
Manténgase conectado
Comuníquese con nosotros: Para consultas, colaboraciones o más información sobre nuestra investigación, comuníquese con nosotros en info@akool.com.