AKOOL Forschung

Willkommen in unserem Forschungszentrum, in dem wir bahnbrechende Arbeiten in GenAI präsentieren.

Ausgewählte Veröffentlichungen

Ein energiebasiertes Prior für generative Salienz

Autoren: Jing Zhang, Jianwen Xie, Nick Barnes, Ping Li
Fachzeitschrift: IEEE-Transaktionen zu Musteranalyse und Maschinenintelligenz (TPAMI), 2023

In diesem Artikel stellen wir einen neuartigen energiebasierten Prior für generative Salienzmodelle vor. Unser Ansatz verbessert die Interpretierbarkeit und Leistung der Salienzerkennung durch die Integration energiegestützter Techniken, was in verschiedenen Anwendungen zu genaueren und zuverlässigeren Ergebnissen führt.

Lesen Sie die Zeitung

Erlernen energiebasierter Modelle durch kooperative Diffusionswiederherstellungswahrscheinlichkeit

Autoren: Yaxuan Zhu, Jianwen Xie, Ying Nian Wu, Ruiqi Gao
Konferenz: Die zwölfte Internationale Konferenz über Lernrepräsentationen (ICLR), 2024

Diese Studie stellt eine innovative Methode zum Erlernen energiebasierter Modelle unter Verwendung der kooperativen Diffusionswiederherstellungswahrscheinlichkeit vor. Unser Ansatz nutzt die Stärken kooperativer Lern- und Diffusionsprozesse, um die Trainingseffizienz und Effektivität energiegestützter Modelle zu verbessern.

Lesen Sie die Zeitung

Progressives energiebasiertes kooperatives Lernen für die Bild-zu-Bild-Übersetzung aus mehreren Domänen

Autoren: Weinan Song, Yaxuan Zhu, Lei He, Ying Nian Wu, Jianwen Xie
Archiv: ArXiv, 2024

Wir schlagen einen fortschrittlichen energiebasierten kooperativen Lernrahmen für die Bild-zu-Bild-Übersetzung aus mehreren Domänen vor. Diese Methode begegnet den Herausforderungen der Domänenanpassung und -übersetzung, indem sie den Lernprozess schrittweise verfeinert, was zu einer überragenden Leistung in mehreren Bereichen führt.

Lesen Sie die Zeitung

Latenter Plantransformator für Trajektorienabstraktion: Planung als latente Rauminferenz

Autoren: Deqian Kong, Dehong Xu, Minglu Zhao, Bo Pang, Jianwen Xie, Andrew Lizarraga, Yuhao Huang, Sirui Xie, Ying Nian Wu

In diesem Artikel stellen wir den Latent Plan Transformer vor, ein neuartiges Framework, das Planung als latente Variableninferenz behandelt. Unser Ansatz kombiniert die Stärken von Transformatoren und Modellen latenter Variablen, um eine robuste und effiziente Planung in komplexen Umgebungen zu erreichen.

Konferenz: Die 38. Konferenz über neuronale Informationsverarbeitungssysteme (NeurIPS 2024)

Lesen Sie die Zeitung

CooHash: Kooperatives Lernen von Mehrzweckdeskriptoren und kontrastiven Paargeneratoren mithilfe von variationalem MCMC-Unterricht für überwachtes Bild-Hashing

Autoren: Khoa Doan, Jianwen Xie, Yaxuan Zhu, Yang Zhao, Ping Li

CooHash führt einen neuartigen Ansatz für überwachtes Bild-Hashing durch kooperatives Lernen ein. Durch die Nutzung des Variational Markov Chain Monte Carlo (MCMC) -Unterrichts werden gleichzeitig ein Mehrzweckdeskriptor und ein Generator für kontrastive Paare optimiert. Diese innovative Methode verbessert die Effizienz und Genauigkeit des Bild-Hashings und ist damit ein bedeutender Fortschritt auf diesem Gebiet.

Lesen Sie die Zeitung

Odyssee auf Basis latenter Energie: Black-Box-Optimierung durch erweiterte Exploration im energiebasierten Latentraum

Autoren: Peiyu Yu, Dinghuai Zhang, Hengzhi He, Xiaojian Ma, Ruiyao Miao, Yifan Lu, Yasi Zhang, Deqian Kong, Ruiqi Gao, Jianwen Xie, Guang Cheng, Ying Nian Wu

In diesem Artikel wird eine neuartige Black-Box-Optimierungsmethode vorgestellt, die als Latent Energy-Based Odyssey bekannt ist. Der Ansatz konzentriert sich auf eine erweiterte Exploration innerhalb eines energiebasierten Latenzraums, wodurch der Optimierungsprozess verbessert wird. Durch die Nutzung der Energielandschaft des latenten Raums verbessert die Methode die Effizienz und Effektivität von Optimierungsaufgaben und ist damit ein bedeutender Fortschritt auf dem Gebiet des maschinellen Lernens und der Optimierung.

Lesen Sie die Zeitung

Moleküldesign mit Latent Prompt Transformer

Autoren: Deqian Kong, Yuhao Huang, Jianwen Xie, Edouardo Honig, Ming Xu, Shuanghong Xue, Pei Lin, Sanping Zhou, Sheng Zhong, Nanning Zheng, Ying Nian Wu

Wir schlagen den Latent Prompt Transformer (LPT) vor, ein neuartiges generatives Modell für herausfordernde Probleme des Moleküldesigns. Experimente zeigen, dass LPT nicht nur bei Optimierungsaufgaben mit einem Ziel, mehreren Zielen und strukturbeschränkten Optimierungsaufgaben effektiv nützliche Moleküle entdeckt, sondern auch eine hohe Probeneffizienz aufweist.

Lesen Sie die Zeitung

Über uns

Unser Team besteht aus renommierten Forschern renommierter Institutionen, die gemeinsam daran arbeiten, das Gebiet der künstlichen Intelligenz voranzutreiben. Wir konzentrieren uns auf die Entwicklung innovativer Lösungen, die reale Probleme angehen und einen Beitrag zur breiteren wissenschaftlichen Gemeinschaft leisten.

Bleiben Sie in Verbindung

Kontaktieren Sie uns: Für Anfragen, Kooperationen oder weitere Informationen zu unserer Forschung wenden Sie sich bitte an uns unter info@akool.com.