Новости НАУРР

Учёные ВШЭ предложили новый метод ускоренного обучения генеративных потоковых нейросетей

Исследователи факультета компьютерных наук НИУ ВШЭ разработали способ оптимизации обучения генеративных потоковых нейросетей (GFlowNets), что позволит быстрее и эффективнее решать задачи в сфере фармацевтики, материаловедения и искусственного интеллекта. Результаты работы были представлены на одной из крупнейших конференций по машинному обучению — ICLR 2025.

Что такое GFlowNets
Генеративные потоковые сети (GFlowNets) — это алгоритмы машинного обучения, которые строят сложные объекты шаг за шагом, ориентируясь не на готовые данные, а на систему вознаграждений. Такой подход широко применяется для поиска белков, разработки лекарственных соединений и оптимизации транспортных систем.

Работа сетей строится на взаимодействии двух моделей: прямой и обратной. Первая отвечает за прогнозирование следующих шагов, вторая — за восстановление предыдущих. Однако баланс между ними требует огромных вычислительных ресурсов, а обратная модель часто оказывается «жёсткой» и малоадаптивной.

Новый метод TLM
Команда ВШЭ предложила подход Trajectory Likelihood Maximization (TLM), который позволяет обратной модели динамически подстраиваться под прямую, фактически превращая их взаимодействие в «переговоры». Это делает поиск решений более гибким и эффективным.

По словам стажёра-исследователя Центра глубинного обучения и байесовских методов Института искусственного интеллекта и цифровых наук ФКН НИУ ВШЭ Тимофея Грицаева, новый метод позволяет «согласовывать» действия двух моделей, что особенно важно для задач с высокой степенью неопределённости.

Младший научный сотрудник Центра Никита Морозов отмечает, что внедрение TLM ускоряет просмотр пространства возможных решений и позволяет находить больше качественных вариантов, сближая GFlowNets с методами обучения с подкреплением.

Перспективы применения
Разработка команды ВШЭ может существенно ускорить процессы поиска новых лекарств, проектирования материалов с заданными свойствами и тонкой настройки крупных языковых моделей. Благодаря более рациональному использованию вычислительных мощностей GFlowNets становятся доступнее для широкого круга исследовательских задач.