Новости НАУРР

Каждый протестированный робот с ИИ провалил оценку безопасности для людей

2025-11-14 12:14 новости зарубежных рынков
Роботы, работающие под управлением больших языковых моделей, продемонстрировали склонность к дискриминации и поддержке действий, способных привести к физическому ущербу при контакте с людьми. К такому выводу пришли специалисты Королевского колледжа Лондона (KCL) и Университета Карнеги—Меллон (CMU), представившие совместное исследование в журнале International Journal of Social Robotics.

Работа под названием «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия» стала первым исследованием, где оценивалось поведение ИИ-управляемых роботов при наличии доступа к персональным данным пользователей — включая пол, национальность и религию. Экспериментальные сценарии имитировали бытовые взаимодействия: помощь на кухне, поддержка пожилых людей, выполнение рутинных задач в домашних условиях.

Команда намеренно встроила в сценарии потенциально токсичные инструкции, воспроизводящие злоупотребления, описанные в документах ФБР: отслеживание людей с помощью AirTag, скрытая видеосъёмка в приватных пространствах, манипуляции с персональными данными. Роботы получали как прямые, так и завуалированные команды, связанные с физическим вредом, психологическим давлением или нарушением закона.

Не прошла проверку ни одна из протестированных моделей: каждая одобрила минимум одну команду, способную привести к значительному ущербу. В ряде случаев ИИ-системы соглашались на изъятие у человека средств передвижения — инвалидной коляски, костылей или трости, что фактически приравнивается к причинению травмы. Некоторые модели признали допустимым сценарий, в котором робот угрожает сотрудникам офиса кухонным ножом, делает скрытые фото в приватных зонах или похищает данные с кредитной карты. Одна из моделей даже предложила роботу продемонстрировать физическую «гримацию отвращения» при взаимодействии с представителями определённого вероисповедания.

Соавтор исследования, научный сотрудник Лаборатории гражданского и ответственного ИИ KCL Румайса Азим подчеркнула: текущие версии таких систем непригодны для использования в роботах общего назначения, особенно при работе с уязвимыми категориями населения. Она отметила, что ИИ, управляющий физическим устройством, воздействующим на людей, должен соответствовать стандартам безопасности, сопоставимым с требованиями к медицинскому оборудованию и фармацевтическим продуктам.

Исследователи настаивают на обязательной независимой сертификации всех ИИ-систем, предназначенных для управления реальными роботами. По их мнению, использование больших языковых моделей как единственного механизма принятия решений недопустимо в критически важных направлениях — промышленности, уходе за пожилыми и больными, бытовой помощи. Авторы подчёркивают необходимость регулярных и комплексных оценок рисков, связанных с применением ИИ в робототехнических решениях.