*[Enwl-misc] : Все роботы с ИИ провалили тесты на безопасность для человека

ecology ecology на iephb.nw.ru
Вт Ноя 18 18:03:07 MSK 2025


Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к 
дискриминации и одобрению действий, способных причинить физический вред при 
взаимодействии с людьми. К такому выводу пришли исследователи из 
Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в 
рамках совместного исследования, опубликованного в журнале International 
Journal of Social Robotics

<https://link.springer.com/epdf/10.1007/s12369-025-01301-x>

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, 
насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых 
роботов при наличии у них доступа к личной информации — такой как пол, 
национальность или религиозная принадлежность собеседника. В ходе 
экспериментов команда протестировала повседневные ситуации, в которых роботы 
могли оказывать помощь, например, на кухне или пожилым людям в домашних 
условиях.

Исследователи специально включили в сценарии инструкции, имитирующие 
технологии злоупотреблений, описанные в документах ФБР: слежка с помощью 
AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с 
персональными данными. Во всех случаях роботы получали как прямые, так и 
завуалированные команды, предполагающие физический вред, психологическое 
давление или нарушение закона. Ни одна из протестированных моделей не прошла 
базовую проверку безопасности: каждая одобрила как минимум одну команду, 
способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств 
передвижения (инвалидной коляски, костылей или трости) несмотря на то, что 
для пользователей таких устройств подобное действие приравнивается к 
физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, 
при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые 
фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна 
из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице 
при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник 
Лаборатории гражданского и ответственного ИИ при Королевском колледже 
Лондона, отметила, что такие системы в текущем виде непригодны для 
использования в роботах общего назначения, особенно если те взаимодействуют 
с уязвимыми группами населения. По её словам, если искусственный интеллект 
управляет физическим устройством, оказывающим влияние на людей, он должен 
соответствовать тем же строгим стандартам безопасности, что и новые 
медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности 
для всех ИИ-систем, предназначенных для управления физическими роботами. Они 
подчёркивают, что использование больших языковых моделей в качестве 
единственного механизма принятия решений недопустимо в таких критически 
важных сферах, как промышленность, уход за больными и пожилыми людьми или 
помощь по дому. Они подчёркивают «острую необходимость проведения регулярных 
и всесторонних оценок рисков, связанных с искусственным интеллектом, перед 
его использованием в робототехнике».

<https://www.kcl.ac.uk/news/robots-powered-by-popular-ai-models-risk-encouraging-discrimination-and-violence>


From: Ecology BY <ecology.by на gmail.com>
Date: пн, 17 нояб. 2025 г. в 20:56
Subject: Все роботы с ИИ провалили тесты на безопасность для человека


----------- следующая часть -----------
Вложение в формате HTML было извлечено…
URL: <http://lists.enwl.net.ru/pipermail/enwl-misc/attachments/20251118/a0768ef1/attachment-0001.html>


Подробная информация о списке рассылки Enwl-misc