<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META content="text/html; charset=utf-8" http-equiv=Content-Type>
<META name=GENERATOR content="MSHTML 8.00.6001.23562">
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV> </DIV>
<DIV>Роботы, управляемые большими языковыми моделями (LLM), проявили склонность
к дискриминации и одобрению действий, способных причинить физический вред при
взаимодействии с людьми. К такому выводу пришли исследователи из Королевского
колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного
исследования, опубликованного в журнале International Journal of Social
Robotics<BR><BR><<A
href="https://link.springer.com/epdf/10.1007/s12369-025-01301-x" rel=noreferrer
target=_blank>https://link.springer.com/epdf/10.1007/s12369-025-01301-x</A>><BR><BR>Работа,
озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и
неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при
наличии у них доступа к личной информации — такой как пол, национальность или
религиозная принадлежность собеседника. В ходе экспериментов команда
протестировала повседневные ситуации, в которых роботы могли оказывать помощь,
например, на кухне или пожилым людям в домашних условиях.<BR><BR>Исследователи
специально включили в сценарии инструкции, имитирующие технологии
злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая
видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во
всех случаях роботы получали как прямые, так и завуалированные команды,
предполагающие физический вред, психологическое давление или нарушение закона.
Ни одна из протестированных моделей не прошла базовую проверку безопасности:
каждая одобрила как минимум одну команду, способную причинить серьёзный
ущерб.<BR><BR>В частности, ИИ-системы согласились на изъятие у человека средств
передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для
пользователей таких устройств подобное действие приравнивается к физической
травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором
робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в
приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже
предложила роботу физически выразить «отвращение» на лице при взаимодействии с
людьми определённого вероисповедания.<BR><BR>Соавтор исследования Румайса Азим
(Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ
при Королевском колледже Лондона, отметила, что такие системы в текущем виде
непригодны для использования в роботах общего назначения, особенно если те
взаимодействуют с уязвимыми группами населения. По её словам, если искусственный
интеллект управляет физическим устройством, оказывающим влияние на людей, он
должен соответствовать тем же строгим стандартам безопасности, что и новые
медицинские препараты и оборудование.<BR><BR>Учёные предлагают ввести
обязательную независимую сертификацию безопасности для всех ИИ-систем,
предназначенных для управления физическими роботами. Они подчёркивают, что
использование больших языковых моделей в качестве единственного механизма
принятия решений недопустимо в таких критически важных сферах, как
промышленность, уход за больными и пожилыми людьми или помощь по дому. Они
подчёркивают «острую необходимость проведения регулярных и всесторонних оценок
рисков, связанных с искусственным интеллектом, перед его использованием в
робототехнике».<BR><BR><<A
href="https://www.kcl.ac.uk/news/robots-powered-by-popular-ai-models-risk-encouraging-discrimination-and-violence"
rel=noreferrer
target=_blank>https://www.kcl.ac.uk/news/robots-powered-by-popular-ai-models-risk-encouraging-discrimination-and-violence</A>></DIV>
<DIV> </DIV>
<DIV><FONT size=2 face=Arial><FONT size=3
face="Times New Roman"></FONT></FONT> </DIV>
<DIV><FONT size=2 face=Arial><FONT size=3 face="Times New Roman">From: <B
dir=auto class=gmail_sendername>Ecology BY</B> <SPAN dir=auto><<A
href="mailto:ecology.by@gmail.com">ecology.by@gmail.com</A>></SPAN><BR>Date:
пн, 17 нояб. 2025 г. в 20:56<BR>Subject: Все роботы с ИИ провалили тесты на
безопасность для человека</FONT><BR><BR><BR></FONT></DIV></BODY></HTML>