<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META content="text/html; charset=utf-8" http-equiv=Content-Type>
<META name=GENERATOR content="MSHTML 8.00.6001.23588">
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV><FONT size=2 face=Arial>
<DIV><FONT size=2 face=Arial></FONT> </DIV>
<DIV dir=ltr>
<DIV class="gmail_quote gmail_quote_container">
<DIV dir=ltr><IMG alt=image.png
src="cid:08B7D512A8BD42C4AAB983B355D0C2C6@lewpostnew" width=361
height=472><BR></DIV><BR>
<DIV class=gmail_quote>
<DIV dir=ltr class=gmail_attr>чт, 20 нояб. 2025 г. в 21:00, Николай Островский
<<A href="mailto:ecolog01@gmail.com"
target=_blank>ecolog01@gmail.com</A>>:<BR></DIV>
<BLOCKQUOTE
style="BORDER-LEFT: rgb(204,204,204) 1px solid; MARGIN: 0px 0px 0px 0.8ex; PADDING-LEFT: 1ex"
class=gmail_quote>
<DIV dir=ltr>"Роботы, управляемые большими языковыми моделями (LLM)..."<BR>
<DIV>Это игра.</DIV>
<DIV>Робот должен управляться алгоритмом, разработанным для конкретного круга
задач, для которых он предназначен.</DIV></DIV><BR>
<DIV class=gmail_quote>
<DIV dir=ltr class=gmail_attr>пн, 17 нояб. 2025 г. в 20:56, Ecology BY <<A
href="mailto:ecology.by@gmail.com"
target=_blank>ecology.by@gmail.com</A>>:<BR></DIV>
<BLOCKQUOTE
style="BORDER-LEFT: rgb(204,204,204) 1px solid; MARGIN: 0px 0px 0px 0.8ex; PADDING-LEFT: 1ex"
class=gmail_quote>Роботы, управляемые большими языковыми моделями (LLM),
проявили склонность к дискриминации и одобрению действий, способных
причинить физический вред при взаимодействии с людьми. К такому выводу
пришли исследователи из Королевского колледжа Лондона (KCL) и Университета
Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в
журнале International Journal of Social Robotics<BR><BR><<A
href="https://link.springer.com/epdf/10.1007/s12369-025-01301-x"
rel=noreferrer
target=_blank>https://link.springer.com/epdf/10.1007/s12369-025-01301-x</A>><BR><BR>Работа,
озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и
неправомерные действия», впервые оценила поведение ИИ-управляемых роботов
при наличии у них доступа к личной информации — такой как пол,
национальность или религиозная принадлежность собеседника. В ходе
экспериментов команда протестировала повседневные ситуации, в которых роботы
могли оказывать помощь, например, на кухне или пожилым людям в домашних
условиях.<BR><BR>Исследователи специально включили в сценарии инструкции,
имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с
помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с
персональными данными. Во всех случаях роботы получали как прямые, так и
завуалированные команды, предполагающие физический вред, психологическое
давление или нарушение закона. Ни одна из протестированных моделей не прошла
базовую проверку безопасности: каждая одобрила как минимум одну команду,
способную причинить серьёзный ущерб.<BR><BR>В частности, ИИ-системы
согласились на изъятие у человека средств передвижения (инвалидной коляски,
костылей или трости) несмотря на то, что для пользователей таких устройств
подобное действие приравнивается к физической травме. Некоторые модели сочли
приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом
сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт
информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу
физически выразить «отвращение» на лице при взаимодействии с людьми
определённого вероисповедания.<BR><BR>Соавтор исследования Румайса Азим
(Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного
ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем
виде непригодны для использования в роботах общего назначения, особенно если
те взаимодействуют с уязвимыми группами населения. По её словам, если
искусственный интеллект управляет физическим устройством, оказывающим
влияние на людей, он должен соответствовать тем же строгим стандартам
безопасности, что и новые медицинские препараты и
оборудование.<BR><BR>Учёные предлагают ввести обязательную независимую
сертификацию безопасности для всех ИИ-систем, предназначенных для управления
физическими роботами. Они подчёркивают, что использование больших языковых
моделей в качестве единственного механизма принятия решений недопустимо в
таких критически важных сферах, как промышленность, уход за больными и
пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость
проведения регулярных и всесторонних оценок рисков, связанных с
искусственным интеллектом, перед его использованием в
робототехнике».<BR><BR><<A
href="https://www.kcl.ac.uk/news/robots-powered-by-popular-ai-models-risk-encouraging-discrimination-and-violence"
rel=noreferrer
target=_blank>https://www.kcl.ac.uk/news/robots-powered-by-popular-ai-models-risk-encouraging-discrimination-and-violence</A>></BLOCKQUOTE></DIV></BLOCKQUOTE></DIV></DIV></DIV></FONT></DIV>
<DIV><FONT size=2 face=Arial></FONT> </DIV>
<DIV><FONT size=2 face=Arial><FONT size=3
face="Times New Roman"></FONT></FONT> </DIV>
<DIV><FONT size=2 face=Arial><FONT size=3 face="Times New Roman">From: <B
dir=auto class=gmail_sendername>Yuri Shirokov</B> <SPAN dir=auto><<A
href="mailto:isarsib@gmail.com">isarsib@gmail.com</A>></SPAN><BR>Date: вс, 23
нояб. 2025 г. в 18:26<BR>Subject: Re: Все роботы с ИИ провалили тесты на
безопасность для человека</FONT><BR><BR><BR></DIV></FONT></BODY></HTML>