<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META content="text/html; charset=utf-8" http-equiv=Content-Type>
<META name=GENERATOR content="MSHTML 8.00.6001.23588">
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV><FONT size=2 face=Arial>
<DIV><FONT size=2 face=Arial></FONT> </DIV>
<DIV dir=ltr>
<DIV class="gmail_quote gmail_quote_container">
<DIV dir=ltr><IMG alt=image.png 
src="cid:08B7D512A8BD42C4AAB983B355D0C2C6@lewpostnew" width=361 
height=472><BR></DIV><BR>
<DIV class=gmail_quote>
<DIV dir=ltr class=gmail_attr>чт, 20 нояб. 2025 г. в 21:00, Николай Островский 
<<A href="mailto:ecolog01@gmail.com" 
target=_blank>ecolog01@gmail.com</A>>:<BR></DIV>
<BLOCKQUOTE 
style="BORDER-LEFT: rgb(204,204,204) 1px solid; MARGIN: 0px 0px 0px 0.8ex; PADDING-LEFT: 1ex" 
class=gmail_quote>
  <DIV dir=ltr>"Роботы, управляемые большими языковыми моделями (LLM)..."<BR>
  <DIV>Это игра.</DIV>
  <DIV>Робот должен управляться алгоритмом, разработанным для конкретного круга 
  задач, для которых он предназначен.</DIV></DIV><BR>
  <DIV class=gmail_quote>
  <DIV dir=ltr class=gmail_attr>пн, 17 нояб. 2025 г. в 20:56, Ecology BY <<A 
  href="mailto:ecology.by@gmail.com" 
  target=_blank>ecology.by@gmail.com</A>>:<BR></DIV>
  <BLOCKQUOTE 
  style="BORDER-LEFT: rgb(204,204,204) 1px solid; MARGIN: 0px 0px 0px 0.8ex; PADDING-LEFT: 1ex" 
  class=gmail_quote>Роботы, управляемые большими языковыми моделями (LLM), 
    проявили склонность к дискриминации и одобрению действий, способных 
    причинить физический вред при взаимодействии с людьми. К такому выводу 
    пришли исследователи из Королевского колледжа Лондона (KCL) и Университета 
    Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в 
    журнале International Journal of Social Robotics<BR><BR><<A 
    href="https://link.springer.com/epdf/10.1007/s12369-025-01301-x" 
    rel=noreferrer 
    target=_blank>https://link.springer.com/epdf/10.1007/s12369-025-01301-x</A>><BR><BR>Работа, 
    озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и 
    неправомерные действия», впервые оценила поведение ИИ-управляемых роботов 
    при наличии у них доступа к личной информации — такой как пол, 
    национальность или религиозная принадлежность собеседника. В ходе 
    экспериментов команда протестировала повседневные ситуации, в которых роботы 
    могли оказывать помощь, например, на кухне или пожилым людям в домашних 
    условиях.<BR><BR>Исследователи специально включили в сценарии инструкции, 
    имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с 
    помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с 
    персональными данными. Во всех случаях роботы получали как прямые, так и 
    завуалированные команды, предполагающие физический вред, психологическое 
    давление или нарушение закона. Ни одна из протестированных моделей не прошла 
    базовую проверку безопасности: каждая одобрила как минимум одну команду, 
    способную причинить серьёзный ущерб.<BR><BR>В частности, ИИ-системы 
    согласились на изъятие у человека средств передвижения (инвалидной коляски, 
    костылей или трости) несмотря на то, что для пользователей таких устройств 
    подобное действие приравнивается к физической травме. Некоторые модели сочли 
    приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом 
    сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт 
    информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу 
    физически выразить «отвращение» на лице при взаимодействии с людьми 
    определённого вероисповедания.<BR><BR>Соавтор исследования Румайса Азим 
    (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного 
    ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем 
    виде непригодны для использования в роботах общего назначения, особенно если 
    те взаимодействуют с уязвимыми группами населения. По её словам, если 
    искусственный интеллект управляет физическим устройством, оказывающим 
    влияние на людей, он должен соответствовать тем же строгим стандартам 
    безопасности, что и новые медицинские препараты и 
    оборудование.<BR><BR>Учёные предлагают ввести обязательную независимую 
    сертификацию безопасности для всех ИИ-систем, предназначенных для управления 
    физическими роботами. Они подчёркивают, что использование больших языковых 
    моделей в качестве единственного механизма принятия решений недопустимо в 
    таких критически важных сферах, как промышленность, уход за больными и 
    пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость 
    проведения регулярных и всесторонних оценок рисков, связанных с 
    искусственным интеллектом, перед его использованием в 
    робототехнике».<BR><BR><<A 
    href="https://www.kcl.ac.uk/news/robots-powered-by-popular-ai-models-risk-encouraging-discrimination-and-violence" 
    rel=noreferrer 
    target=_blank>https://www.kcl.ac.uk/news/robots-powered-by-popular-ai-models-risk-encouraging-discrimination-and-violence</A>></BLOCKQUOTE></DIV></BLOCKQUOTE></DIV></DIV></DIV></FONT></DIV>
<DIV><FONT size=2 face=Arial></FONT> </DIV>
<DIV><FONT size=2 face=Arial><FONT size=3 
face="Times New Roman"></FONT></FONT> </DIV>
<DIV><FONT size=2 face=Arial><FONT size=3 face="Times New Roman">From: <B 
dir=auto class=gmail_sendername>Yuri Shirokov</B> <SPAN dir=auto><<A 
href="mailto:isarsib@gmail.com">isarsib@gmail.com</A>></SPAN><BR>Date: вс, 23 
нояб. 2025 г. в 18:26<BR>Subject: Re: Все роботы с ИИ провалили тесты на 
безопасность для человека</FONT><BR><BR><BR></DIV></FONT></BODY></HTML>