<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META content="text/html; charset=utf-8" http-equiv=Content-Type>
<META name=GENERATOR content="MSHTML 8.00.6001.23562">
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV>
<H1>Кто на самом деле писал письмо о запрете ИИ, которое одобрили Маск и Возняк 
– перевод VICE </H1>
<DIV class=hreflang-link><A 
href="https://tech.liga.net/ua/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice">Цей 
матеріал також доступний українською</A> </DIV>
<DIV class="d-flex justify-content-between top-soc-area">
<DIV class="article-time d-inline-flex">30.03.2023, 19:00</DIV>
<DIV class="social-shares d-flex justify-content-center"><A 
href="https://www.facebook.com/sharer/sharer.php?u=https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice" 
rel="noreferrer noopener" target=_blank>
<DIV class="social act fb d-flex justify-content-center align-items-center"></A>
<DIV class="line position-relative w-100 auth-line"></DIV>Письмо об опасности 
искусственного интеллекта опубликовали два дня назад, а некоторые подписанты уже 
отказались от своих слов. Кто за 
<DIV class=clearfix></DIV>В соцсетях активно обсуждают открытое <A 
href="https://news.liga.net/politics/news/mojet-byt-opasen-dlya-lyudey-mask-i-1000-liderov-it-prizvali-priostanovit-razrabotku-ii">письмо</A> 
об "опасной" гонке искусственного интеллекта (ИИ), которое подписали Илон Маск, 
Стив Возняк, Эндрю Янг и другие ведущие исследователи ИИ.</DIV></DIV></DIV>
<DIV class="news-wrap opinion-end clearfix airSticky_stop-block">
<DIV>
<DIV id=news-text 
data-io-article-url="https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice">
<P dir=ltr>Издание VICE <A 
href="https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-mess" 
rel="nofollow noopener">проанализировало</A>, кто еще стоит за этим письмом. 
<STRONG><A href="https://tech.liga.net/ua">Liga.Tech</A></STRONG> публикует 
перевод этой статьи и объясняет, почему призывы запретить новые исследования не 
решают текущие проблемы использования ИИ.</P>
<H3 dir=ltr>Кто стоит за написанием письма</H3>
<P dir=ltr>Более 30 000 человек, включая руководителя SpaceX и Tesla Илона 
Маска, соучредителя Apple Стива Возняка, политика Эндрю Янга и нескольких 
ведущих исследователей искусственного интеллекта, подписали открытое письмо с 
призывом на полгода приостановить обучение систем искусственного интеллекта, 
более мощных, чем GPT-4.</P>
<P dir=ltr>Этот призыв мгновенно оказался в центре бурного обсуждения, поскольку 
отдельные подписанты изменили свою позицию, некоторые подписи оказались 
фальшивыми, а многие другие исследователи и эксперты ИИ открыто не согласились с 
предложением и подходом письма.</P>
<P dir=ltr>Письмо было написано <A href="https://futureoflife.org/" 
rel="nofollow noopener">Институтом будущего жизни</A> (Future of Life 
Institute), основанным в 2014 году некоммерческой организацией, целью которой 
является "уменьшение глобальных катастрофических и экзистенциальных рисков от 
мощных технологий". Среди его основателей – космолог Массачусетского 
технологического института Макс Тегмарк и соучредитель Skype Яан Таллинн.</P>
<P dir=ltr>В эту организацию входят некоторые из самых больших сторонников 
долготерминизма, своеобразной светской религии, исповедующей поиск огромных 
инвестиций для решения проблем, которые предстанут перед людьми в далеком 
будущем. В частности, институт сосредотачивается на смягчении долгосрочных 
"экзистенциальных" рисков для человечества, таких как сверхумный искусственный 
интеллект.</P>
<P dir=ltr>Эти идеи поддерживают многие представители технологической элиты 
Кремниевой долины. К примеру, экс-генеральный директор криптобиржи FTX Сэм 
Бенкман-Фрид, которого обвиняют в обмане инвесторов. Илон Маск пожертвовал $10 
миллионов на этот институт в 2015 году. С тех пор каждые два года институт 
организует конференции, объединяющие ведущих разработчиков искусственного 
интеллекта из научных кругов и промышленности.</P>
<H3 dir=ltr>Цель – остановить гонки между техногигантами</H3>
<P dir=ltr>"Мощные системы искусственного интеллекта следует разрабатывать 
только тогда, когда мы будем уверены, что их эффект будет положительным, а риски 
– управляемыми. Поэтому мы призываем все лаборатории искусственного интеллекта 
немедленно приостановить по крайней мере на 6 месяцев обучение систем 
искусственного интеллекта, мощнее GPT-4", – говорится в письме.</P>
<P dir=ltr>Его авторы предлагают разработчикам и независимым экспертам 
использовать эту паузу, чтобы совместно разработать и внедрить набор общих 
протоколов безопасности для продвинутого проектирования и разработки ИИ, 
тщательно проверяемых и контролируемых независимыми сторонними экспертами.</P>
<P style="LINE-HEIGHT: 1.38; MARGIN-TOP: 0pt; MARGIN-BOTTOM: 0pt" dir=ltr>В 
письме уточняется, что это не означает приостановку развития искусственного 
интеллекта в целом, а просто уход от опасной гонки. Очевидно, подразумевается 
"гонка вооружений" между такими крупными технологическими компаниями, как 
Microsoft и Google, которые выпустили ряд новых продуктов ИИ.</P>
<P style="LINE-HEIGHT: 1.38; MARGIN-TOP: 0pt; MARGIN-BOTTOM: 0pt" dir=ltr></P>
<H3>Часть подписей – фальшивка, а некоторые уже отказались</H3>
<P dir=ltr>Среди других известных подписантов – генеральный директор Stability 
AI Эмад Мостак, писатель и историк Юваль Ной Харари и соучредитель Pinterest 
Эван Шарп. Есть также несколько человек, работающих на компании, участвующие в 
гонке вооружений ИИ, в частности, Google DeepMind и Microsoft. Никто из OpenAI, 
разрабатывающей и коммерциализирующей серию GPT, не подписал письмо.</P>
<P dir=ltr>Институт утверждает, что подписанты были подтверждены как "независимо 
проверенные через прямое общение".</P>
<P dir=ltr>Однако сразу после публикации в письме все же обнаружили несколько 
фальшивых подписей, в том числе людей, которые выдавали себя за генерального 
директора OpenAI Сэма Альтмана, президента Китая Си Цзиньпина и главного ученого 
по искусственному интеллекту Meta Яна Лекуна. Институт быстро их удалил и усилил 
проверку.</P>
<H3 dir=ltr>Письмо неправильно трактует чужие исследования</H3>
<P dir=ltr>С момента публикации письмо внимательно изучили многие исследователи 
искусственного интеллекта и даже те, кто его подписал.</P>
<P dir=ltr>Гарри Маркус, профессор психологии и нейронауки в Нью-Йоркском 
университете, сказал, что "письмо неидеально, но дух правильный". Подобным 
образом отреагировал Эмад Мостак, генеральный директор Stability.AI, который 
противопоставил свою фирму как действительно "открытую" компанию искусственного 
интеллекта, в отличие от OpenAI. В Твиттере он написал: "Да, я не думаю, 
что шестимесячная пауза является лучшей идеей, или соглашаюсь со всем, но в этом 
письме есть несколько интересных вещей".</P>
<P dir=ltr>Эмили Бендер, профессор кафедры лингвистики Вашингтонского 
университета и соавтор статьи, на которую ссылаются авторы этого призыва, 
написала в Twitter, что это открытое письмо наполнено хайпом и неправильно 
использует ее исследования.</P>
<P dir=ltr>В письме сказано: "Системы ИИ с интеллектом, конкурирующие с людьми, 
могут представлять серьезные риски для общества и человечества, как показали 
многочисленные исследования", но Бендер отрицает, что ее исследование конкретно 
указывает на большие языковые модели и их использование.</P>
<H3 dir=ltr>Содержание отвлекает внимание от текущего вреда</H3>
<P dir=ltr>Саша Лучиони, научный сотрудник и руководитель отдела климата в 
Hugging Face, считает письмо слишком провокационным и слишком расплывчатым, 
когда речь идет об устранении проблем, связанных с искусственным интеллектом. Он 
предлагает требовать от этих разработок большей прозрачности и правового 
регулирования.</P>
<P dir=ltr>Арвинд Нараянан, доцент кафедры компьютерных наук Принстонского 
университета, тоже считает, что письмо только создает ажиотаж и усложняет борьбу 
с реальным вредом от ИИ.</P>
<P dir=ltr>"Должны ли мы автоматизировать всю работу? Должны ли мы развивать 
нечеловеческие умы, которые со временем могут превзойти, перехитрить, устареть и 
заменить нас? Стоит ли рисковать потерей контроля над нашей цивилизацией?" — 
спрашивает открытое письмо.</P>
<P dir=ltr>Нараянан считает это смешным. Вопрос о том, заменят ли компьютеры 
людей и захватят ли человеческую цивилизацию, является частью долгосрочного 
мышления, которое отвлекает нас от текущих проблем.</P>
<P dir=ltr>В конце концов, ИИ уже интегрируется в рабочие места людей и 
уменьшает потребность в определенных профессиях, не будучи сверхчеловеческим 
умом.</P>
<P dir=ltr>"Я думаю, что это обоснованные долгосрочные беспокойства, но они не 
раз стратегически разворачивались, чтобы отвлечь внимание от текущего ущерба, 
включая очень реальные риски для информационной безопасности и безопасности", – 
написал Нараянан в Twitter.</P>
<H3 dir=ltr>"Случайные люди в технокомпаниях получают большое влияние"</H3>
<P dir=ltr>На пресс-конференции в эту среду один из известных подписантов Йошуа 
Бенджио — один из первых ученых, разработавших глубокое обучение, — сказал 
журналистам, что шестимесячный перерыв необходим органам управления, включая 
правительства, для понимания, аудита и проверки систем, чтобы они были безопасны 
для общественности.</P>
<P dir=ltr>Бенджио сказал, что сейчас существует опасная концентрация власти, 
вредная для капитализма, и что инструменты ИИ могут дестабилизировать 
демократию. По его словам, существует "конфликт между демократическими 
ценностями и тем, как эти инструменты развиваются".</P>
<P dir=ltr>Его коллега Макс Тегмарк, профессор физики Института искусственного 
интеллекта и фундаментальных взаимодействий (IAIFI) NSF Массачусетского 
технологического института и президент Института будущего жизни, сказал, что 
худший сценарий состоит в том, что люди будут постепенно терять все больше 
контроля над цивилизацией. По его словам, нынешний риск состоит в том, что мы 
теряем контроль из-за груды случайных людей в технологических компаниях, которые 
получают огромное влияние.</P>
<DIV><STRONG>Подписывайтесь на LIGA.Tech в Telegram: <A 
href="https://bit.ly/3QCY9jn" target=_blank>главные новости мира 
технологий</A></STRONG></DIV>
<P dir=ltr>Эксперты считают, что эти комментарии лишь нагнетают страх и не 
предлагают никаких конкретных действий вне шестимесячной паузы. "Иронично 
призвать приостановить использование моделей более мощных, чем GPT-4, но не 
учитывать большое количество проблем, связанных с GPT-4", – заключает позицию 
противников письма Тимнит Гебру, компьютерный ученый и основатель Distributed 
Artificial Intelligence Research Institute.</P>
<DIV class=readtoo-sp-text>Читайте также</DIV>
<DIV class=readtoo-sp-item><A 
href="https://tech.liga.net/technology/article/rabotodateli-uje-ischut-lyudey-kotorye-znayut-chatgpt-vot-chto-eto-za-vakansii">Работодатели 
уже ищут людей, которые знают ChatGPT. Вот что это за вакансии</A></DIV>
<DIV class=readtoo-sp-item><A 
href="https://tech.liga.net/technology/article/kak-nauchitsya-polzovatsya-chatgpt-10-besplatnyh-kursov-chtoby-zapisat-v-rezyume">Как 
научиться пользоваться ChatGPT – 10 бесплатных курсов, чтобы записать в 
резюме</A></DIV>
<DIV class="poll-box loading" data-site-url="https://www.liga.net" 
data-item="4432061" data-site="3732103" data-container="poll-box"></DIV>
<DIV id=div-gpt-ad-1510915977821-0 class=marketing-block 
data-google-query-id="CPne1LGNhP4CFbLsEQgd6qAHaA">
<DIV 
style="BORDER-BOTTOM: 0pt; BORDER-LEFT: 0pt; WIDTH: 100%; DISPLAY: inline-block; HEIGHT: auto; BORDER-TOP: 0pt; BORDER-RIGHT: 0pt" 
id=google_ads_iframe_/2966392/liganet_marketing_intext_0__container__><IFRAME 
style="BORDER-BOTTOM: 0px; MIN-WIDTH: 100%; BORDER-LEFT: 0px; VERTICAL-ALIGN: bottom; BORDER-TOP: 0px; BORDER-RIGHT: 0px" 
id=google_ads_iframe_/2966392/liganet_marketing_intext_0 
title="3rd party ad content" role=region tabIndex=0 height=0 marginHeight=0 
src="https://507673a85b8d10a2da70a8b5e2ca6125.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html" 
frameBorder=0 width=0 name="" marginWidth=0 scrolling=no 
aria-label="Advertisement" data-is-safeframe="true" data-google-container-id="7" 
data-load-complete="true"></IFRAME></DIV></DIV>
<DIV class="row mt-2 mt-sm-0 mb-0">
<DIV class="col-12 col-lg-6 min-author-content">
<DIV class=author>
<DIV class="row no-gutters">
<DIV class=col-auto><A href="https://www.liga.net/author/olga-litskevich">
<DIV><IMG 
alt="Кто на самом деле писал письмо о запрете ИИ, которое одобрили Маск и Возняк – перевод VICE" 
src="https://tech.liga.net/images/general/2021/11/05/thumbnail-20211105145350-4445.jpg?v=1636118895" 
width=1 height=1></DIV></A></DIV>
<DIV class="col author-info-area"><A class=name 
href="https://www.liga.net/author/olga-litskevich"><SPAN>Ольга Лицкевич</SPAN> 
</A><BR>
<DIV class=author-info>журналистка LIGA.Tech: истории, наука, 
бизнес</DIV></DIV></DIV></DIV></DIV></DIV>
<DIV class="line position-relative w-100 auth-line"></DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2 
face=Arial></FONT> </DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2 
face=Arial><A 
href="https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice">https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice</A></FONT></DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2 
face=Arial></FONT> </DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2 
face=Arial></FONT> </DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2 
face=Arial></FONT><A 
href="https://www.facebook.com/sharer/sharer.php?u=https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice" 
rel="noreferrer noopener" target=_blank><FONT color=#000000 size=2 
face=Arial></FONT> </DIV></DIV>
<DIV 
class="social act fb d-flex justify-content-center align-items-center"><FONT 
color=#000000 size=2 
face=Arial></FONT> </DIV></A></DIV></DIV></DIV></BODY></HTML>