<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META content="text/html; charset=utf-8" http-equiv=Content-Type>
<META name=GENERATOR content="MSHTML 8.00.6001.23562">
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV>
<H1>Кто на самом деле писал письмо о запрете ИИ, которое одобрили Маск и Возняк
– перевод VICE </H1>
<DIV class=hreflang-link><A
href="https://tech.liga.net/ua/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice">Цей
матеріал також доступний українською</A> </DIV>
<DIV class="d-flex justify-content-between top-soc-area">
<DIV class="article-time d-inline-flex">30.03.2023, 19:00</DIV>
<DIV class="social-shares d-flex justify-content-center"><A
href="https://www.facebook.com/sharer/sharer.php?u=https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice"
rel="noreferrer noopener" target=_blank>
<DIV class="social act fb d-flex justify-content-center align-items-center"></A>
<DIV class="line position-relative w-100 auth-line"></DIV>Письмо об опасности
искусственного интеллекта опубликовали два дня назад, а некоторые подписанты уже
отказались от своих слов. Кто за
<DIV class=clearfix></DIV>В соцсетях активно обсуждают открытое <A
href="https://news.liga.net/politics/news/mojet-byt-opasen-dlya-lyudey-mask-i-1000-liderov-it-prizvali-priostanovit-razrabotku-ii">письмо</A>
об "опасной" гонке искусственного интеллекта (ИИ), которое подписали Илон Маск,
Стив Возняк, Эндрю Янг и другие ведущие исследователи ИИ.</DIV></DIV></DIV>
<DIV class="news-wrap opinion-end clearfix airSticky_stop-block">
<DIV>
<DIV id=news-text
data-io-article-url="https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice">
<P dir=ltr>Издание VICE <A
href="https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-mess"
rel="nofollow noopener">проанализировало</A>, кто еще стоит за этим письмом.
<STRONG><A href="https://tech.liga.net/ua">Liga.Tech</A></STRONG> публикует
перевод этой статьи и объясняет, почему призывы запретить новые исследования не
решают текущие проблемы использования ИИ.</P>
<H3 dir=ltr>Кто стоит за написанием письма</H3>
<P dir=ltr>Более 30 000 человек, включая руководителя SpaceX и Tesla Илона
Маска, соучредителя Apple Стива Возняка, политика Эндрю Янга и нескольких
ведущих исследователей искусственного интеллекта, подписали открытое письмо с
призывом на полгода приостановить обучение систем искусственного интеллекта,
более мощных, чем GPT-4.</P>
<P dir=ltr>Этот призыв мгновенно оказался в центре бурного обсуждения, поскольку
отдельные подписанты изменили свою позицию, некоторые подписи оказались
фальшивыми, а многие другие исследователи и эксперты ИИ открыто не согласились с
предложением и подходом письма.</P>
<P dir=ltr>Письмо было написано <A href="https://futureoflife.org/"
rel="nofollow noopener">Институтом будущего жизни</A> (Future of Life
Institute), основанным в 2014 году некоммерческой организацией, целью которой
является "уменьшение глобальных катастрофических и экзистенциальных рисков от
мощных технологий". Среди его основателей – космолог Массачусетского
технологического института Макс Тегмарк и соучредитель Skype Яан Таллинн.</P>
<P dir=ltr>В эту организацию входят некоторые из самых больших сторонников
долготерминизма, своеобразной светской религии, исповедующей поиск огромных
инвестиций для решения проблем, которые предстанут перед людьми в далеком
будущем. В частности, институт сосредотачивается на смягчении долгосрочных
"экзистенциальных" рисков для человечества, таких как сверхумный искусственный
интеллект.</P>
<P dir=ltr>Эти идеи поддерживают многие представители технологической элиты
Кремниевой долины. К примеру, экс-генеральный директор криптобиржи FTX Сэм
Бенкман-Фрид, которого обвиняют в обмане инвесторов. Илон Маск пожертвовал $10
миллионов на этот институт в 2015 году. С тех пор каждые два года институт
организует конференции, объединяющие ведущих разработчиков искусственного
интеллекта из научных кругов и промышленности.</P>
<H3 dir=ltr>Цель – остановить гонки между техногигантами</H3>
<P dir=ltr>"Мощные системы искусственного интеллекта следует разрабатывать
только тогда, когда мы будем уверены, что их эффект будет положительным, а риски
– управляемыми. Поэтому мы призываем все лаборатории искусственного интеллекта
немедленно приостановить по крайней мере на 6 месяцев обучение систем
искусственного интеллекта, мощнее GPT-4", – говорится в письме.</P>
<P dir=ltr>Его авторы предлагают разработчикам и независимым экспертам
использовать эту паузу, чтобы совместно разработать и внедрить набор общих
протоколов безопасности для продвинутого проектирования и разработки ИИ,
тщательно проверяемых и контролируемых независимыми сторонними экспертами.</P>
<P style="LINE-HEIGHT: 1.38; MARGIN-TOP: 0pt; MARGIN-BOTTOM: 0pt" dir=ltr>В
письме уточняется, что это не означает приостановку развития искусственного
интеллекта в целом, а просто уход от опасной гонки. Очевидно, подразумевается
"гонка вооружений" между такими крупными технологическими компаниями, как
Microsoft и Google, которые выпустили ряд новых продуктов ИИ.</P>
<P style="LINE-HEIGHT: 1.38; MARGIN-TOP: 0pt; MARGIN-BOTTOM: 0pt" dir=ltr></P>
<H3>Часть подписей – фальшивка, а некоторые уже отказались</H3>
<P dir=ltr>Среди других известных подписантов – генеральный директор Stability
AI Эмад Мостак, писатель и историк Юваль Ной Харари и соучредитель Pinterest
Эван Шарп. Есть также несколько человек, работающих на компании, участвующие в
гонке вооружений ИИ, в частности, Google DeepMind и Microsoft. Никто из OpenAI,
разрабатывающей и коммерциализирующей серию GPT, не подписал письмо.</P>
<P dir=ltr>Институт утверждает, что подписанты были подтверждены как "независимо
проверенные через прямое общение".</P>
<P dir=ltr>Однако сразу после публикации в письме все же обнаружили несколько
фальшивых подписей, в том числе людей, которые выдавали себя за генерального
директора OpenAI Сэма Альтмана, президента Китая Си Цзиньпина и главного ученого
по искусственному интеллекту Meta Яна Лекуна. Институт быстро их удалил и усилил
проверку.</P>
<H3 dir=ltr>Письмо неправильно трактует чужие исследования</H3>
<P dir=ltr>С момента публикации письмо внимательно изучили многие исследователи
искусственного интеллекта и даже те, кто его подписал.</P>
<P dir=ltr>Гарри Маркус, профессор психологии и нейронауки в Нью-Йоркском
университете, сказал, что "письмо неидеально, но дух правильный". Подобным
образом отреагировал Эмад Мостак, генеральный директор Stability.AI, который
противопоставил свою фирму как действительно "открытую" компанию искусственного
интеллекта, в отличие от OpenAI. В Твиттере он написал: "Да, я не думаю,
что шестимесячная пауза является лучшей идеей, или соглашаюсь со всем, но в этом
письме есть несколько интересных вещей".</P>
<P dir=ltr>Эмили Бендер, профессор кафедры лингвистики Вашингтонского
университета и соавтор статьи, на которую ссылаются авторы этого призыва,
написала в Twitter, что это открытое письмо наполнено хайпом и неправильно
использует ее исследования.</P>
<P dir=ltr>В письме сказано: "Системы ИИ с интеллектом, конкурирующие с людьми,
могут представлять серьезные риски для общества и человечества, как показали
многочисленные исследования", но Бендер отрицает, что ее исследование конкретно
указывает на большие языковые модели и их использование.</P>
<H3 dir=ltr>Содержание отвлекает внимание от текущего вреда</H3>
<P dir=ltr>Саша Лучиони, научный сотрудник и руководитель отдела климата в
Hugging Face, считает письмо слишком провокационным и слишком расплывчатым,
когда речь идет об устранении проблем, связанных с искусственным интеллектом. Он
предлагает требовать от этих разработок большей прозрачности и правового
регулирования.</P>
<P dir=ltr>Арвинд Нараянан, доцент кафедры компьютерных наук Принстонского
университета, тоже считает, что письмо только создает ажиотаж и усложняет борьбу
с реальным вредом от ИИ.</P>
<P dir=ltr>"Должны ли мы автоматизировать всю работу? Должны ли мы развивать
нечеловеческие умы, которые со временем могут превзойти, перехитрить, устареть и
заменить нас? Стоит ли рисковать потерей контроля над нашей цивилизацией?" —
спрашивает открытое письмо.</P>
<P dir=ltr>Нараянан считает это смешным. Вопрос о том, заменят ли компьютеры
людей и захватят ли человеческую цивилизацию, является частью долгосрочного
мышления, которое отвлекает нас от текущих проблем.</P>
<P dir=ltr>В конце концов, ИИ уже интегрируется в рабочие места людей и
уменьшает потребность в определенных профессиях, не будучи сверхчеловеческим
умом.</P>
<P dir=ltr>"Я думаю, что это обоснованные долгосрочные беспокойства, но они не
раз стратегически разворачивались, чтобы отвлечь внимание от текущего ущерба,
включая очень реальные риски для информационной безопасности и безопасности", –
написал Нараянан в Twitter.</P>
<H3 dir=ltr>"Случайные люди в технокомпаниях получают большое влияние"</H3>
<P dir=ltr>На пресс-конференции в эту среду один из известных подписантов Йошуа
Бенджио — один из первых ученых, разработавших глубокое обучение, — сказал
журналистам, что шестимесячный перерыв необходим органам управления, включая
правительства, для понимания, аудита и проверки систем, чтобы они были безопасны
для общественности.</P>
<P dir=ltr>Бенджио сказал, что сейчас существует опасная концентрация власти,
вредная для капитализма, и что инструменты ИИ могут дестабилизировать
демократию. По его словам, существует "конфликт между демократическими
ценностями и тем, как эти инструменты развиваются".</P>
<P dir=ltr>Его коллега Макс Тегмарк, профессор физики Института искусственного
интеллекта и фундаментальных взаимодействий (IAIFI) NSF Массачусетского
технологического института и президент Института будущего жизни, сказал, что
худший сценарий состоит в том, что люди будут постепенно терять все больше
контроля над цивилизацией. По его словам, нынешний риск состоит в том, что мы
теряем контроль из-за груды случайных людей в технологических компаниях, которые
получают огромное влияние.</P>
<DIV><STRONG>Подписывайтесь на LIGA.Tech в Telegram: <A
href="https://bit.ly/3QCY9jn" target=_blank>главные новости мира
технологий</A></STRONG></DIV>
<P dir=ltr>Эксперты считают, что эти комментарии лишь нагнетают страх и не
предлагают никаких конкретных действий вне шестимесячной паузы. "Иронично
призвать приостановить использование моделей более мощных, чем GPT-4, но не
учитывать большое количество проблем, связанных с GPT-4", – заключает позицию
противников письма Тимнит Гебру, компьютерный ученый и основатель Distributed
Artificial Intelligence Research Institute.</P>
<DIV class=readtoo-sp-text>Читайте также</DIV>
<DIV class=readtoo-sp-item><A
href="https://tech.liga.net/technology/article/rabotodateli-uje-ischut-lyudey-kotorye-znayut-chatgpt-vot-chto-eto-za-vakansii">Работодатели
уже ищут людей, которые знают ChatGPT. Вот что это за вакансии</A></DIV>
<DIV class=readtoo-sp-item><A
href="https://tech.liga.net/technology/article/kak-nauchitsya-polzovatsya-chatgpt-10-besplatnyh-kursov-chtoby-zapisat-v-rezyume">Как
научиться пользоваться ChatGPT – 10 бесплатных курсов, чтобы записать в
резюме</A></DIV>
<DIV class="poll-box loading" data-site-url="https://www.liga.net"
data-item="4432061" data-site="3732103" data-container="poll-box"></DIV>
<DIV id=div-gpt-ad-1510915977821-0 class=marketing-block
data-google-query-id="CPne1LGNhP4CFbLsEQgd6qAHaA">
<DIV
style="BORDER-BOTTOM: 0pt; BORDER-LEFT: 0pt; WIDTH: 100%; DISPLAY: inline-block; HEIGHT: auto; BORDER-TOP: 0pt; BORDER-RIGHT: 0pt"
id=google_ads_iframe_/2966392/liganet_marketing_intext_0__container__><IFRAME
style="BORDER-BOTTOM: 0px; MIN-WIDTH: 100%; BORDER-LEFT: 0px; VERTICAL-ALIGN: bottom; BORDER-TOP: 0px; BORDER-RIGHT: 0px"
id=google_ads_iframe_/2966392/liganet_marketing_intext_0
title="3rd party ad content" role=region tabIndex=0 height=0 marginHeight=0
src="https://507673a85b8d10a2da70a8b5e2ca6125.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html"
frameBorder=0 width=0 name="" marginWidth=0 scrolling=no
aria-label="Advertisement" data-is-safeframe="true" data-google-container-id="7"
data-load-complete="true"></IFRAME></DIV></DIV>
<DIV class="row mt-2 mt-sm-0 mb-0">
<DIV class="col-12 col-lg-6 min-author-content">
<DIV class=author>
<DIV class="row no-gutters">
<DIV class=col-auto><A href="https://www.liga.net/author/olga-litskevich">
<DIV><IMG
alt="Кто на самом деле писал письмо о запрете ИИ, которое одобрили Маск и Возняк – перевод VICE"
src="https://tech.liga.net/images/general/2021/11/05/thumbnail-20211105145350-4445.jpg?v=1636118895"
width=1 height=1></DIV></A></DIV>
<DIV class="col author-info-area"><A class=name
href="https://www.liga.net/author/olga-litskevich"><SPAN>Ольга Лицкевич</SPAN>
</A><BR>
<DIV class=author-info>журналистка LIGA.Tech: истории, наука,
бизнес</DIV></DIV></DIV></DIV></DIV></DIV>
<DIV class="line position-relative w-100 auth-line"></DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2
face=Arial></FONT> </DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2
face=Arial><A
href="https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice">https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice</A></FONT></DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2
face=Arial></FONT> </DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2
face=Arial></FONT> </DIV>
<DIV class="warning m-t-20 d-none d-md-none d-lg-block"><FONT size=2
face=Arial></FONT><A
href="https://www.facebook.com/sharer/sharer.php?u=https://tech.liga.net/technology/article/kto-na-samom-dele-pisal-pismo-o-zaprete-ii-kotoroe-odobrili-mask-i-voznyak-perevod-vice"
rel="noreferrer noopener" target=_blank><FONT color=#000000 size=2
face=Arial></FONT> </DIV></DIV>
<DIV
class="social act fb d-flex justify-content-center align-items-center"><FONT
color=#000000 size=2
face=Arial></FONT> </DIV></A></DIV></DIV></DIV></BODY></HTML>