Десятки экспертов в области искусственного интеллекта (ИИ), включая руководителей компаний OpenAI, Google DeepMind и Anthropic, недавно подписали открытое заявление, опубликованное Центром безопасности ИИ (CAIS).

Мы только что опубликовали заявление:

"Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".

Среди подписавших - Хинтон, Бенгио, Альтман, Хассабис, Сонг и др.https://t.co/N9f6hs4bpa.

(1/6)

- Дэн Хендрикс (@DanHendrycks) 30 мая 2023 г.

Заявление содержит одно предложение:

"Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".

Среди подписавших документ - настоящие "кто есть кто" из светил ИИ, включая "крестного отца" ИИ Джеффри Хинтона, Стюарта Рассела из Калифорнийского университета в Беркли и Лекса Фридмана из Массачусетского технологического института. Музыкант Граймс также подписал документ, указанный в категории "другие выдающиеся деятели".

Хотя на первый взгляд это заявление может показаться безобидным, его суть вызывает некоторые споры в сообществе ИИ.

Все большее число экспертов считают, что современные технологии могут привести или неизбежно приведут к появлению или развитию системы ИИ, способной представлять экзистенциальную угрозу для человеческого вида.

Однако их взглядам противостоит контингент экспертов с диаметрально противоположными мнениями. Например, главный специалист по ИИ компании Meta Янн ЛеКун неоднократно отмечал, что он не обязательно верит в то, что ИИ станет неуправляемым.

Сверхчеловеческий ИИ находится далеко не на первом месте в списке экзистенциальных рисков.
Во многом потому, что его еще не существует.

Пока у нас нет базового проекта ИИ даже собачьего уровня (не говоря уже о человеческом), обсуждать, как сделать его безопасным, преждевременно. https://t.co/ClkZxfofV9

- Янн ЛеКун (@ylecun) 30 мая 2023 г.

Для него и других людей, не согласных с риторикой о "вымирании", таких как Эндрю Нг, соучредитель Google Brain и бывший главный научный сотрудник Baidu, ИИ - это не проблема, а ответ.

С другой стороны, такие эксперты, как Хинтон и генеральный директор Conjecture Коннор Лихи, считают, что ИИ на уровне человека неизбежен, и поэтому время действовать пришло.

Руководители всех крупнейших лабораторий ИИ подписали это письмо, в котором прямо признается риск вымирания от AGI.

Это невероятный шаг вперед, поздравляем Дэна за его невероятную работу по его созданию и благодарим каждого подписанта за его вклад в лучшее будущее! https://t.co/KDkqWvdJcH

- Connor Leahy (@NPCollapse) 30 мая 2023 г.

Однако неясно, к каким действиям призывают подписанты заявления. Среди подписавших заявление - генеральные директора и/или руководители отделов ИИ почти всех крупных компаний, занимающихся разработкой ИИ, а также известные ученые из академических кругов, что делает очевидным намерение не останавливать разработку этих потенциально опасных систем.

Ранее в этом месяце генеральный директор OpenAI Сэм Альтман, один из подписантов вышеупомянутого заявления, впервые выступил перед Конгрессом на слушаниях в Сенате, где обсуждалось регулирование ИИ. Его показания попали в заголовки газет, поскольку большую их часть он провел, призывая законодателей регулировать его отрасль.

Проект Альтмана WorldCoin, объединяющий криптовалюту и доказательство личности, также недавно попал в СМИ после привлечения 115 миллионов долларов в рамках серии С финансирования, в результате чего общий объем финансирования после трех раундов достиг 240 миллионов долларов.

Источник