Десятки экспертов в области искусственного интеллекта (ИИ), включая руководителей компаний OpenAI, Google DeepMind и Anthropic, недавно подписали открытое заявление, опубликованное Центром безопасности ИИ (CAIS).
Мы только что опубликовали заявление:
- Дэн Хендрикс (@DanHendrycks) 30 мая 2023 г.
"Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".
Среди подписавших - Хинтон, Бенгио, Альтман, Хассабис, Сонг и др.https://t.co/N9f6hs4bpa.
(1/6)
Заявление содержит одно предложение:
"Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".
Среди подписавших документ - настоящие "кто есть кто" из светил ИИ, включая "крестного отца" ИИ Джеффри Хинтона, Стюарта Рассела из Калифорнийского университета в Беркли и Лекса Фридмана из Массачусетского технологического института. Музыкант Граймс также подписал документ, указанный в категории "другие выдающиеся деятели".
Хотя на первый взгляд это заявление может показаться безобидным, его суть вызывает некоторые споры в сообществе ИИ.
Все большее число экспертов считают, что современные технологии могут привести или неизбежно приведут к появлению или развитию системы ИИ, способной представлять экзистенциальную угрозу для человеческого вида.
Однако их взглядам противостоит контингент экспертов с диаметрально противоположными мнениями. Например, главный специалист по ИИ компании Meta Янн ЛеКун неоднократно отмечал, что он не обязательно верит в то, что ИИ станет неуправляемым.
Сверхчеловеческий ИИ находится далеко не на первом месте в списке экзистенциальных рисков.
- Янн ЛеКун (@ylecun) 30 мая 2023 г.
Во многом потому, что его еще не существует.
Пока у нас нет базового проекта ИИ даже собачьего уровня (не говоря уже о человеческом), обсуждать, как сделать его безопасным, преждевременно. https://t.co/ClkZxfofV9
Для него и других людей, не согласных с риторикой о "вымирании", таких как Эндрю Нг, соучредитель Google Brain и бывший главный научный сотрудник Baidu, ИИ - это не проблема, а ответ.
С другой стороны, такие эксперты, как Хинтон и генеральный директор Conjecture Коннор Лихи, считают, что ИИ на уровне человека неизбежен, и поэтому время действовать пришло.
Руководители всех крупнейших лабораторий ИИ подписали это письмо, в котором прямо признается риск вымирания от AGI.
- Connor Leahy (@NPCollapse) 30 мая 2023 г.
Это невероятный шаг вперед, поздравляем Дэна за его невероятную работу по его созданию и благодарим каждого подписанта за его вклад в лучшее будущее! https://t.co/KDkqWvdJcH
Однако неясно, к каким действиям призывают подписанты заявления. Среди подписавших заявление - генеральные директора и/или руководители отделов ИИ почти всех крупных компаний, занимающихся разработкой ИИ, а также известные ученые из академических кругов, что делает очевидным намерение не останавливать разработку этих потенциально опасных систем.
Ранее в этом месяце генеральный директор OpenAI Сэм Альтман, один из подписантов вышеупомянутого заявления, впервые выступил перед Конгрессом на слушаниях в Сенате, где обсуждалось регулирование ИИ. Его показания попали в заголовки газет, поскольку большую их часть он провел, призывая законодателей регулировать его отрасль.
Проект Альтмана WorldCoin, объединяющий криптовалюту и доказательство личности, также недавно попал в СМИ после привлечения 115 миллионов долларов в рамках серии С финансирования, в результате чего общий объем финансирования после трех раундов достиг 240 миллионов долларов.
Источник