Более 2600 технических лидеров и исследователей подписали открытое письмо с призывом к временной «паузе» в развитии дальнейшего искусственного интеллекта (ИИ), опасаясь «глубоких рисков для общества и человечества».

Генеральный директор Tesla Элон Маск, соучредитель Apple Стив Возняк и множество генеральных директоров AI, CTO и исследователей, были среди подписавших письма, которое было написано Институтом актуального центра Соединенных Штатов Future of Life (Foli).

Институт призвал всех компаний искусственного интеллекта «немедленно приостановить» обучение систем ИИ, которые являются более мощными, чем GPT-4 в течение как минимум шести месяцев, разделяя опасения, что «конкурентоспособность человека может представлять собой глубокие риски для общества и человечества», среди прочего. :

Призывали ИИ Лаборатории временно приостановить обучение мощных моделей!

Присоединяйтесь к Flis Call вместе с Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @garymarcus и более 1000 других, кто подписал: https://t.co/3rjbjdxapc

Недостаток того, почему призывали к этому - (1/8)

- Институт будущего жизни (@flixrisk) 29 марта 2023 г.

«Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует запланировать и управлять с соразмерной заботой и ресурсами. К сожалению, этот уровень планирования и управления не происходит», - написал в своем письме институт.

GPT-4-последняя итерация чат-бота, способствующего искусственному интеллекту OpenAI, который был выпущен 14 марта. На сегодняшний день он сдал некоторые из самых строгих экзаменов в средней школе и юристах США в течение 90-го процентиля. Понятно, что это в 10 раз более продвинуты, чем оригинальная версия CHATGPT.

Существует «неконтролируемая гонка» между фирмами ИИ для разработки более мощного ИИ, что «никто-даже их создатели-не может понять, предсказать или надежно контролировать»,-заявил Фоли.

Перерыв: ходатайство распространяется, чтобы приостановить все основные разработки искусственного интеллекта.

например Нет больше обновлений CHATGPT и многих других.

Подписано Элоном Маск, Стивом Возняком, генеральным директором AI Stability AI и 1000 -х других технических лидеров.

Вот срыв: pic.Twitter.com/jr4z3snddw

- Лоренцо Грин 〰 (@mrgreen) 29 марта 2023 г.

Среди главных проблем были, могут ли машины затопить информационные каналы, потенциально «пропагандой и неправдой», и будут ли машины «автоматизировать» все возможности трудоустройства.

Фоли сделал эти проблемы на шаг вперед, предполагая, что предпринимательские усилия этих компаний искусственного интеллекта могут привести к экзистенциальной угрозе:

«Должны ли мы развивать нечеловеческие умы, которые могут в конечном итоге превосходить, перехитрить, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?»

«Такие решения не должны быть делегированы не избранным технологическим лидерам», - добавило письмо.

Наличие некоторого ИИ Экзистенциальное страх сегодня

- Элон Маск (@elonmusk) 26 февраля 2023 г.

Институт также согласился с недавним заявлением основателя Openai Сэма Альтмана, в котором предполагается, что независимый обзор может потребоваться до обучения в будущих системах ИИ.

Альтман в своем посте в блоге от 24 февраля подчеркнул необходимость подготовиться к роботам искусственного общего интеллекта (AGI) и искусственных суперинтеллигентности (ASI).

Не все эксперты по искусственному искусству бросились подписать петицию, хотя. Бен Герцель, генеральный директор SingularityNet, объяснил в ответе в Твиттере 29 марта Гэри Маркусу, автору Rebooting.ai, что модели изучения языка (LLMS) не стали AGIS, которые на сегодняшний день произошли мало событий.

В целом, человеческому обществу будет лучше с GPT-5, чем GPT-4-лучше иметь немного более умные модели. В конечном итоге, если бы заняться человеческой работой будет хорошей вещью. Галлюцинации и банальность уменьшатся, и люди научатся общаться с ними.

- Бен Герцель (@Bengoertzel) 29 марта 2023 г.

Вместо этого он сказал, что исследования и разработки должны быть замедлены для таких вещей, как биоапоны и ядерные ядерные:

В дополнение к моделям изучения языка, таким как CHATGPT, Deep Fake Technology использовалась для создания убедительных изображений, аудио и видео. Технология также использовалась для создания искусства, сгенерированных AI, с некоторыми опасениями, связанными с тем, может ли она нарушать законы об авторском праве в определенных случаях.

Генеральный директор Galaxy Digital Майк Новограц недавно сказал инвесторам, что он был шокирован тем, что криптовало было уделено, что мало что было уделено, в то время как мало что касалось искусственного интеллекта.

«Когда я думаю об ИИ, меня шокирует, что мы так много говорим о крипто-регулировании и ничего о регулировании искусственного интеллекта. Я имею в виду, я думаю, 28 марта.

Фоли утверждал, что если разработка ИИ не будет быстро принята, правительства должны быть связаны с мораторием.

«Эта пауза должна быть публичной и поддающейся проверке, и включать всех ключевых участников. Если такая пауза не может быть принята быстро, правительства должны вмешаться и ввести мораторий», - написал он.

Журнал: как предотвратить AI Annihilating Humanity »с использованием блокчейна

Источник