Демис Хассабис, генеральный директор Google DeepMind, недавно предсказал, что системы искусственного интеллекта достигли бы познания на уровне человека где-то между «следующими несколькими годами» и «возможно в течение десятилетия».

Хассабис, который получил свое начало в игровой индустрии, соучредил Google DeepMind (ранее DeepMind Technologies), компания, известная благодаря разработке системы AlphaGo AI, ответственной за то, что они обыграли лучших игроков в мире.

В недавнем интервью, проведенном на фестивале «Будущее« Будущее всего »Wall Street Journal, Хассабис сказал интервьюеру Крису Мимсу, что, по его мнению, прибытие машин с познанием на уровне человека неизбежно:

«Прогресс за последние несколько лет был довольно невероятным. Я не вижу никакой причины, по которой этот прогресс замедлится. Я думаю, что это может даже ускориться. Поэтому я думаю, что мы могли бы быть всего несколько лет, может быть, в течение десятилетие. "

Эти комментарии появились всего через две недели после того, как внутренняя реструктуризация заставила Google объявить о слиянии «Google AI» и «DeepMind» в метко названном «Google DeepMind».

Когда его попросили определить «Аги»-искусственный общий интеллект-Хассабис ответил: «Познание на уровне человека».

В настоящее время не существует стандартизированного определения, теста или эталона для AGI, широко принятого сообществом STEM. Также нет единого научного консенсуса по поводу того, возможно ли AGI.

Некоторые примечательные цифры, такие как Роджер Пенроуз (давний партнер Стивена Хокинга), считают, что Agi нельзя достигнуть, в то время как другие думают, что могут потребоваться десятилетия или столетия, чтобы ученые и инженеры выяснили это.

Среди тех, кто является бычьим на AGI в ближайшей перспективе, или какой-то подобной формы ИИ на уровне человека, являются Элон Маск и генеральный директор Openai Сэм Альтман.

Не смотри ... но аги вместо кометы

- Элон Маск (@elonmusk) 1 апреля 2023 г.

За последние несколько месяцев Agi стала горячей темой после запуска CHATGPT и множества аналогичных продуктов и услуг ИИ. Эксперты, часто называемые технологией «Святого Грааля».

Если ИИ на уровне человека когда-либо достигнут, это может нарушить различные аспекты крипто-индустрии. В мире криптовалюты мы могли бы видеть полностью автономные машины, способные выступать в качестве предпринимателей, руководителей C-Suite, консультантов и трейдеров с способностью интеллектуального рассуждения человеческого и способности сохранять информацию и выполнять код компьютерной системы.

Что касается того, будут ли агенты AGI служить нам в качестве инструментов с AI или конкурировать с нами за ресурсы, еще предстоит выяснить.

Со своей стороны, Хассабис не предполагал никаких сценариев, но он сказал The Wall Street Journal, что он «будет выступать за разработку этих типов технологий AGI в осторожном Основная система делает ».

Это может быть в сопоставлении с нынешним ландшафтом, где такие продукты, как его собственные работодатели Google Bard и Openai's Chatgpt, недавно были предоставлены для общественного пользования.

Инсайдеры отрасли, такие как генеральный директор Openai Сэм Альтман и Deepmind's Nando de Freitas, заявили, что, по их мнению, AGI может появиться само по себе, если разработчики будут продолжать масштабировать текущие модели. И один исследователь Google недавно расстался с компанией после того, как заявил, что модель под названием Lamda уже стала разумной.

Решение этих проблем масштабирования - это то, что обеспечит AGI. Исследования были сосредоточены на этих проблемах, например, S4 для большей памяти, необходимы. Философия о символах не является. Символы - это инструменты в мире, и крупные сети не имеют проблем с их созданием и манипулированием ими 2/n

- Нандо де Фрейтас ‍ (@nandodf) 14 мая 2022 г.

Из-за неопределенности, связанной с развитием этих технологий и их потенциальном влиянии на человечество, тысячи людей, в том числе соучредитель Elon Musk и Apple Inc. Стив Возняк, недавно подписали открытое письмо с просьбой о создании систем, связанных с отдельными лицами, с учетом разработки для разработки для разработки Шесть месяцев, чтобы ученые могли оценить потенциал для вреда.

Источник