О последнем начинании Элона Маска - стартапе по созданию искусственного интеллекта под названием xAI - почти ничего не известно. Но "почти ничего" - это все же кое-что. И из того немногого, что мы знаем, можно многое почерпнуть.

Как недавно сообщил Cointelegraph, Маск объявил о создании xAI 12 июля в заявлении, состоящем из трех предложений: "Сегодня мы объявляем о создании xAI. Цель xAI - понять истинную природу Вселенной. Вы можете познакомиться с командой и задать нам вопросы в чате Twitter Spaces в пятницу, 14 июля".

Исходя из этой информации, можно сделать вывод, что xAI существует, он обречен, и больше информации о том, как он потерпит неудачу, будет раскрыто в Twitter. Причина обреченности проста: Этому препятствуют законы физики.

Согласно сообщению агентства Reuters, в основе мотивации Маска для создания xAI лежит желание разработать безопасный искусственный интеллект (ИИ). В ходе недавнего мероприятия Twitter Spaces он сказал:

"Если бы он попытался понять истинную природу Вселенной, то это, на самом деле, лучшее, что я могу придумать с точки зрения безопасности ИИ".

Это похвальная цель, но любые попытки понять "истинную" природу Вселенной обречены, поскольку не существует некоего центра истинного знания, с которым мы могли бы сверять наши теории.

Дело не в том, что люди недостаточно умны, чтобы понять природу Вселенной, - проблема в том, что Вселенная очень, очень велика, а мы застряли внутри нее.

Принцип неопределенности Гейзенберга однозначно говорит нам о том, что некоторые аспекты реальности не могут быть подтверждены одновременно с помощью наблюдений или измерений. Именно по этой причине мы не можем просто измерить расстояние между Землей и Ураном, подождать год, измерить его еще раз и определить точную скорость расширения Вселенной.

Научный метод требует наблюдения, а, как учит нас антропный принцип, все наблюдатели ограничены.

В случае наблюдаемой Вселенной мы еще более ограничены природой физики. Вселенная расширяется настолько быстро, что мы не можем измерить что-либо дальше определенной точки, какими бы инструментами мы ни пользовались.

Расширение Вселенной не просто делает ее больше. Оно дает ей четкий, определенный "космологический горизонт", за которым по законам физики мы не можем проводить измерения. Если мы пошлем зонд с максимально допустимой по законам физики скоростью - скоростью света, то каждый кусочек Вселенной, находящийся за пределами точки, которую зонд мог бы преодолеть за время X, окажется навсегда недоступным.

Это означает, что даже гипотетический сверхразум, способный обработать все данные, которые когда-либо были получены, все равно не сможет определить никаких фундаментальных истин о Вселенной.

Небольшой поворот в мысленном эксперименте "Кот Шредингера", называемый "друг Вигнера", демонстрирует, почему это так. В оригинале Эрвин Шредингер представлял себе кошку, запертую в коробке с пробиркой с радиоактивной жидкостью и молотком, который по завершении квантового процесса должен ударить по пробирке и тем самым убить кошку.

Одно из фундаментальных различий между квантовыми и классическими процессами состоит в том, что на квантовые процессы можно воздействовать наблюдением. В квантовой механике это означает, что гипотетическая кошка одновременно и жива, и мертва до тех пор, пока кто-то ее не наблюдает.

Физик Юджин Вигнер, как сообщается, был "раздосадован" этим и решил по-своему интерпретировать мысленный эксперимент, чтобы опровергнуть утверждения Шредингера. В его версии были добавлены два ученых, один из которых находился внутри лаборатории и открывал ящик, чтобы наблюдать, жива кошка или мертва, а другой - снаружи, который открывал дверь в лабораторию, чтобы проверить, знает ли ученый, находящийся внутри, жива кошка или мертва.

То, что предлагает xAI, - это обратный ход мыслительного эксперимента Вигнера. Похоже, что они хотят убрать кота из коробки и заменить его системой ИИ с общим предварительно обученным трансформатором (GPT), т.е. чат-ботом типа ChatGPT, Bard или Claude 2.

Вместо того чтобы просить наблюдателя определить, жив ИИ или мертв, они планируют попросить ИИ определить основные истины о лаборатории за пределами коробки, о мире за пределами лаборатории и о Вселенной за космологическим горизонтом, не проводя никаких наблюдений.

Реальность того, что, как кажется, предлагает xAI, означала бы создание оракула: машины, способной знать то, для чего у нее нет доказательств.

Идея оракула не имеет научного обоснования, ее происхождение уходит корнями в мифологию и религию. С научной точки зрения, лучшее, на что мы можем надеяться, - это на то, что xAI разработает машину, способную разобрать все данные, которые когда-либо были сгенерированы.

Нет никаких видимых причин полагать, что это превратит машину в оракула, но, возможно, это позволит ей помочь ученым увидеть то, что они упустили, и приведет к дальнейшим открытиям. Возможно, секрет холодного термоядерного синтеза кроется где-то в наборе данных Reddit, который пока никто не смог использовать для обучения модели GPT.

Но если система искусственного интеллекта не сможет опровергнуть законы физики, любые ответы, которые она даст нам относительно "истинной" природы Вселенной, придется принимать на веру, пока они не будут подтверждены наблюдениями, ведущимися из-за пределов коробки - и космологического горизонта.

По этим и многим другим причинам, связанным с тем, как GPT-системы на самом деле интерпретируют запросы, не существует научно обоснованного метода, с помощью которого xAI или любая другая компания, работающая в области ИИ, могла бы разработать двоичную машину, работающую по классическим алгоритмам, способную наблюдать истину о нашей квантовой вселенной.

Тристан Грин - заместитель редактора новостей Cointelegraph. Помимо написания статей и исследований, он любит играть в игры со своей женой и изучать военную историю.

Источник