Главный научный директор Microsoft Эрик Хорвиц считает, что искусственный интеллект позволит людям в будущем процветать, но он, очевидно, хеджирует свои ставки.

30 мая Хорвиц опубликовал в официальном блоге Microsoft пост под названием "Размышления об ИИ и будущем человеческого процветания". В статье обсуждается будущее искусственного интеллекта и анонсируется серия эссе, написанных экспертами в области ИИ, которые получили ранний доступ к OpenAI`s GPT-4 до его публичного запуска.

Согласно сообщению в блоге, Хорвиц был удивлен возможностями OpenAI`s GPT-4, когда получил такой доступ в 2022 году:

"Я наблюдал неожиданные проблески интеллекта, превосходящие те, что были в предыдущих системах искусственного интеллекта. По сравнению с ее предшественницей GPT-3.5 - моделью, используемой десятками миллионов как ChatGPT - я заметил значительный скачок в возможностях.

В частности, Хорвиц отметил "способность GPT-4 интерпретировать мои намерения и давать сложные ответы на многочисленные запросы", которые, по его словам, "ощущались как "фазовый переход", вызывая в памяти образы эмерджентных явлений, с которыми я сталкивался в физике".

Хорвиц пишет, что во время тестирования GPT-4 становилось "все более очевидным, что эта модель и ее преемники [...] обладают огромным потенциалом для преобразований".

Microsoft и OpenAI предоставили многочисленным экспертам ранний доступ к GPT-4 и попросили их написать эссе в надежде определить возможности и проблемы, с которыми сталкивается технология в различных отраслях.

Однако в тот же день, когда Хорвиц опубликовал сообщение, его имя также появилось в качестве подписанта документа, опубликованного Центром безопасности искусственного интеллекта.

Документ, содержащий только предисловие и заявление, состоящее из одного предложения, был подписан списком подписавших, представляющим настоящий список экспертов по ИИ (с несколькими заметными сторонниками, включая Яна ЛеКуна из Meta и Эндрю Нг, соучредителя Google Brain).

Заявление гласит: "Смягчение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".

В социальных сетях мнения о документе разделились: одни эксперты объяснили причины подписания документа, другие выразили обеспокоенность тем, что беспокойство о неопределенных рисках - таких как будущие системы ИИ с возможностями, которые в настоящее время невозможны, - отвлекает от более важных вопросов.

Удивительно видеть, как интеллектуалы и ученые приступают к реализации этих "сценариев конца света ИИ", игнорируя реальные разрушения, связанные с изменением климата, подъемом антидемократических сил и ростом экономического неравенства, которые разворачиваются в реальном времени.

- Ахмед Эль Хади (@zamakany) 31 мая 2023 г.

Хорвиц действительно затрагивает "проблемы", связанные с разработкой безопасного ИИ в своем недавнем сообщении в блоге, а также признает свою "тревогу" по поводу трансформационного характера этой технологии. Но там нет упоминания о потенциальном вымирании.

Помимо искусственного интеллекта, Microsoft изучает и другие зарождающиеся технологии. Недавно компания получила одобрение на участие в пилотном проекте по созданию цифровой валюты для центрального банка Бразилии наряду с Santander, Visa и рядом других претендентов.

Источник