Мира Мурати, главный технологический директор OpenAI, считает, что правительственные регуляторы должны быть «очень вовлечены» в разработке стандартов безопасности для развертывания современных моделей искусственного интеллекта, таких как CHATGPT.

Она также считает, что предлагаемая шестимесячная пауза по развитию не является правильным способом создания более безопасных систем и что отрасль в настоящее время не близка к достижению искусственного общего интеллекта (AGI)-гипотетический интеллектуальный порог, где искусственный агент способен на выполнение любой задачи, требующей интеллекта, включая познание на уровне человека. Ее комментарии вытекают из интервью с Associated Press, опубликованным 24 апреля.

Когда на вопрос о мерах предосторожности, о том, что Openai, принятые до запуска GPT-4, Murati объяснил, что компания придерживалась медленного подхода к обучению, чтобы не только препятствовать склонности машины к нежелательному поведению, но и для определения каких-либо последствий, связанных с такими изменениями :

«Вы должны быть очень осторожны, потому что вы можете создать какой -то другой дисбаланс. Вы должны постоянно проверять […], так что тогда вы должны приспособиться к нему снова и быть очень осторожным с каждым раз, когда вы делаете вмешательство, видя, что еще нарушается. "

После запуска GPT-4 эксперты, опасаясь, что неизвестные укол, окружающие будущее ИИ, призвали к вмешательствам, начиная от повышенного государственного регулирования до шестимесячной паузы по глобальной разработке ИИ.

Последнее предложение привлекло внимание и поддержку со светильниками в области ИИ, таких как Элон Маск, Гэри Маркус и Элизер Юдковский, в то время как многие известные цифры, включая Билла Гейтса, Янна Лекуна и Эндрю Нг, вышли в оппозицию.

Большое дело: @elonmusk, Y. Bengio, S. Russell, @tegmark, V. Kraknova, P. Maes, @grady_booch, @andrewyang, @tristanharris и более 1000 других, включая меня, призвали к временной паузе в учебных системах, превышающих GPT-4 https://t.co/pj5yfu0xm9

- Гари Маркус (@Garymarcus) 29 марта 2023 г.

Со своей стороны, Мурати выразила поддержку идеи повышенного участия правительства, заявив, что «эти системы должны регулироваться». Она продолжила: «На Openai мы постоянно разговариваем с правительствами, регуляторами и другими организациями, которые разрабатывают эти системы, по крайней мере, на уровне компании, согласны с некоторым уровнем стандартов».

Но по предмету паузы развития, тон Мурати был более критичным:

«Некоторые из заявлений в письме были просто не соответствуют вопросам развития GPT-4 или GPT-5. Мы не обучаем GPT-5. У нас нет никаких планов сделать это в течение следующих шести месяцев. И мы Не выехал из GPT-4. На самом деле нам потребовалось шесть месяцев, чтобы просто сосредоточиться полностью на безопасном развитии и развертывании GPT-4 ».

В ответ на то, был ли в настоящее время «путь между такими продуктами, как GPT-4 и AGI», Мурати сказал Associated Press, что «мы далеко от точки зрения безопасной, надежной системы AGI».

Это может быть кислой новостью для тех, кто считает, что GPT-4 гранит с AGI. Текущий акцент компании на безопасности и тот факт, что, согласно Мурати, она еще не обучает GPT-5, являются сильными показателями того, что желанное общее открытие разведки в настоящее время остается недоступным.

Расширение акцента компании на регулировании происходит на фоне большей тенденции к контролю правительства. Openai недавно была запрещена продукты GPT в Италии, и он сталкивается с крайним сроком 30 апреля для соответствия местным и ЕС правилам в Ирландии-один эксперты говорят, что будет трудно встретиться.

Такие запреты могут оказать серьезное влияние на европейскую сцену криптовалюты, поскольку наблюдается все больше движения в отношении принятия передовых крипто -торговых ботов, основанных на приложениях с использованием API GPT. Если OpenAI и компании, создающие аналогичные продукты, окажутся не в состоянии законно работать в Европе, трейдеры, использующие технологию, могут быть вынуждены в другом месте.

Источник