Генеральный директор OpenAI Сэм Альтман впервые выступит перед Конгрессом 16 мая, чтобы обсудить регулирование искусственного интеллекта (ИИ) в США во время слушаний по надзору. В качестве свидетелей также выступят вице-президент IBM по вопросам доверия и конфиденциальности Кристина Монтгомери и заслуженный профессор Нью-Йоркского университета Гэри Маркус.

Слушания в Сенате США по надзору за #AI, с участием @OpenAI CEO @sama, IBM`s @_ChristinaMont и почетного профессора Нью-Йоркского университета. @garymarcus, вторник в 10 утра по среднеевропейскому времени. https://t.co/VwiR77F52f

- Гэри Маркус (@GaryMarcus) 10 мая 2023 г.

Повестка дня слушаний остается скудной. Его название "Надзор за ИИ: правила для искусственного интеллекта" предполагает, что обсуждение будет посвящено безопасности и конфиденциальности, как и список запланированных участников.

На слушаниях генеральный директор OpenAI Сэм Альтман будет впервые давать показания в Конгрессе, хотя недавно он участвовал в круглом столе с вице-президентом Камалой Харрис в Белом доме вместе с генеральными директорами Alphabet, Microsoft и Anthropic.

Вместе с Альтманом выступят вице-президент IBM по вопросам доверия и конфиденциальности Кристина Монтгомери, член Национального консультативного комитета по ИИ США, и заслуженный профессор Нью-Йоркского университета Гэри Маркус, автор бестселлеров New York Times.

Недавно Маркус наделал шума в сообществе ИИ, во весь голос поддержав идею о том, что сообщество должно взять "паузу" в развитии ИИ на шесть месяцев.

Идея паузы ИИ была сформулирована в открытом письме, опубликованном 22 марта на сайте Future of Life Institute. На момент публикации этой статьи его подписали более 27 500 человек.

Цель письма - "призвать все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4".

Сэм Альтман и Кристина Монтгомери - одни из тех, кто выступает против паузы.

Со своей стороны, Монтгомери объяснила свои чувства в подробном сообщении в блоге компании IBM, автором которого она является, под названием "Не приостанавливайте развитие ИИ, вместо этого сделайте приоритетом этику", где она привела доводы в пользу более точного подхода к регулированию ИИ:

"Полная пауза в обучении ИИ, а также существующие тенденции, которые, похоже, снижают приоритетность инвестиций в отраслевые усилия по этике ИИ, приведут лишь к дополнительному ущербу и неудачам".

Согласно другому сообщению в блоге IBM, написанному отчасти Монтгомери, компания считает, что ИИ должен регулироваться на основе риска - стоит отметить, что, насколько нам известно, у IBM в настоящее время нет ни одной публично представленной модели генеративного ИИ.

С другой стороны, OpenAI отвечает за ChatGPT, пожалуй, самую популярную технологию искусственного интеллекта в мире.

В интервью Лексу Фридману на мероприятии Массачусетского технологического института, Альтман, генеральный директор компании, поддерживает безопасное и этичное развитие систем ИИ, но считает, что необходимо "вовлечь всех в обсуждение" и "выпустить эти системы в мир".

Это оставляет Маркуса единственным исключением, который был ярым сторонником паузы с момента ее создания. Хотя Маркус признался, что "не приложил руку к составлению" письма о паузе, он написал в блоге пост под названием "Пора ли нажать кнопку паузы для ИИ?" почти за месяц до публикации открытого письма.

Хотя предстоящие слушания в Сенате, скорее всего, будут лишь форумом для членов Конгресса, чтобы задать вопросы, обсуждение может иметь разрушительные последствия - в зависимости от того, каким экспертам вы верите.

Если Конгресс решит, что регулирование ИИ заслуживает "тяжелой руки", эксперты, такие как Монтгомери, опасаются, что такие усилия могут оказать охлаждающее воздействие на инновации без обязательного решения проблем безопасности.

Этот вред может просочиться в операционные сектора, где технология GPT лежит в основе множества ботов и сервисов. В мире финтеха, например, криптовалютные биржи адаптируют технологию чатботов для обслуживания своих клиентов, проведения торгов и анализа рынка.

Однако такие эксперты, как Маркус и Элон Маск, опасаются, что неспособность принять политику, которую они считают здравым смыслом, в отношении надзора за ИИ может привести к экзистенциальному кризису человечества.

Источник