Италия недавно попала в заголовки газет, став первой западной страной, которая запретила популярный чат-бот, поддерживаемый популярным интеллектом (ИИ).

Итальянское управление по защите данных (IDPA) приказало Openai, базирующейся в Соединенных Штатах компанию, стоящей за CHATGPT, прекратить обработку данных итальянских пользователей до тех пор, пока она не выполнит общее положение о защите данных (GDPR), Закон о конфиденциальности пользователей Европейского Союза.

IDPA пригласил обеспокоенность по поводу нарушения данных, которое выявило беседы пользователей и информацию о платежах, отсутствие прозрачности и юридическую основу для сбора и использования персональных данных для обучения чат -бота.

Решение вызвало дебаты о последствиях регулирования ИИ для инноваций, конфиденциальности и этики. Движение Италии подвергалось широкому критике, так как его заместитель премьер-министра Маттео Сальвини заявил, что он «непропорционален» и лицемерно, поскольку десятки услуг, основанных на искусственном интеллекте, таких как чат Бинга, все еще действуют в стране.

Сальвини сказал, что запрет может нанести вред национальному бизнесу и инновациям, утверждая, что каждая технологическая революция приносит «большие изменения, риски и возможности».

ИИ и риски конфиденциальности

В то время как прямой запрет на ЧАТГПТ в Италии был широко раскритикован по каналам социальных сетей, некоторые эксперты утверждали, что запрет может быть оправданным. Выступая с Cointelegraph, Аарон Рафферти, генеральный директор децентрализованной автономной организации StandardDao, сказал, что запрет «может быть оправдан, если он представляет неуправляемые риски конфиденциальности».

Рафферти добавил, что решение более широких задач конфиденциальности ИИ, таких как обработка данных и прозрачность, может быть «более эффективной, чем сосредоточиться на одной системе ИИ». Этот шаг, утверждал он, ставит Италию и ее граждан «в дефицит в гонке AI Arms», и это то, с чем США в настоящее время борются ».

Недавно: Шапелла может привлечь институциональных инвесторов в Ethereum, несмотря на риски

Винсент Петерс, выпускник Starlink и основатель невидимых токенов, сказал, что запрет был оправдан, указывая на то, что GDPR является «комплексным набором правил для защиты данных потребителей и личной информации».

Петерс, который руководил усилиями по соблюдению GDPR Starlink, когда он развернулся на континенте, отметил, что европейские страны, которые придерживаются закона о конфиденциальности, относятся к этому серьезно, то есть Openai должен быть в состоянии сформулировать или демонстрировать, насколько личная информация является и не является быть использованным. Тем не менее, он согласился с Сальвини, заявив:

«Точно так же, как CHATGPT не следует выделять, его также не следует исключать из -за решения проблем конфиденциальности, которые необходимо решить почти каждый онлайн -сервис».

Нику Себе, руководитель отдела искусственного интеллекта в фирме искусственного интеллекта Humans.ai и профессор машинного обучения в Университете Тренто в Италии, сказал Cointelegraph, что всегда есть раса между развитием технологий и ее коррелированными этическими аспектами и аспектами конфиденциальности.

Catgpt Workflow. Источник: Openai
Catgpt Workflow. Источник: Openai

Себе сказал, что раса не всегда синхронизирована, и в этом случае технологии лидируют, хотя он считает, что аспекты этики и конфиденциальности скоро догонят. На данный момент запрет был «понятным», так что «OpenAI может приспособиться к местным нормам, касающимся управления данными и конфиденциальности».

Несоответствие не выделено Италии. Другие правительства разрабатывают свои собственные правила для ИИ, поскольку мир подходит к искусственному общему интеллекту, термину, используемому для описания ИИ, который может выполнять любую интеллектуальную задачу. Соединенное Королевство объявило о планах регулирования ИИ, в то время как ЕС, по -видимому, занимает осторожную позицию в рамках Закона об искусственном интеллекте, который в значительной степени ограничивает использование ИИ в нескольких критических областях, таких как медицинские устройства и автономные транспортные средства.

Был установлен прецедент?

Италия может быть не последней страной, которая запретила Чатгпт. Решение IDPA о запрете Chatgpt может создать прецедент для других стран или регионов, что может иметь значительные последствия для глобальных компаний по искусственным технологиям. Rafferty сказал Standarddao:

«Решение Италии может создать прецедент для других стран или регионов, но факторы, специфичные для юрисдикции, будут определять, как они реагируют на связанные с искусственным интеллектом проблемы конфиденциальности. В целом, ни одна страна не хочет отставать в потенциале развития искусственного интеллекта».

Джейк Мэймар, вице -президент по инновациям в дополненной реальности и поставщике программного обеспечения для виртуальной реальности The Groupse Group, сказал, что этот шаг «установит прецедент, привлекая внимание к проблемам, связанным с ИИ и политикой данных, или его отсутствия».

Для Maymar публичный дискурс по этим вопросам является «шагом в правильном направлении, поскольку более широкий спектр перспектив усиливает нашу способность понимать весь объем воздействия». Петерс наследство согласился, что Петерс согласился, заявив, что этот шаг установит прецедент для других стран, которые подпадают под GDPR.

Для тех, кто не обеспечивает соблюдение GDPR, он устанавливает «структуру, в которой эти страны должны учитывать, как OpenAI обрабатывает и использует потребительские данные». Sebe's Sebe Университета Тренто считает, что запрет был вызван несоответствием между итальянским законодательством относительно управления данными и того, что «обычно разрешено в Соединенных Штатах».

Баланс инноваций и конфиденциальности

Кажется ясно, что игроки в пространстве ИИ должны изменить свой подход, по крайней мере, в ЕС, чтобы иметь возможность предоставлять услуги пользователям, оставаясь на хорошей стороне регуляторов. Но как они могут сбалансировать потребность в инновациях с проблемами конфиденциальности и этики при разработке своих продуктов?

На это нелегкий вопрос, так как могут быть компромиссы и проблемы, связанные с разработкой продуктов искусственного интеллекта, которые уважают права пользователей.

Хоакин Капоццоли, генеральный директор игровой платформы Web3 Mendax, сказал, что баланс может быть достигнут путем «включения надежных мер защиты данных, проведения тщательных этических обзоров и участия в открытом диалоге с пользователями и регуляторами для решения проблем».

Рафферти StandardDao заявил, что вместо того, чтобы выделять CHATGPT, необходим комплексный подход с «последовательными стандартами и правилами для всех технологий ИИ и более широких технологий социальных сетей».

Балансировка инноваций и конфиденциальности включает в себя «приоритет прозрачности, управление пользователем, надежную защиту данных и конфиденциальность по принципам». Большинство компаний должны «каким-то образом сотрудничать с правительством или предоставлять рамки с открытым исходным кодом для участия и обратной связи»,-сказал Рафферти.

Себе отметил, что продолжающиеся дискуссии о том, вредна ли технология ИИ, в том числе недавнее открытое письмо, призывающее к шестимесячной остановке в продвижении технологии, чтобы обеспечить более глубокий интроспективный анализ своих потенциальных последствий. Письмо собрало более 20 000 подписей, в том числе лидеры технологий, таких как генеральный директор Tesla Элон Маск, соучредитель Apple Стив Возняк и соучредитель Ripple Крис Ларсен-среди многих других.

Письмо вызывает действительное беспокойство для Себе, но такая шестимесячная остановка «нереально». Добавил он:

«Чтобы сбалансировать потребность в инновациях с проблемами конфиденциальности, компаниям ИИ необходимо принять более строгие политики конфиденциальности данных и меры безопасности, обеспечить прозрачность в сборе и использовании данных и получить согласие пользователей на сбор и обработку данных».

По его словам, продвижение искусственного интеллекта увеличило способность собирать и анализировать значительные количества личных данных, что вызвало обеспокоенность по поводу конфиденциальности и наблюдения. Для него компании «обязаны быть прозрачными в отношении своей практики сбора данных и использования и установить сильные меры безопасности для защиты пользовательских данных».

По словам Себе, другие этические проблемы включают потенциальные предубеждения, подотчетность и прозрачность, поскольку системы ИИ «могут усугубить и укрепить ранее существовавшие общественные предрассудки, что приводит к дискриминационному обращению с конкретными группами».

Капочоли Мендакса сказал, что фирма считает, что это «коллективная ответственность компаний, пользователей и регуляторов, которые работают вместе для решения этических проблем, и создают структуру, которая поощряет инновации при обеспечении индивидуальных прав».

Недавно: адвокат Pro-XRP Джон Дитон `10x больше в BTC, 4x больше в ETH`: Зал пламени

Maymar группы Glimpse заявил, что такие системы искусственного интеллекта, как CHATGPT, имеют «бесконечный потенциал и могут быть очень разрушительными, если он используется». Чтобы фирмы, стоящие за такими системами, чтобы сбалансировать все, они должны знать о похожих технологиях и анализировать, где они столкнулись с проблемами и где они преуспели, добавил он.

Моделирование и тестирование выявляют дыры в системе, по словам Мэймара; Поэтому компании ИИ, по -видимому, должны стремиться к инновациям, прозрачности и подотчетности.

Они должны активно выявлять и решать потенциальные риски и воздействия своих продуктов на конфиденциальность, этику и общество. Таким образом, они, скорее всего, смогут укрепить доверие и уверенность среди пользователей и регуляторов, избегая - и потенциально возвращая - судьбу ЧАТГПТ в Италии.

Источник