Многие ведущие медиа-компании заняли позицию против использования искусственного интеллекта (ИИ), такого как ChatGPT OpenAI, в редакциях новостей, и отказали ИИ в разрешении сканировать их контент в сети.

Сообщалось, что несколько ведущих медиа-компаний, включая CNN, New York Times и Reuters, закодировали свои платформы, чтобы не дать веб-сканеру OpenAI GPTBot получить доступ к их контенту.

Веб-сканер был выпущен 8 августа с целью потенциального улучшения будущих моделей ChatGPT за счет индексации контента с веб-сайтов в Интернете.

Кроме того, в отчете CNN утверждается, что другие новостные и медиа-гиганты сделали то же самое, в том числе Disney, Bloomberg, The Washington Post, The Atlantic, Axios, Insider, ABC News и ESPN. Крупные издательства, такие как Condé Nast и Vox Media, также приняли меры против ИИ.

Даниэль Коффи, президент и исполнительный директор News Media Alliance, рассказала репортеру CNN, что с ИИ на фотографии:

«Я вижу повышенное чувство безотлагательности, когда дело доходит до решения проблемы использования и неправильного использования нашего контента».

Разработчики ИИ уже столкнулись с судебными исками, связанными с нарушением авторских прав на материалы, используемые для обучения моделей. 12 июля на Google был подан иск из-за новой на тот момент политики конфиденциальности при сборе данных с помощью ИИ.

До этого автор Сара Сильверман и двое других подали в суд на Meta и OpenAI за использование ее работы, защищенной авторским правом, для обучения своих систем без надлежащего согласия.

Еще в апреле генеральный директор News Corp Australia был впереди всех, когда утверждал, что ChatGPT и аналогичные системы искусственного интеллекта должны платить за потребляемые новости.

Запретить или не запретить

Не только медиакомпании активно запрещают использование чат-ботов с искусственным интеллектом на рабочих местах или запрещают системам получать доступ к контенту.

В мае технологические гиганты Samsung и Apple запретили внутреннее использование чат-ботов с искусственным интеллектом, таких как ChatGPT, из-за опасений, что конфиденциальные внутренние данные передаются моделями на аутсорсинг.

До этого множество компаний финансовых услуг, таких как JPMorgan, Bank of America, Goldman Sachs и Citigroup, также запретили внутреннее использование инструментов генеративного искусственного интеллекта.

26 июня Палата представителей США запретила своим членам использовать все чат-боты с искусственным интеллектом, за исключением ChatGPT Plus, поскольку он включает в себя «важные функции конфиденциальности», которые могут помочь защитить конфиденциальные данные.

СМИ используют ИИ – к лучшему или к худшему

В то время как многие выступают против агрессивности этой технологии, другие наблюдают за ней и даже экспериментируют с ней.

Развлекательный гигант Netflix, похоже, так или иначе рассматривает возможность внедрения ИИ, основываясь на июльских списках вакансий, предлагающих высокооплачиваемые должности в сфере ИИ.

Медиа-сайт BuzzFeed недавно закрыл свое новостное подразделение и уволил 180 сотрудников, а вскоре после этого в отчете о прибылях и убытках за первый квартал заявил, что будет «опираться на искусственный интеллект».

Один из примеров неудачного внедрения ИИ в средства массовой информации произошел в мае, когда ирландской ежедневной газете пришлось извиниться за неосознанную публикацию статьи, созданной ИИ. Он утверждал, что его «намеренно обманули», заставив поверить в то, что приглашенный писатель был человеком, однако оказалось, что это ИИ.

ИИ для предприятия

Отчет, проведенный 28 августа, также показал, что обеспокоенность распространяется и на потребителей: почти три четверти обеспокоены неэтичным использованием ИИ компаниями.

Это произошло вскоре после того, как OpenAI выпустила версию своего чат-бота ChatGPT AI для бизнеса, мощность которой в четыре раза выше, чем у потребительской версии. Он утверждает, что корпоративная версия в два раза быстрее, чем GPT-4, с улучшенными стандартами конфиденциальности и безопасности.

Перед выпуском чат-бота, ориентированного на предприятия, эксперт IBM по блокчейну и искусственному интеллекту заявил, что эта модель представляет собой несколько «ключевых рисков» для использования в бизнесе. В первую очередь они были связаны с риском компрометации конфиденциальных внутренних данных, что было серьезной проблемой для многих из вышеупомянутых компаний, запретивших чат-ботов.

Журнал: Должны ли мы запретить выплаты с помощью программ-вымогателей? Это привлекательная, но опасная идея

Источник