Создатели приложений искусственного интеллекта (ИИ) должны платить за новости и контент, используемые для улучшения их продуктов в соответствии с генеральным директором News Corp Australia.

В редакционной статье 2 апреля в Австралии Майкл Миллер призвал «создатели оригинальной журналистики и контента», чтобы избежать прошлых ошибок, которые «уничтожили их отрасли», которые, как он утверждал, позволили технологическим компаниям извлечь выгоду из использования своих историй и информации без компенсации.

Чатботы-это программное обеспечение, которое приглашает новости, данные и другую информацию для получения ответов на запросы, которые имитируют написанную или произнесенную человеческую речь, наиболее заметной из которых является чат-бот Chatgpt-4 от AI Firm Openai.

По словам Миллера, быстрый рост генеративного искусственного интеллекта представляет собой еще один шаг мощных цифровых компаний, чтобы разработать «новый горшок золота для максимизации доходов и прибыли, принимая творческое содержание других, не вознаграждая их за их первоначальную работу».

Используя в качестве примера OpenAI, Миллер заявил, что компания «быстро создала бизнес» на сумму 30 миллиардов долларов, используя другие оригинальные контенты и творчество без вознаграждения и атрибуции ».

Федеральное правительство Австралии внедрило в 2021 году Кодекс переговоров в средствах массовой информации, который обязывает технические платформы в Австралии платить издателям новостей за контент новостей, доступный или связанный с их платформами.

Миллер говорит, что аналогичные законы необходимы для ИИ, поэтому все создатели контента соответствующим образом компенсируют свою работу.

«Создатели заслуживают вознаграждения за их оригинальную работу, используемая двигателями ИИ, которые набегают на стиль и тон не только журналистов, но и (чтобы назвать нескольких) музыкантов, авторов, поэтов, историков, художников, режиссеров и фотографов».

Более 2600 технических лидеров и исследователей недавно подписали открытое письмо с призывом к временной паузе в развитии дальнейшего искусственного интеллекта (ИИ), опасаясь «глубоких рисков для общества и человечества».

Между тем, сторожевой пейзаж Италии, отвечающий за защиту данных, объявил о временном блоке CHATGPT и открыл расследование по поводу подозрительных нарушений правил конфиденциальности данных.

Миллер считает, что создатели контента и компании искусственного интеллекта могут извлечь выгоду из соглашения, а не откровенных блоков или запретов на технологии.

Я уважаю проблемы, но не буду подписывать это. LLMS не станет Agis. Они создают социальные риски, как и многие вещи. У них также есть большой потенциал для добра. Социальное давление на замедление НИОКР должно быть зарезервировано для биологических апонов, ядерных и т. Д. И т. Д. Не сложных случаев.

- Бен Герцель (@Bengoertzel) 29 марта 2023 г.

Он объяснил, что с «соответствующими ограждениями» ИИ может стать ценным журналистским ресурсом и может помочь в создании контента и может «снимать факты быстрее», а также помощь в публикации на нескольких платформах и ускоренном производстве видео.

Crypto Industry также начинает видеть больше проектов, использующих ИИ, хотя она все еще находится на ранних стадиях.

Миллер считает, что двигатели искусственного интеллекта сталкиваются с риском для их будущего успеха, если они не могут убедить общественность, что их информация заслуживает доверия и заслуживает доверия, «чтобы достичь этого им придется справедливо компенсировать тем, кто предоставляет вещество за их успех».

Журнал: все поднимается для судьи робота: ИИ и блокчейн могут преобразовать зал суда

Источник