Японские эксперты и исследователи в области искусственного интеллекта призывают к осторожности в использовании незаконно полученной информации для обучения ИИ, что, по их мнению, может привести к "большому количеству дел о нарушении авторских прав", потере работы, ложной информации и утечке конфиденциальной информации.

26 мая был представлен проект правительственного совета по стратегии ИИ, в котором выражалась озабоченность по поводу отсутствия регулирования вокруг ИИ, включая риски, связанные с нарушением авторских прав.

Как заявил 24 апреля японский законодатель Такаси Кии, в настоящее время не существует законов, запрещающих искусственному интеллекту использовать для обучения материалы, защищенные авторским правом, и незаконно приобретенную информацию.

"Прежде всего, когда я проверил правовую систему (закон об авторском праве) в Японии в отношении анализа информации с помощью ИИ, я обнаружил, что в Японии, будь то для некоммерческих целей, для коммерческих целей или для действий, отличных от дублирования, она получена с нелегальных сайтов", - сказал Такаси.

Такаси Кии выступает на заседании второго подкомитета Комитета по надзору за поселениями и администрацией Палаты представителей. Источник: go2senkyo
Такаси Кии выступает на заседании второго подкомитета Комитета по надзору за поселениями и администрацией Палаты представителей. Источник: go2senkyo

"Министр Нагаока четко заявила, что можно использовать работу для анализа информации независимо от метода, независимо от содержания", - добавил Такаси, имея в виду Кейко Нагаока, министра образования, культуры, спорта, науки и технологий.

Такаси также задал вопрос о правилах использования чат-ботов с искусственным интеллектом, таких как ChatGPT, в школах, что также ставит свои дилеммы, учитывая, что эта технология, по сообщениям, должна быть принята системой образования уже в марте 2024 года.

"Министр Нагаока ответил "как можно скорее", конкретного ответа о сроках не было", - сказал он.

В беседе с Cointelegraph Эндрю Петэйл, юрист и поверенный по товарным знакам компании Y Intellectual Property, расположенной в Мельбурне, говорит, что этот вопрос все еще находится в "серой зоне".

"Большая часть того, что люди не понимают, заключается в том, что авторское право защищает способ выражения идей, но не защищает сами идеи. Так что в случае с ИИ у вас есть человек, который вводит информацию в программу", - сказал он, добавив:

"Таким образом, информация поступает от людей, но фактическое выражение исходит от самого ИИ. Как только информация введена, она, по сути, не зависит от человека, поскольку генерируется или выкачивается ИИ".

"Я думаю, пока законодательство не признает машины или роботов способными к авторству, это действительно своего рода серая зона и что-то вроде "ничейной земли".

Петале добавил, что это ставит множество гипотетических вопросов, которые сначала должны быть решены путем судебных разбирательств и регулирования.

"Я думаю, вопрос в том, несут ли создатели ИИ ответственность за создание инструмента, который используется для нарушения авторских прав, или это люди, которые фактически используют его для нарушения авторских прав?", - сказал он.

С точки зрения компаний, занимающихся ИИ, они обычно утверждают, что их модели не нарушают авторских прав, поскольку их ИИ-боты преобразуют оригинальную работу в нечто новое, что квалифицируется как добросовестное использование в соответствии с законами США, где разворачивается большинство действий.

Журнал: `Моральная ответственность` - Может ли блокчейн действительно повысить доверие к ИИ?

Источник