Китай опубликовал проект правил безопасности для компаний, предоставляющих услуги генеративного искусственного интеллекта (ИИ), включая ограничения на источники данных, используемые для обучения моделей ИИ.

В среду, 11 октября, предлагаемые правила были опубликованы Национальным комитетом по стандартизации информационной безопасности, в состав которого входят представители Администрации киберпространства Китая (CAC), Министерства промышленности и информационных технологий и правоохранительных органов.

Генеративный ИИ, примером которого служат достижения чат-бота OpenAI ChatGPT, приобретает способность выполнять задачи посредством анализа исторических данных и генерирует свежий контент, такой как текст и изображения, на основе этого обучения.

Скриншот публикации Национального комитета по стандартизации информационной безопасности (NISSC). Источник: ННИСК
Скриншот публикации Национального комитета по стандартизации информационной безопасности (NISSC). Источник: ННИСК

Комитет рекомендует провести оценку безопасности контента, используемого для обучения общедоступных моделей генеративного ИИ. Контент, превышающий «5% в виде незаконной и вредной информации», будет занесен в черный список. В эту категорию входит контент, пропагандирующий терроризм, насилие, подрыв социалистической системы, нанесение ущерба репутации страны и действия, подрывающие национальную сплоченность и стабильность общества.

В проекте постановления также подчеркивается, что данные, подлежащие цензуре в китайском Интернете, не должны служить учебным материалом для этих моделей. Это событие последовало чуть более чем через месяц после того, как регулирующие органы предоставили разрешение различным китайским технологическим компаниям, включая известную поисковую компанию Baidu, представить широкой публике свои генеративные чат-боты, управляемые искусственным интеллектом.

С апреля CAC постоянно сообщает о своем требовании к компаниям предоставлять регулирующим органам оценку безопасности, прежде чем предлагать обществу генеративные услуги на базе искусственного интеллекта. В июле регулятор киберпространства опубликовал набор руководящих принципов, регулирующих эти услуги, которые, по мнению отраслевых аналитиков, были значительно менее обременительными по сравнению с мерами, предложенными в первоначальном апрельском проекте.

Недавно обнародованный проект положений о безопасности требует, чтобы организации, занимающиеся обучением этих моделей ИИ, получали явное согласие от лиц, чьи личные данные, включая биометрическую информацию, используются для обучения. Кроме того, руководства содержат подробные инструкции по предотвращению нарушений, связанных с интеллектуальной собственностью.

Страны всего мира борются за создание нормативной базы для этой технологии. Китай рассматривает ИИ как область, в которой он стремится конкурировать с Соединенными Штатами, и поставил перед собой задачу стать мировым лидером в этой области к 2030 году.

Журнал: «ИИ убил индустрию»: руководитель EasyTranslate об адаптации к изменениям

Источник