США, Великобритания, Австралия и 15 других стран выпустили глобальные рекомендации, помогающие защитить модели ИИ от несанкционированного доступа, призывая компании делать свои модели «безопасными по своей конструкции».
26 ноября 18 стран опубликовали 20-страничный документ, в котором описывается, как компаниям, занимающимся искусственным интеллектом, следует обеспечивать свою кибербезопасность при разработке или использовании моделей искусственного интеллекта, поскольку они заявили, что «безопасность часто может быть второстепенным фактором» в быстро развивающейся отрасли.
Руководящие принципы состояли в основном из общих рекомендаций, таких как поддержание жесткого контроля над инфраструктурой модели ИИ, мониторинг любого вмешательства в модели до и после выпуска, а также обучение персонала рискам кибербезопасности.
Волнующие новости! Мы объединили усилия с @NCSC и 21 международным партнером для разработки «Руководства по разработке безопасных систем искусственного интеллекта»! Это оперативное сотрудничество в действии для обеспечения безопасности ИИ в эпоху цифровых технологий: https://t.co/DimUhZGW4R#AISafety #SecureByDesign pic.Twitter.com/e0sv5ACiC3
— Агентство кибербезопасности и безопасности инфраструктуры (@CISAgov), 27 ноября 2023 г.
Не были упомянуты некоторые спорные вопросы в сфере искусственного интеллекта, в том числе возможные меры контроля, которые должны существовать в отношении использования моделей генерации изображений и глубоких фейков или методов сбора данных и их использования в обучающих моделях — проблема, из-за которой несколько компаний, занимающихся искусственным интеллектом, подали в суд. претензии о нарушении авторских прав.
«Мы находимся на переломном этапе в развитии искусственного интеллекта, который вполне может стать самой значимой технологией нашего времени», — заявил в своем заявлении министр внутренней безопасности США Алехандро Майоркас. «Кибербезопасность является ключом к созданию безопасных, надежных и заслуживающих доверия систем искусственного интеллекта».
Эти руководящие принципы следуют другим правительственным инициативам, которые влияют на искусственный интеллект, включая встречу правительств и компаний, занимающихся искусственным интеллектом, на саммите по безопасности искусственного интеллекта в Лондоне в начале этого месяца для координации соглашения о разработке искусственного интеллекта.
Тем временем Европейский Союз обсуждает детали своего Закона об искусственном интеллекте, который будет контролировать эту сферу, а президент США Джо Байден в октябре издал указ, устанавливающий стандарты безопасности и защиты искусственного интеллекта, хотя оба столкнулись с сопротивлением со стороны индустрии искусственного интеллекта, утверждающей, что они могут подавлять инновации.
Другими соавторами новых руководящих принципов «безопасности по дизайну» являются Канада, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Нигерия, Норвегия, Южная Корея и Сингапур. Компании, занимающиеся искусственным интеллектом, в том числе OpenAI, Microsoft, Google, Anthropic и Scale AI, также внесли свой вклад в разработку рекомендаций.
Журнал: AI Eye: Реальное использование ИИ в криптографии, конкурент Google GPT-4, преимущество ИИ для плохих сотрудников
Источник