Советник премьер-министра Соединенного Королевства по вопросам ИИ заявил, что у людей есть примерно два года, чтобы контролировать и регулировать искусственный интеллект (ИИ), прежде чем он станет слишком мощным.

В интервью местным британским СМИ Мэтт Клиффорд, который также является председателем правительственного Агентства перспективных исследований и изобретений (ARIA), подчеркнул, что нынешние системы становятся "все более и более способными с постоянно растущей скоростью".

Он продолжил говорить, что если чиновники не начнут рассматривать вопросы безопасности и регулирования сейчас, то через два года системы станут "очень мощными".

"У нас есть два года, чтобы создать структуру, которая сделает контроль и регулирование этих очень больших моделей гораздо более возможным, чем сегодня".

Клиффорд предупредил, что существует "множество различных видов рисков", когда речь идет об ИИ, как ближайших, так и долгосрочных, которые он назвал "довольно страшными".

Интервью последовало за письмом, опубликованным на предыдущей неделе Центром безопасности ИИ, которое подписали 350 экспертов в области ИИ, включая генерального директора OpenAI, в котором говорится, что ИИ следует рассматривать как экзистенциальную угрозу, подобную той, которую представляют ядерное оружие и пандемии.

"Они говорят о том, что произойдет, когда мы эффективно создадим новый вид, своего рода интеллект, превосходящий человеческий".

Советник целевой группы по ИИ сказал, что эти угрозы, исходящие от ИИ, могут быть "очень опасными", которые могут "убить многих людей, не всех людей, просто от того, где, как ожидается, модели будут находиться через два года".

По мнению Клиффорда, основное внимание регуляторов и разработчиков должно быть сосредоточено на понимании того, как контролировать модели, а затем на внедрении регулирования в глобальном масштабе.

На данный момент, по его словам, его самый большой страх - это отсутствие понимания того, почему модели ИИ ведут себя так, как они ведут себя.

"Люди, которые создают наиболее способные системы, свободно признают, что они не понимают, как именно [системы искусственного интеллекта] демонстрируют то поведение, которое они демонстрируют".

Клиффорд подчеркнул, что многие руководители организаций, создающих ИИ, также согласны с тем, что мощные модели ИИ должны пройти определенный процесс аудита и оценки перед их развертыванием.

В настоящее время регулирующие органы по всему миру пытаются понять технологию и ее последствия, одновременно пытаясь создать правила, которые защищают пользователей и при этом допускают инновации.

5 июня официальные лица в Европейском союзе зашли настолько далеко, что предложили ввести обязательное обозначение всего контента, созданного искусственным интеллектом, в целях предотвращения дезинформации.

В Великобритании министр оппозиционной партии повторил чувства, упомянутые в письме CAIS, сказав, что эта технология должна регулироваться так же, как медицина и ядерная энергетика.

Журнал: AI Eye: 25 тысяч трейдеров ставят на биржевые подборки ChatGPT`s, искусственный интеллект отстойно играет в кости и многое другое

Источник