По мере того, как искусственный интеллект (ИИ) продолжает достигать прорывов в возможностях, растет беспокойство по поводу того, что эти инновации могут стать более мощными, чем их создатели.
Мэтт Клиффорд, председатель Агентства передовых исследований и изобретений Великобритании (ARIA), подчеркнул это в недавнем интервью одному из местных новостных изданий.
ИИ нуждается в регулировании в течение 2 лет
Клиффорд подчеркнул, что ИИ необходимо регулировать в ближайшее время, чтобы сдержать риск того, что в ближайшие два года он станет "очень мощным", поскольку в настоящее время люди не имеют над ним контроля.
"У нас есть два года, чтобы создать структуру, которая сделает контроль и регулирование этих очень больших моделей гораздо более возможным, чем сегодня", - сказал он.
Комментируя ближайшие и долгосрочные риски, которые могут возникнуть в результате использования инструментов ИИ, Клиффорд сказал, что люди могут использовать генерируемую ИИ информацию для создания биооружия или проведения кибератак.
Клиффорд - не единственный эксперт в области технологий, обеспокоенный рисками, связанными с ростом ИИ. В открытом письме Центра безопасности ИИ 350 экспертов в области искусственного интеллекта поддержали идею о том, что ИИ должен рассматриваться как экзистенциальная угроза, подобно тому, как ядерное оружие и пандемии угрожают существованию человека.
Может ли ИИ представлять большую угрозу для человечества?
Компьютерный ученый и бывший сотрудник Google Джеффри Хинтон также допускает мысль о том, что ИИ отберет власть у человека. Ранее в этом месяце он упомянул в интервью, что люди создают интеллект, который может перехитрить человечество и создать угрозу для нашего существования.
Хинтон, считающийся одним из крестных отцов ИИ, подчеркнул эффективность и возможности обмена знаниями цифрового интеллекта по сравнению с ограничениями биологического интеллекта. Признавая, что ИИ несет в себе потенциальные преимущества, Хинтон подчеркнул необходимость смягчения и предотвращения любых негативных последствий, связанных с ним.
Источник