В 2018 году мир был потрясен, узнав, что британская политическая консалтинговая фирма Cambridge Analytica собрала личные данные не менее 50 миллионов пользователей Facebook без их согласия и использовала их для влияния на выборы в США и за рубежом.

В результате тайного расследования, проведенного Channel 4 News, появились кадры, на которых тогдашний генеральный директор фирмы Александр Никс говорит, что у него нет проблем с намеренным введением общественности в заблуждение для поддержки своих политических клиентов:

"Это звучит ужасно, но это вещи, которые не обязательно должны быть правдой. Лишь бы в них верили".

Скандал стал тревожным сигналом об опасности социальных сетей и больших данных, а также о том, насколько хрупкой может быть демократия в условиях стремительных технологических изменений, происходящих во всем мире.

Искусственный интеллект

Как искусственный интеллект (ИИ) вписывается в эту картину? Может ли он также использоваться для влияния на выборы и угрожать целостности демократий во всем мире?

По мнению Триш МакКласки, доцента Университета Дикина, и многих других, ответ - однозначно да.

Руководитель отдела цифровых технологий и ИИ компании The Pentagons Крейг Мартелл предупреждает, что генеративные языковые модели ИИ, такие как #ChatGPT, могут стать "идеальным инструментом" для #дезинформации. Им не хватает контекста, и люди воспринимают их слова как факт". #AI #кибербезопасность pic.Twitter.com/pPCHY2zKJH

- Realtime Global Data Intelligence Platform (@KIDataApp) 5 мая 2023 г.

Маккласки рассказал Cointelegraph, что большие языковые модели, такие как OpenAI`s ChatGPT, "могут генерировать контент, неотличимый от написанного человеком текста", что может способствовать проведению кампаний по дезинформации или распространению фальшивых новостей в сети.

Среди других примеров того, как ИИ может потенциально угрожать демократии, Маккласки выделил способность ИИ производить глубокие подделки, которые могут фабриковать видео с публичными фигурами, такими как кандидаты в президенты, и манипулировать общественным мнением.

Пока еще, как правило, легко определить, что видео является глубокой подделкой, но технология быстро развивается и со временем станет неотличимой от реальности.

Например, поддельное видео с бывшим генеральным директором FTX Сэмом Бэнкманом-Фридом, которое ссылается на фишинговый сайт, показывает, как губы часто не совпадают со словами, оставляя у зрителей ощущение, что что-то не совсем так.

В выходные верифицированный аккаунт, выдающий себя за основателя FTX SBF, разместил десятки копий этого deepfake видео, предлагающего пользователям FTX "компенсацию за потери" в фишинговой афере, направленной на опустошение их криптокошельков pic.twitter.com/3KoAPRJsya

- Джейсон Кеблер (@jason_koebler) 21 ноября 2022 г.

Гэри Марку, предприниматель в области ИИ и соавтор книги "Перезагрузка ИИ: создание искусственного интеллекта, которому мы можем доверять", согласился с оценкой Маккласки, сказав Cointelegraph, что в краткосрочной перспективе единственным наиболее значительным риском, создаваемым ИИ, является:

"Угроза массовой, автоматизированной, правдоподобной дезинформации подавляет демократию".

В рецензируемой работе 2021 года исследователей Ноэми Бонтриддера и Ива Пуле под названием "Роль искусственного интеллекта в дезинформации" также подчеркивается способность систем ИИ вносить свой вклад в дезинформацию, и предполагается, что они делают это двумя способами:

"Во-первых, они [ИИ] могут быть использованы злоумышленниками для манипулирования людьми особенно эффективно и в огромных масштабах. Во-вторых, они непосредственно усиливают распространение такого контента".

Кроме того, современные системы искусственного интеллекта хороши лишь настолько, насколько хороши поступающие в них данные, что иногда может привести к необъективным ответам, способным повлиять на мнение пользователей.

Классическая либеральная предвзятость ИИ. #AI #SnapchatAI #GenerativeAI #ArtificialIntelligence (Примечание: я не голосую на выборах. Это была моя идея, чтобы посмотреть, как программисты разработали этот ИИ, чтобы он реагировал на политику.) pic.twitter.com/hhP2v2pFHg

- Дориан Тапиас (@CrypticStyle) 10 мая 2023 г.

Как снизить риски

Хотя очевидно, что ИИ способен угрожать демократии и выборам по всему миру, стоит отметить, что ИИ также может сыграть положительную роль в развитии демократии и борьбе с дезинформацией.

Например, Маккласки заявил, что ИИ может "использоваться для обнаружения и отметки дезинформации, облегчения проверки фактов, мониторинга честности выборов", а также для обучения и вовлечения граждан в демократические процессы.

"Главное, - добавляет Маккласки, - обеспечить, чтобы технологии ИИ разрабатывались и использовались ответственно, при наличии соответствующих норм и гарантий".

Примером нормативных актов, которые могут помочь уменьшить способность ИИ производить и распространять дезинформацию, является Закон Европейского союза о цифровых услугах (DSA).

Когда DSA полностью вступит в силу, крупные онлайн-платформы, такие как Twitter и Facebook, будут обязаны выполнять список обязательств, направленных, в частности, на минимизацию дезинформации, или будут подвергнуты штрафам в размере до 6% от их годового оборота.

DSA также вводит повышенные требования к прозрачности этих онлайн-платформ, согласно которым они должны раскрывать информацию о том, как они рекомендуют контент пользователям - часто это делается с помощью алгоритмов искусственного интеллекта, - а также о том, как они модерируют контент.

Бонтриддер и Поуллет отметили, что компании все чаще используют ИИ для модерации контента, что, по их мнению, может быть "особенно проблематичным", поскольку ИИ способен чрезмерно модерировать и ущемлять свободу слова.

DSA применяется только к операциям в Европейском Союзе; Маккласки отмечает, что для регулирования ИИ и борьбы с дезинформацией, как глобального явления, необходимо международное сотрудничество.

Журнал: $3,4 млрд биткоина в банке из-под попкорна - история хакера Silk Road

Маккласки предположил, что это может произойти через "международные соглашения по этике ИИ, стандартам конфиденциальности данных или совместным усилиям по отслеживанию и борьбе с кампаниями по дезинформации".

В конечном итоге Маккласки заявил, что "борьба с риском вклада ИИ в дезинформацию потребует многогранного подхода", включающего "государственное регулирование, саморегулирование технологических компаний, международное сотрудничество, просвещение общественности, технологические решения, медиаграмотность и постоянные исследования".

Источник