В 2018 году мир был потрясен, узнав, что британская политическая консалтинговая фирма Cambridge Analytica собрала личные данные не менее 50 миллионов пользователей Facebook без их согласия и использовала их для влияния на выборы в США и за рубежом.
В результате тайного расследования, проведенного Channel 4 News, появились кадры, на которых тогдашний генеральный директор фирмы Александр Никс говорит, что у него нет проблем с намеренным введением общественности в заблуждение для поддержки своих политических клиентов:
"Это звучит ужасно, но это вещи, которые не обязательно должны быть правдой. Лишь бы в них верили".
Скандал стал тревожным сигналом об опасности социальных сетей и больших данных, а также о том, насколько хрупкой может быть демократия в условиях стремительных технологических изменений, происходящих во всем мире.
Искусственный интеллект
Как искусственный интеллект (ИИ) вписывается в эту картину? Может ли он также использоваться для влияния на выборы и угрожать целостности демократий во всем мире?
По мнению Триш МакКласки, доцента Университета Дикина, и многих других, ответ - однозначно да.
Руководитель отдела цифровых технологий и ИИ компании The Pentagons Крейг Мартелл предупреждает, что генеративные языковые модели ИИ, такие как #ChatGPT, могут стать "идеальным инструментом" для #дезинформации. Им не хватает контекста, и люди воспринимают их слова как факт". #AI #кибербезопасность pic.Twitter.com/pPCHY2zKJH
- Realtime Global Data Intelligence Platform (@KIDataApp) 5 мая 2023 г.
Маккласки рассказал Cointelegraph, что большие языковые модели, такие как OpenAI`s ChatGPT, "могут генерировать контент, неотличимый от написанного человеком текста", что может способствовать проведению кампаний по дезинформации или распространению фальшивых новостей в сети.
Среди других примеров того, как ИИ может потенциально угрожать демократии, Маккласки выделил способность ИИ производить глубокие подделки, которые могут фабриковать видео с публичными фигурами, такими как кандидаты в президенты, и манипулировать общественным мнением.
Пока еще, как правило, легко определить, что видео является глубокой подделкой, но технология быстро развивается и со временем станет неотличимой от реальности.
Например, поддельное видео с бывшим генеральным директором FTX Сэмом Бэнкманом-Фридом, которое ссылается на фишинговый сайт, показывает, как губы часто не совпадают со словами, оставляя у зрителей ощущение, что что-то не совсем так.
В выходные верифицированный аккаунт, выдающий себя за основателя FTX SBF, разместил десятки копий этого deepfake видео, предлагающего пользователям FTX "компенсацию за потери" в фишинговой афере, направленной на опустошение их криптокошельков pic.twitter.com/3KoAPRJsya
- Джейсон Кеблер (@jason_koebler) 21 ноября 2022 г.
Гэри Марку, предприниматель в области ИИ и соавтор книги "Перезагрузка ИИ: создание искусственного интеллекта, которому мы можем доверять", согласился с оценкой Маккласки, сказав Cointelegraph, что в краткосрочной перспективе единственным наиболее значительным риском, создаваемым ИИ, является:
"Угроза массовой, автоматизированной, правдоподобной дезинформации подавляет демократию".
В рецензируемой работе 2021 года исследователей Ноэми Бонтриддера и Ива Пуле под названием "Роль искусственного интеллекта в дезинформации" также подчеркивается способность систем ИИ вносить свой вклад в дезинформацию, и предполагается, что они делают это двумя способами:
"Во-первых, они [ИИ] могут быть использованы злоумышленниками для манипулирования людьми особенно эффективно и в огромных масштабах. Во-вторых, они непосредственно усиливают распространение такого контента".
Кроме того, современные системы искусственного интеллекта хороши лишь настолько, насколько хороши поступающие в них данные, что иногда может привести к необъективным ответам, способным повлиять на мнение пользователей.
Классическая либеральная предвзятость ИИ. #AI #SnapchatAI #GenerativeAI #ArtificialIntelligence (Примечание: я не голосую на выборах. Это была моя идея, чтобы посмотреть, как программисты разработали этот ИИ, чтобы он реагировал на политику.) pic.twitter.com/hhP2v2pFHg
- Дориан Тапиас (@CrypticStyle) 10 мая 2023 г.
Как снизить риски
Хотя очевидно, что ИИ способен угрожать демократии и выборам по всему миру, стоит отметить, что ИИ также может сыграть положительную роль в развитии демократии и борьбе с дезинформацией.
Например, Маккласки заявил, что ИИ может "использоваться для обнаружения и отметки дезинформации, облегчения проверки фактов, мониторинга честности выборов", а также для обучения и вовлечения граждан в демократические процессы.
"Главное, - добавляет Маккласки, - обеспечить, чтобы технологии ИИ разрабатывались и использовались ответственно, при наличии соответствующих норм и гарантий".
Примером нормативных актов, которые могут помочь уменьшить способность ИИ производить и распространять дезинформацию, является Закон Европейского союза о цифровых услугах (DSA).
Когда DSA полностью вступит в силу, крупные онлайн-платформы, такие как Twitter и Facebook, будут обязаны выполнять список обязательств, направленных, в частности, на минимизацию дезинформации, или будут подвергнуты штрафам в размере до 6% от их годового оборота.
DSA также вводит повышенные требования к прозрачности этих онлайн-платформ, согласно которым они должны раскрывать информацию о том, как они рекомендуют контент пользователям - часто это делается с помощью алгоритмов искусственного интеллекта, - а также о том, как они модерируют контент.
Бонтриддер и Поуллет отметили, что компании все чаще используют ИИ для модерации контента, что, по их мнению, может быть "особенно проблематичным", поскольку ИИ способен чрезмерно модерировать и ущемлять свободу слова.
DSA применяется только к операциям в Европейском Союзе; Маккласки отмечает, что для регулирования ИИ и борьбы с дезинформацией, как глобального явления, необходимо международное сотрудничество.
Журнал: $3,4 млрд биткоина в банке из-под попкорна - история хакера Silk Road
Маккласки предположил, что это может произойти через "международные соглашения по этике ИИ, стандартам конфиденциальности данных или совместным усилиям по отслеживанию и борьбе с кампаниями по дезинформации".
В конечном итоге Маккласки заявил, что "борьба с риском вклада ИИ в дезинформацию потребует многогранного подхода", включающего "государственное регулирование, саморегулирование технологических компаний, международное сотрудничество, просвещение общественности, технологические решения, медиаграмотность и постоянные исследования".
Источник