Использование искусственного интеллекта (ИИ) в социальных сетях рассматривается как потенциальная угроза влияния или изменения настроений избирателей на предстоящих в 2024 году президентских выборах в США.

Крупнейшие технологические компании и государственные структуры США активно следят за ситуацией, связанной с дезинформацией. Так, 7 сентября исследовательское подразделение Microsoft под названием "Центр анализа угроз Microsoft" (MTAC) опубликовало результаты исследования, согласно которым "аффилированные с Китаем субъекты" используют эту технологию.

В отчете говорится, что эти субъекты использовали созданные ИИ визуальные средства в так называемой "широкой кампании", в которой большое внимание уделялось "темам, вызывающим политические разногласия, таким как насилие с применением огнестрельного оружия, а также очернению американских политических деятелей и символов".

В сообщении говорится, что Китай, по его мнению, "будет продолжать оттачивать эту технологию с течением времени", и пока неясно, каким образом она будет развернута в масштабах страны для подобных целей.

С другой стороны, для выявления подобной дезинформации также используется искусственный интеллект. 29 августа компания Accrete AI по заказу Командования специальных операций США (USSOCOM) развернула программное обеспечение, предназначенное для прогнозирования угроз дезинформации в социальных сетях в режиме реального времени.

Прашант Бхуян, основатель и генеральный директор компании Accrete, заявил, что эти глубокие подделки и другие "применения искусственного интеллекта в социальных сетях" представляют серьезную угрозу.

"Социальные сети широко известны как нерегулируемая среда, в которой противники регулярно используют уязвимости рассуждений и манипулируют поведением посредством преднамеренного распространения дезинформации".

По данным отчета Массачусетского технологического института, во время предыдущих выборов в США в 2020 году "фермы троллей" ежемесячно охватывали 140 млн. американцев.

Тролль-фермы - это "институционализированная группа" интернет-троллей, целью которой является вмешательство в политические взгляды и принятие политических решений.

В преддверии выборов регулирующие органы в США уже рассматривают возможности регулирования глубоких подделок.

10 августа Федеральная избирательная комиссия США единогласно приняла решение о продвижении петиции, предусматривающей регулирование политической рекламы с использованием искусственного интеллекта. Один из членов комиссии, поддержавший петицию, назвал глубокие подделки "значительной угрозой демократии".

7 сентября Google объявила о том, что в середине ноября 2023 года будет обновлена политика в отношении политического контента, в соответствии с которой раскрытие информации об искусственном интеллекте станет обязательным для рекламы в рамках политических кампаний.

По его словам, раскрытие информации будет требоваться в тех случаях, когда "синтетический контент недостоверно изображает реальных или реалистично выглядящих людей или события".

Журнал: Нужно ли запрещать выплаты за выкуп? Идея привлекательная, но опасная

Источник