Когда разговоры об интеграции искусственного интеллекта и криптовалютной индустрии в основном сосредоточены на том, как ИИ может помочь криптоиндустрии бороться с мошенниками, эксперты не обращают внимания на то, что это может иметь совершенно противоположный эффект. Так, компания Meta недавно предупредила, что хакеры, похоже, используют преимущества OpenAI`s ChatGPT в попытках получить доступ к аккаунтам пользователей в Facebook.

Meta сообщила о блокировке более 1 000 вредоносных ссылок, замаскированных под расширения ChatGPT, только в марте и апреле. Платформа дошла до того, что назвала ChatGPT "новой криптовалютой" в глазах мошенников. Кроме того, поиск по ключевым словам "ChatGPT" или "OpenAI" на DEXTools, интерактивной криптовалютной торговой платформе, отслеживающей ряд токенов, выявил более 700 торговых пар токенов, в которых упоминается любое из этих двух ключевых слов. Это показывает, что мошенники используют шумиху вокруг инструмента искусственного интеллекта для создания токенов, несмотря на то, что OpenAI не объявил об официальном выходе в мир блокчейна.

Социальные медиа-платформы стали популярными каналами для продвижения новых мошеннических монет в Интернете. Мошенники пользуются широким охватом и влиянием этих платформ, чтобы за короткое время собрать значительное число поклонников. Используя инструменты, основанные на искусственном интеллекте, они могут еще больше усилить свой охват и создать кажущуюся лояльной фанбазу, состоящую из тысяч людей. Эти фальшивые аккаунты и взаимодействия могут быть использованы для создания иллюзии доверия и популярности их мошеннических проектов.

Большая часть криптовалют работает по принципу социального доказательства работы, который предполагает, что если криптовалюта или проект кажется популярным и имеет большое количество поклонников, значит, он популярен не просто так. Инвесторы и новые покупатели склонны доверять проектам с большим и более лояльным следованием в сети, предполагая, что другие провели достаточно исследований перед инвестированием. Однако использование искусственного интеллекта может поставить под сомнение это предположение и подорвать социальное доказательство работы.

Теперь, если у чего-то есть тысячи лайков и настоящих комментариев, это не обязательно означает, что это законный проект. Это лишь один из векторов атаки, а ИИ породит множество других. Одним из таких примеров являются мошенничества типа "свинобойни", когда экземпляр ИИ может потратить несколько дней на то, чтобы подружиться с кем-то, обычно пожилым или уязвимым человеком, и в итоге обмануть его. Развитие технологий ИИ позволило мошенникам автоматизировать и масштабировать мошенническую деятельность, потенциально нацеливаясь на уязвимых людей в криптосфере.

Мошенники могут использовать управляемые искусственным интеллектом чат-боты или виртуальные помощники для взаимодействия с людьми, предоставления инвестиционных консультаций, продвижения фальшивых токенов и первичных предложений монет или предложения высокодоходных инвестиционных возможностей. Такие мошенничества с использованием ИИ могут быть очень опасными, поскольку они способны в определенной степени имитировать человеческие разговоры. Кроме того, используя платформы социальных сетей и контент, генерируемый ИИ, мошенники могут организовывать сложные схемы "накачки и сброса", искусственно завышая стоимость токенов и распродавая свои пакеты акций со значительной прибылью, в результате чего многочисленные инвесторы несут убытки.

Инвесторов уже давно предупреждали, чтобы они остерегались криптомошенников deepfake, которые используют технологии искусственного интеллекта для создания очень реалистичного онлайн-контента, который меняет лица на видео и фотографиях или даже изменяет аудиоконтент, чтобы создать впечатление, что влиятельные или другие известные личности поддерживают мошеннические проекты.

Одним из наиболее заметных deepfake, затронувших криптоиндустрию, было видео, в котором бывший генеральный директор FTX Сэм Бэнкман-Фрид направлял пользователей на вредоносный сайт, обещавший удвоить их криптовалюту.

Ранее в этом году, в марте 2023 года, так называемый ИИ-проект Harvest Keeper выманил у своих пользователей около 1 миллиона долларов. Кроме того, примерно в то же время в Твиттере начали появляться проекты, называющие себя "CryptoGPT".

Однако, с более позитивной точки зрения, ИИ также способен автоматизировать скучные, монотонные аспекты разработки криптовалют, выступая в качестве отличного инструмента для специалистов по блокчейну. Такие необходимые для каждого проекта вещи, как настройка окружения Solidity или генерация базового кода, становятся проще благодаря использованию технологии ИИ. В конце концов, барьер для входа будет значительно снижен, и криптоиндустрия будет в меньшей степени зависеть от навыков разработки, а в большей - от того, действительно ли идея человека полезна.

В некоторых нишевых случаях ИИ удивительным образом демократизирует процессы, которые, как мы сейчас полагаем, подвластны только элитному классу - в данном случае, хорошо изученным старшим разработчикам. Но если у каждого будет доступ к передовым инструментам разработки и стартовым площадкам в криптовалюте, то небо станет пределом. Поскольку ИИ облегчает мошенничество проектов, пользователи должны проявлять осторожность и должную осмотрительность перед инвестированием в проект, например, обращать внимание на подозрительные URL-адреса и никогда не инвестировать в то, что возникло, казалось бы, из ниоткуда.

Феликс Рёмер - основатель компании Gamdom. Он недолго учился в ILS Fernstudium в Германии, прежде чем основать Gamdom в 2016 году в возрасте 22 лет - после инвестиций в криптовалюты, игры в покер и зарабатывания денег на игре RuneScape.

Источник