Инструменты искусственного интеллекта, такие как ChatGPT от OpenAI, будут создавать больше проблем, ошибок и векторов атак, если их использовать для написания смарт-контрактов и создания криптовалютных проектов, считает руководитель компании CertiK, специализирующейся на безопасности блокчейна.

Канг Ли, директор по безопасности CertiK, объяснил Cointelegraph на Корейской неделе блокчейна 5 сентября, что ChatGPT не может обнаружить ошибки в логическом коде так, как это могут сделать опытные разработчики.

Ли предположил, что ChatGPT может создавать больше ошибок, чем выявлять их, что может стать катастрофой для начинающих кодеров или любителей создавать собственные проекты.

"ChatGPT позволит куче людей, которые никогда не проходили всю эту подготовку, влиться в работу, они могут начать прямо сейчас, а я начну беспокоиться о зарытых там проблемах морфологического дизайна".

"Вы пишете что-то, ChatGPT помогает вам создать это, но из-за всех этих недостатков дизайна оно может потерпеть неудачу, когда злоумышленники начнут наступать", - добавил он.

Вместо этого, по мнению Ли, ChatGPT следует использовать в качестве помощника инженера, поскольку он лучше объясняет, что на самом деле означает та или иная строка кода.

"Я считаю, что ChatGPT - это отличный инструмент для тех, кто занимается анализом кода и реверс-инжинирингом. Это определенно хороший помощник, который значительно повысит нашу эффективность".
Участники Корейской недели блокчейна собираются на ключевой доклад. Источник: Эндрю Фентон/ Cointelegraph
Участники Корейской недели блокчейна собираются на ключевой доклад. Источник: Эндрю Фентон/ Cointelegraph

Он подчеркнул, что не стоит полагаться на него при написании кода - особенно неопытным программистам, желающим создать что-то монетизируемое.

Ли заявил, что будет поддерживать свои утверждения, по крайней мере, в течение ближайших двух-трех лет, поскольку признает, что стремительное развитие искусственного интеллекта может значительно улучшить возможности ChatGPT.

Технологии искусственного интеллекта все лучше справляются с эксплойтами социальной инженерии

Между тем Ричард Ма, соучредитель и генеральный директор компании Quantstamp, специализирующейся на обеспечении безопасности Web3, заявил в интервью Cointelegraph на выставке KBW 4 сентября, что инструменты искусственного интеллекта становятся все более успешными в проведении социально-инженерных атак, многие из которых идентичны попыткам человека.

По словам Ма, клиенты Quantstamp сообщают о тревожном количестве все более изощренных попыток социальной инженерии.

"[В последних случаях] похоже, что люди используют машинное обучение для написания писем и сообщений. Это гораздо убедительнее, чем попытки социальной инженерии пару лет назад".

Хотя рядовые пользователи Интернета уже давно сталкиваются со спамом, генерируемым искусственным интеллектом, Ма считает, что мы приближаемся к тому моменту, когда не будем знать, являются ли вредоносные сообщения искусственными или человеческими.

"Будет все труднее отличить, что вам присылает человек [или] довольно убедительный искусственный интеллект, который пишет личное сообщение", - сказал он.

Криптовалютные эксперты уже стали объектом атак, а за других выдают себя боты с искусственным интеллектом. Ма считает, что дальше будет только хуже.

"В криптовалюте существует множество баз данных, содержащих всю контактную информацию ключевых лиц каждого проекта. Поэтому хакеры имеют к ним доступ [и] у них есть искусственный интеллект, который может попытаться отправить людям сообщения различными способами".

"Довольно сложно обучить всю свою компанию не реагировать на подобные вещи", - добавил Ма.

По словам Ма, на рынке появляется более совершенное антифишинговое программное обеспечение, которое может помочь компаниям защититься от потенциальных атак.

Журнал: AI Eye: Apple разрабатывает карманный ИИ, глубокая фальшивая музыкальная сделка, гипнотизирующий GPT-4

Источник