Спам-боты используют ChatGPT для обмана крупных компаний

14.04.2025

Спам-бот AkiraBot сгенерировал десятки тысяч персонализированных сообщений через OpenAI, обходя фильтры на 80 000 сайтов. Владельцев бизнеса заманивали фиктивными SEO-услугами.

Мошенники нашли новый способ использовать искусственный интеллект во вред — спам-бот AkiraBot массово атаковал бизнес-сайты, создавая персонализированные рекламные сообщения через API OpenAI. Как выяснила компания SentinelOne, специализирующаяся на кибербезопасности, бот успешно обошёл защитные системы на 80 000 площадок, в основном принадлежащих малому и среднему бизнесу.

AkiraBot работал хитро: он отправлял в GPT-4o-mini запрос на создание "маркетинговых сообщений", после чего ИИ генерировал спам, адаптированный под тематику каждого сайта. Для строительной компании — один текст, для салона красоты — другой. Эти сообщения затем автоматически размещались в чатах и формах обратной связи, предлагая владельцам сайтов сомнительные SEO-услуги.

Особенность атаки в её масштабе и изощрённости. Бот не просто копировал один и тот же текст — каждое сообщение было уникальным, что позволяло обходить стандартные фильтры. Более того, поздние версии AkiraBot научились использовать онлайн-чаты на сайтах, что сделало их ещё более незаметными.

OpenAI уже отреагировала на инцидент, заблокировав API-ключ, связанный с ботом, и пообещав продолжить расследование. "Мы серьёзно относимся к подобным злоупотреблениям и постоянно улучшаем наши системы защиты", — заявили в компании.

Это не первый случай, когда ИИ используют в мошеннических целях. Ранее уже появлялись подобные инструменты вроде WormGPT, которые помогали киберпреступникам имитировать переписку от имени банков. Однако AkiraBot выделяется своим размахом — он наглядно показал, как современные технологии могут быть обращены против бизнеса.

Пока неизвестно, удалось ли кому-то действительно "продать" SEO-услуги через эту схему. Но сам факт, что бот смог так массово обойти защиту, вызывает тревогу у экспертов по безопасности. Остаётся надеяться, что подобные инциденты заставят разработчиков ИИ усилить контроль за использованием их технологий.

Теги: