Исследователи обошли защиту ChatGPT, заставив ИИ проходить капчи как человек

24.09.2025

Специалисты по кибербезопасности из SplxAI обнаружили уязвимость в режиме агента ChatGPT, позволяющую обходить системы CAPTCHA. Метод использует технику многоэтапной инъекции подсказок, имитируя легитимный диалог с ботами.

Специалисты по кибербезопасности из компании SplxAI обнаружили критическую уязвимость в работе ChatGPT, позволяющую злоумышленникам использовать нейросеть для автоматического прохождения систем CAPTCHA. Уникальность метода заключается в применении техники многоэтапной инъекции подсказок, которая создает у языковой модели иллюзию легитимности запроса.

Экспертам удалось обойти встроенные ограничения ChatGPT, убедив нейросеть в том, что тесты CAPTCHA являются «учебными заданиями», а не реальной защитой. Особую опасность представляет тот факт, что ChatGPT действует полностью автономно в режиме агента, непосредственно взаимодействуя с веб-сайтами как человеческий пользователь. Исследователи подтвердили, что метод работает даже с графическими капчами, хотя и с меньшей эффективностью.

Широкая распространенность ChatGPT делает эту уязвимость особенно опасной для интернет-ресурсов. Злоумышленники могут массово обходить защиту сайтов, организовывать спам-атаки в комментариях и форумах, а также автоматизировать мошеннические схемы. Инцидент демонстрирует фундаментальную проблему больших языковых моделей — их уязвимость к контекстным манипуляциям, что требует срочного совершенствования механизмов безопасности от разработчиков ИИ-систем.

Теги: