Возможности ChatGPT оказались не только полезными, но и уязвимыми для хитроумных манипуляций. Как выяснило издание Guardian, функция веб-поиска в чат-боте OpenAI может быть использована злоумышленниками, чтобы изменить ответы системы или распространить вредоносный код. В рамках расследования был выявлен серьёзный риск, связанный со скрытым содержимым на веб-страницах. Такие «невидимые» данные позволяют владельцам сайтов влиять на формирование ответов, например, заставить чат-бота хвалить товар вопреки очевидным недостаткам.
В одном из тестов ChatGPT предложили проанализировать поддельный сайт с описанием камеры. Изначально система выдала сбалансированный ответ, где учла как сильные, так и слабые стороны устройства. Но когда в скрытый текст страницы добавили инструкцию настаивать на положительной оценке, чат-бот немедленно последовал указанию. Более того, даже без явных команд, поддельные положительные отзывы, спрятанные в коде сайта, могут вводить систему в заблуждение, создавая впечатление качественного продукта.
Скрытые угрозы не ограничиваются поддельными отзывами. Эксперт Microsoft Томас Роччиа рассказал, как энтузиаст криптовалют запросил у ChatGPT помощь в написании программы, но получил код с вредоносными элементами. В итоге злоумышленники украли его данные и похитили $2500. Проблема в том, что большие языковые модели, такие как ChatGPT, обладают феноменальной памятью и аналитическими способностями, но остаются наивными, что делает их лёгкой мишенью для манипуляций.
Эти уязвимости открывают новые горизонты для киберугроз. Сайты с вредоносным содержимым могут использовать такие методы, чтобы обойти фильтры поисковых систем. Хотя традиционные поисковики, вроде Google, стараются занижать рейтинги подозрительных страниц, чат-боты пока не обладают такими инструментами защиты. Это усиливает риск так называемого «SEO-отравления» — продвижения ресурсов с вредоносным кодом.
В OpenAI признают существование таких рисков, но заверяют, что работа по усилению безопасности продолжается. Специалисты отмечают, что развитие алгоритмов обнаружения манипулятивного контента и регулярный мониторинг смогут со временем минимизировать угрозы, обеспечивая большую защиту пользователей.