Исследователи кибербезопасности обнаружили потенциально опасную уязвимость в работе генеративного ИИ, которую хакеры могут использовать для атак на разработчиков. Речь идет о так называемом "галлюцинаторном захвате" (slopsquatting) — методе, основанном на склонности ИИ-систем вроде ChatGPT и Copilot выдавать вымышленную информацию за правду.
Проблема в том, что при написании кода ИИ иногда "придумывает" несуществующие программные пакеты. Эксперименты компании Socket показали: если повторить запрос, вызывающий такую галлюцинацию, ИИ в 43% случаев снова порекомендует фейковый пакет. Этим могут воспользоваться злоумышленники — создав реальный вредоносный пакет с названием, которое ИИ регулярно выдумывает.
Пока это лишь теоретическая угроза, но риск вполне реальный. Разработчик, получив такую рекомендацию от ИИ, может без задней мысли установить этот пакет из GitHub или другого репозитория. Защита тут стандартная — всегда проверять рекомендуемые ИИ пакеты и не доверять слепо автоматическим предложениям. Как показывает практика, там, где есть уязвимость, рано или поздно появляются и те, кто хочет ей воспользоваться.