В мире кибербезопасности разворачивается настоящая битва титанов, где искусственный интеллект сражается сам с собой. По данным NBC, и хакеры, и те, кто с ними борется, массово взяли на вооружение ИИ-инструменты. Большие языковые модели вроде той, что работает в ChatGPT, хоть и не идеальны, но уже отлично справляются с генерацией кода, анализом документов и переводом обычной речи в команды для компьютера.

Яркий пример — расследование компании CrowdStrike, которая раскрыла операцию северокорейских агентов. Те использовали генеративный ИИ для создания фиктивных резюме, ведения соцсетей и даже написания рабочего кода, чтобы устроиться в западные IT-компании и получать зарплату, притворяясь обычными сотрудниками.

Однако эксперты считают, что эра полностью автономных хакеров на ИИ еще не настала. Пока что это инструмент для повышения эффективности, а не волшебная палочка. Как отмечает вице-президент Google по безопасности Хизер Эдкинс, ИИ пока не находит принципиально новых уязвимостей, а просто делает быстрее то, что люди и так умеют.

Но у этой мощи есть и обратная сторона — лавина ложных срабатываний. Разработчик популярного проекта cURL Даниэль Стенберг столкнулся с настоящим шквалом ложных сообщений о багах, сгенерированных ИИ. С начала года лишь 5% таких «находок» оказались реальными, но проверять пришлось каждую, что создало огромную нагрузку.