Новое исследование, проведённое специалистами из Университета Бата и Технического университета Дармштадта, показало, что ChatGPT и другие крупные языковые модели (LLM) не способны самостоятельно обучаться или развивать новые навыки, что снижает опасения по поводу их потенциальной угрозы человечеству.

Результаты исследования, опубликованные на конференции ACL 2024, показали, что хотя LLM умеют грамотно следовать инструкциям и демонстрируют хорошее владение языком, они не могут осваивать новые навыки без явных подсказок. Это делает их предсказуемыми и управляемыми.

Учёные пришли к выводу, что, несмотря на рост возможностей этих моделей, они остаются безопасными и контролируемыми, хотя их использование всё ещё требует осторожности, чтобы избежать неправильного применения.

Хотя в будущем LLM смогут генерировать более сложные тексты и лучше реагировать на детализированные запросы, вероятность того, что они самостоятельно разовьют сложное мышление, крайне мала. Доктор Хариш Тайяр Мадабуши из Университета Бата, один из авторов исследования, отметил, что страхи о потенциальной угрозе от этих моделей отвлекают внимание от реальных проблем.

Совместная команда во главе с профессором Ириной Гуревич из Технического университета Дармштадта провела серию экспериментов, чтобы оценить способность LLM справляться с задачами, которые им ранее не предлагались, — так называемыми эмерджентными способностями. Исследования показали, что, несмотря на кажущуюся способность моделей понимать социальные ситуации, на самом деле они просто используют известный метод "обучения в контексте" (ICL), который позволяет им имитировать ответы на основе предоставленных примеров.

Проведённые тысячи тестов показали, что LLM не приобретают новые сложные навыки, а лишь демонстрируют комбинацию своих способностей следовать инструкциям, использовать память и применять лингвистические знания.

Доктор Мадабуши подчеркнул, что опасения о том, что модели могут неожиданно научиться сложным формам мышления или планирования, не имеют под собой оснований. Он отметил, что, хотя вопросы безопасности ИИ остаются актуальными, разговоры об экзистенциальной угрозе чрезмерно раздуваются.

Вместо этого исследователи рекомендуют концентрироваться на рисках, таких как создание фейковых новостей или мошенничество, и не спешить вводить жёсткие правила, основанные на гипотетических угрозах. Пользователям LLM советуют чётко формулировать свои запросы и предоставлять модели примеры, чтобы избежать недоразумений.

Профессор Гуревич также добавил, что, хотя исследование не отрицает риски, связанные с ИИ, результаты показывают, что сложные способности мышления, которые якобы могли бы представлять угрозу, не подтверждаются фактами. В будущем стоит уделять больше внимания реальным опасностям, связанным с дезинформацией и другими неправильными использованиями этих моделей.