Чат-боты с ИИ не могут правильно обрабатывать новости

12.02.2025

Исследование BBC показало, что популярные чат-боты, такие как ChatGPT, Google Gemini и Microsoft Copilot, допускают множество ошибок в новостных сводках. Несмотря на прогресс, системы ИИ всё ещё не готовы заменить профессионалов в журналистике.

Чат-боты с искусственным интеллектом, такие как OpenAI ChatGPT, Microsoft Copilot, Google Gemini и Perplexity, не так уж точны, как нам хотелось бы, когда дело касается подготовки новостных материалов. Исследование BBC показало, что более половины их ответов содержат серьезные ошибки.

Для эксперимента журналисты BBC попросили эти ИИ-системы составить сводки по сотне новостей и затем оценили их точность. Результаты оказались неутешительными: более 51% ответов ИИ содержали существенные проблемы, включая неверные факты, числа и даты. Особенно плохи были ответы Google Gemini, который радикально исказил заявление Национальной службы здравоохранения Великобритании, и ChatGPT с Copilot, которые продолжали ссылаться на ушедших в отставку политиков. Такие ошибки не единичны — ИИ часто путает факты с мнениями, игнорирует контекст и делает общее изложение материала слишком поверхностным.

Не все системы продемонстрировали одинаково плохие результаты. Microsoft Copilot и Google Gemini оказались хуже всего, в то время как ChatGPT и Perplexity показали меньшую степень ошибок. Это исследование ещё раз напомнило, что даже самые продвинутые ИИ пока не могут полностью заменить человека в создании точных и детализированных новостей.

Несмотря на активное развитие ИИ и снижение количества явных «галлюцинаций» (неверных ответов), все эти системы по-прежнему требуют осторожности. Они могут улучшиться со временем, но на данный момент стоит воспринимать информацию от чат-ботов с долей скепсиса, особенно когда речь идет о новостях.

Теги: