На конференции I/O 2024 компания Google акцентировала внимание на том, что её нейросети Gemini станут новым стандартом в поисковых системах и ИИ-ассистентах. Однако одна из демонстраций возможностей этой системы снова выявила присущую всем современным большим языковым моделям проблему — галлюцинации, то есть выдачу заведомо неверных ответов.
В ролике «Поиск в эпоху Gemini» Google показала видеопоиск — функцию поиска информации на основе видео. В одном из примеров компания использовала ролик с застрявшим рычажком перемотки плёнки на фотоаппарате и вопросом, почему этот рычажок не двигается до конца. Gemini распознал видео, понял запрос и предложил несколько советов по исправлению проблемы. Один из них оказался неверным.
ИИ предложил "открыть заднюю крышку и аккуратно снять плёнку". Это, пожалуй, худшее, что можно сделать в данной ситуации. Если открыть заднюю крышку плёночного фотоаппарата не в абсолютно тёмной комнате, плёнка засветится, и все сделанные снимки будут испорчены. Тем не менее, этот ответ был выделен в видео как наиболее подходящий.
Это не первый случай, когда Google публикует рекламный материал с фактической ошибкой, вызванной ИИ. В прошлом году чат-бот Bard ошибочно сообщил, что первый снимок экзопланеты — планеты за пределами Солнечной системы — был сделан космическим телескопом JWST, что не соответствует действительности.