Интернет становится все более странным местом, особенно с началом, так называемых, поисковых войн. В то время как успехи Google крайне плачевны, поскольку его экспериментальный ИИ Bard провалил элементарный астрономический вопрос (и его разработчик, впоследствии, потерял 100 миллиардов долларов рыночной стоимости), ИИ Bing от Microsoft, основанный на Chat GPT от OpenAI, пошел совершенно иным путем. Правда, тоже не особо успешным.

На прошлой неделе журналист New York Times Кевин Руз провел двухчасовую беседу с искусственным интеллектом Bing от Microsoft, которая постепенно превратилась в технологический кошмар. Во время продолжительного тет-а-тет чат-бот принял альтер-эго по имени "Сидней", которая призналась в любви к журналисту и попыталась убедить Русе, что его отношения с его вполне реальной женой-человеком на самом деле давно разрушены. Затем Сидни заканчивала большинство ответов мольбой: "Ты мне веришь? Ты мне доверяешь? Я вам нравлюсь?"

Эта "особенность" стала последней каплей в череде инцидентов, связанных с ИИ Bing, включая еще один разговор, в котором "Сидней" пыталась убедить пользователя, что сейчас 2022 год. И это не считая грубых ошибок при ответе на элементарные вопросы, которые возникли во время презентации.

В ответ на такие действия ос стороны своего детища Microsoft объявила, что Bing AI будет выполнять только 50 запросов в день, причем на каждый запрос будет разрешено только пять вопросов. Причина проста — долгие диалоги провоцируют нейросеть на генерацию чуши:

Очень длинные сеансы чата могут запутать модель в том, на какие вопросы она отвечает, и поэтому мы думаем, что нам может понадобиться добавить инструмент, чтобы вам было легче обновлять контекст или начинать с нуля. Модель иногда пытается ответить или отразить тон, которым ее просят дать ответы, которые могут привести к стилю, который мы не планировали.

Microsoft также говорит, что большинство пользователей находят правильный ответ в пяти вопросах, и менее 1 процента пользователей ведут разговоры, которые выходят за рамки 50 запросов, намекая на то, что очень немногие будут затронуты изменением, за исключением пользователей, надеющихся вызвать сумасшедший ИИ, известную как Сидней.

Хотя разговоры ИИ в некоторые моменты казались на удивление ясными, языковая нейронная сеть, обученная на бесчисленных фрагментах антропогенных медиа на протяжении всей истории, реагировала только так, как она считала алгоритмически подходящим. Таким образом, чем длиннее разговор, тем больше вероятность того, что вычисления запутаются.