Ученые из Массачусетского технологического института и Университета штата Аризона провели исследование, в результате которого выяснилось, что первоначальная информация о характере диалогового ИИ-агента, помогающего в вопросах психического здоровья, влияет на то, как пользователи воспринимают этого чат-бота и как взаимодействуют с ним. Это влияние сохраняется даже при общении с одним и тем же ИИ.

Большинство пользователей, которым сообщили, что агент заботится о них, приняли это на веру и оценили его эффективность выше, чем те, кто полагал, что это форма манипуляции. Тем не менее, менее половины пользователей, которым сообщили о манипулятивных мотивах агента, считали, что чат-бот представляет реальную угрозу. Это показывает, что люди, подобно своим собратьям, могут стремиться видеть в ИИ положительные качества.

Исследование подчеркивает значимость того, как общество представляет себе ИИ, поскольку средства массовой информации и культурные влияния оказывают сильное воздействие на наши представления. Авторы также предостерегают от возможности использования подобных утверждений для манипуляции восприятием мотивов и возможностей ИИ.

Ученые стремились выяснить, какая часть эмпатии и эффективности ИИ зависит от субъективного восприятия пользователей, а какая от самой технологии. Они также исследовали, возможно ли воздействовать на восприятие ИИ с помощью первоначальной информации.

В исследовании участвовали 310 человек, которых случайным образом разделили на три группы. Каждой группе предоставили разную информацию о намерениях ИИ. Результаты показали, что первоначальные утверждения сильно влияют на мнение пользователей о ИИ. Этот эффект был более выражен в случае более сложного ИИ на основе GPT-3.

Исследователи отметили, что пользователи могут оценивать чат-ботов по-разному в зависимости от первоначальной информации. Даже при идентичности агентов, те, кто получил положительную информацию, оценили своих чат-ботов выше. В будущем они намерены изучить, как агенты могут быть разработаны так, чтобы противостоять предвзятости пользователей. Например, при положительном восприятии ИИ ему может быть присвоен бот, который реагирует нейтрально, чтобы диалог оставался сбалансированным.