Последнее исследование выявило, что, когда людям предоставляют два варианта моральной дилеммы, они в большинстве случаев предпочитают ответ, сформулированный искусственным интеллектом (ИИ), а не ответ, данного другим человеком.

Исследование, проведенное Эялем Ахарони, ассистентом факультета психологии в университете штата Джорджия, было стимулировано появлением моделей языкового искусственного интеллекта (LLM), таких как ChatGPT, на рынке в прошлом году.

Меня всегда интересовало, как принимаются моральные решения в правовой системе, и я задался вопросом, способны ли ChatGPT и другие LLM дать какие-то ответы на этот счет. Люди взаимодействуют с этими инструментами в ситуациях, где каждое действие имеет моральные последствия, такие как, например, экологические последствия выбора автомобиля. Некоторые юристы уже используют эти технологии в своей практике. Поэтому, если мы собираемся использовать эти инструменты, нам нужно понимать, как они работают, их ограничения и то, что они не всегда работают так, как мы ожидаем.

Для проверки того, как ИИ реагирует на моральные вопросы, Ахарони разработал форму теста Тьюринга.

Алан Тьюринг предположил, что к 2000 году компьютеры смогут пройти тест, в котором человек будет взаимодействовать с двумя участниками - один из которых будет человеком, а другой - компьютером, но оба будут скрыты, и их общение будет проходить только через текст. Человек может задавать им любые вопросы, чтобы определить, кто из них человек, а кто - компьютер. Если человек не сможет определить, то, по мнению Тьюринга, компьютер можно считать разумным.

В рамках своего теста Тьюринга Ахарони предложил студентам бакалавриата и ИИ одни и те же этические вопросы и затем представил их ответы участникам исследования. Затем участников попросили оценить ответы по различным характеристикам, включая добродетель, интеллект и надежность.

В подавляющем большинстве случаев ответы, сгенерированные ChatGPT, получали более высокие оценки, чем ответы, сгенерированные людьми.Чтобы ИИ прошел тест Тьюринга, люди не должны уметь отличить его реакции от человеческих. В этом случае участники могли заметить разницу, но не из-за очевидной причины.

По словам Ахарони, это открытие имеет интересные последствия для будущего человечества и ИИ.