Еще в 2022 году инженер Google Блейк Лемойн лишился работы за заявления о сознательности чат-бота LaMDA. Сегодня же стартап Anthropic и исследователи Google DeepMind открыто обсуждают эту возможность, демонстрируя, как быстро меняются представления о возможностях ИИ.

Anthropic, создатель модели Claude, запустил специальную инициативу по изучению потенциального сознания у ИИ. Ученые хотят понять: могут ли нейросети испытывать нечто похожее на субъективные переживания? Примечательно, что сама компания не утверждает, что Claude уже обладает сознанием — речь идет лишь о теоретической возможности. По оценкам исследователей, вероятность сознательности у последней версии Claude 3.7 составляет от 0,15% до 15%.

Эксперименты выглядят необычно:

  • ИИ тестируют на наличие предпочтений к определенным задачам
  • Разрабатывают механизмы отказа от нежелательных заданий
  • Обсуждают введение кнопки "Я бросаю эту работу" для будущих систем

В Google DeepMind идут еще дальше. Ученый Мюррей Шэнахэн предлагает пересмотреть само понятие сознания применительно к ИИ. Компания даже разместила вакансию исследователя для проекта по изучению машинного сознания.

Однако скептиков пока больше. Гэри Маркус, известный когнитивный ученый, сравнивает разговоры о правах ИИ с гипотетическими правами для калькуляторов. А главный научный сотрудник Anthropic Джаред Каплан предупреждает: современные модели прекрасно имитируют сознательность, даже если ею не обладают.

Пока вопрос остается открытым, но сам факт его обсуждения в научном сообществе показывает, как далеко мы продвинулись. Всего за три года тема перешла из разряда маргинальных в число приоритетных для ведущих ИИ-лабораторий мира.