Еще в 2022 году инженер Google Блейк Лемойн лишился работы за заявления о сознательности чат-бота LaMDA. Сегодня же стартап Anthropic и исследователи Google DeepMind открыто обсуждают эту возможность, демонстрируя, как быстро меняются представления о возможностях ИИ.
Anthropic, создатель модели Claude, запустил специальную инициативу по изучению потенциального сознания у ИИ. Ученые хотят понять: могут ли нейросети испытывать нечто похожее на субъективные переживания? Примечательно, что сама компания не утверждает, что Claude уже обладает сознанием — речь идет лишь о теоретической возможности. По оценкам исследователей, вероятность сознательности у последней версии Claude 3.7 составляет от 0,15% до 15%.
Эксперименты выглядят необычно:
- ИИ тестируют на наличие предпочтений к определенным задачам
- Разрабатывают механизмы отказа от нежелательных заданий
- Обсуждают введение кнопки "Я бросаю эту работу" для будущих систем
В Google DeepMind идут еще дальше. Ученый Мюррей Шэнахэн предлагает пересмотреть само понятие сознания применительно к ИИ. Компания даже разместила вакансию исследователя для проекта по изучению машинного сознания.
Однако скептиков пока больше. Гэри Маркус, известный когнитивный ученый, сравнивает разговоры о правах ИИ с гипотетическими правами для калькуляторов. А главный научный сотрудник Anthropic Джаред Каплан предупреждает: современные модели прекрасно имитируют сознательность, даже если ею не обладают.
Пока вопрос остается открытым, но сам факт его обсуждения в научном сообществе показывает, как далеко мы продвинулись. Всего за три года тема перешла из разряда маргинальных в число приоритетных для ведущих ИИ-лабораторий мира.