Растущая сложность искусственного интеллекта (ИИ) породила размышления о возможности сознания в этих системах. Однако авторы нового исследования, нейробиологи Джаан Ару, Мэтью Ларкум и Мак Шайн, утверждают, что эта гипотеза может быть переоценена.

Современные ИИ-системы, включая такие, как ChatGPT, способны поражать своей способностью создавать тексты, которые кажутся человеческими. Но вопрос заключается в том, осознают ли эти системы собственные тексты, или они всего лишь выполнение алгоритмов и образцов? Авторы утверждают, что, несмотря на впечатляющие результаты, современные языковые модели не обладают внутренним, воплощенным пониманием, характерным для человеческого восприятия мира. Они также отмечают, что архитектура современных ИИ-алгоритмов не имеет ключевых черт, присущих таламокортикальной системе, связанных с сознательным пониманием.

Эволюционные пути, приведшие к возникновению сознательных живых организмов, могут отличаться от путей, которые привели к созданию современных искусственных систем. Живые существа зависят от сложных многоуровневых процессов, включая клеточные и организменные, чтобы проявить активность и сознание.

Таким образом, предположение о сознательности ChatGPT и подобных систем, хотя и заманчиво, вероятно, недооценивает сложность нейробиологических механизмов, лежащих в основе сознания в человеческом мозгу. Путь к созданию сознательных машин еще долог и требует глубокого понимания механизмов сознания, которые, вероятно, более сложны, чем механизмы, используемые в современных ИИ-моделях. Например, биологические нейроны сильно отличаются от искусственных нейронных сетей, так как они являются реальными физическими объектами, способными к росту и изменению формы, в то время как нейроны в ИИ-моделях просто фрагменты кода. Поэтому понимание сознания и создание сознательных машин — это долгий и сложный путь.