Компания Apple опубликовала неожиданные результаты исследования самых продвинутых ИИ-моделей. Оказалось, что разрекламированные "рассуждающие" нейросети (LRM) на деле не так умны, как о них говорят. Да, они справляются с задачами средней сложности лучше обычных языковых моделей, но когда дело доходит до по-настоящему сложных испытаний — терпят неудачу.

Учёные Apple протестировали флагманские модели от Anthropic, OpenAI, Google и DeepSeek. Им давали не только стандартные математические задачи, но и заставляли проектировать сложные системы вроде знаменитой "Ханойской башни". Результаты разочаровали: ИИ демонстрировал логические провалы, непоследовательность в рассуждениях и странную склонность упрощать сложные задачи вместо их решения.

Особенно показательным стало сравнение с обычными языковыми моделями (LLM). На простых заданиях разницы почти нет. На средних — LRM вырываются вперёд благодаря специальным механизмам рассуждений. Но на сложных тестах пасуют все.

Это исследование появилось в момент, когда Apple заметно отстаёт в гонке ИИ. Возможно, компания пытается сказать: не стоит спешить — нынешний ИИ-бум может оказаться мыльным пузырём. Тем более что ещё год назад эксперты предупреждали: нейросетям скоро не хватит качественных данных для обучения.

Так кто же прав? Те, кто верит в скорый искусственный интеллект человеческого уровня? Или Apple, считающая, что нынешние системы лишь создают иллюзию мышления? Пока ясно одно: до настоящего "разума" машинам ещё очень далеко.