Технологии, такие как ChatGPT, находятся в центре внимания, но даже передовые алгоритмы сталкиваются с ограничениями. Исследователи из Копенгагенского университета выдвинули революционное утверждение, математически подтвердив, что создание алгоритмов искусственного интеллекта, которые всегда остаются стабильными, невозможно. Это открытие может привести к усовершенствованию методов тестирования алгоритмов и подчеркнуть различия между машинным и человеческим интеллектом.

Научная статья, описывающая это открытие, получила одобрение для публикации на ведущей международной конференции по теоретической информатике.

Несмотря на то что машины могут более точно интерпретировать медицинские изображения, переводить языки и, возможно, даже безопаснее управлять автомобилями, чем люди, даже лучшие алгоритмы не лишены недостатков. Исследовательская группа из Копенгагенского университета пытается выявить эти недостатки.

Примером служит ситуация с автоматизированным транспортным средством, распознающим дорожные знаки. Наклейка на знаке, которая не влияет на водителя, может сбить с толку машину, так как знак теперь отличается от того, на котором она училась.

Профессор Амир Йегудаев, руководитель группы исследователей, объясняет, что цель заключается в создании стабильных алгоритмов, которые сохраняют почти неизменным вывод при небольших изменениях входных данных. Его группа математически доказала, что, за исключением простых задач, создать стабильные алгоритмы машинного обучения невозможно. Научная статья с этим открытием будет представлена на конференции Foundations of Computer Science (FOCS).

Йегудаев подчеркивает, что хотя это исследование не направлено непосредственно на автомобильные приложения, проблема слишком сложна для того, чтобы алгоритмы всегда оставались стабильными. Он признает, что, если алгоритм допускает ошибки в редких обстоятельствах, это приемлемо. Однако, если они происходят часто, это может быть нежелательно.

Научная статья, хотя и не предназначена для обнаружения ошибок в алгоритмах отрасли, предлагает язык для обсуждения слабых сторон алгоритмов машинного обучения. Это может способствовать разработке рекомендаций для тестирования алгоритмов и, в долгосрочной перспективе, к созданию более стабильных решений.

Возможное применение включает в себя тестирование алгоритмов защиты цифровой конфиденциальности. Профессор Йегудаев подчеркивает, что его методология может помочь определить, что решение не является абсолютно безопасным, и выявить его слабые места.

Он признает, что интерес к теоретическим разработкам может занять некоторое время, прежде чем отрасль начнет применять их на практике. Он добавляет, что, несмотря на задержку, не все теоретические разработки останутся незамеченными, особенно в контексте быстрого развития машинного обучения.