В то время как ChatGPT набирает невероятную популярность, метод сбора данных модели ИИ вызывает некоторое беспокойство и имеет некоторые явные негативные коннотации. В этом случае Италия предпринимает судебные иски, чтобы остановить работу ChatGPT на данный момент.

Как любая другая большая языковая модель, ChatGPT черпает большую часть своих "знаний" из одного источника — интернета. Подобные модели должны обучаться в течение определенного периода времени на основе информации, доступной в глобальной сети, что, по меньшей мере, может быть проблематичным. Информация не всегда собирается с явного согласия, хотя технически эта информация находится в свободном доступе.

Основная функция ChatGPT — имитировать человеческое взаимодействие. Это взаимодействие так хорошо выполняется со стороны ИИ благодаря комплексному обучению, которое OpenAI проводит для этих моделей. К сожалению, именно здесь, кажется, проходит "серая зона". В этом сборе данных ни один человек не соглашается предоставлять свои данные OpenAI. Тем не менее, компания может собирать их через свободно доступный интернет.

Первой на эту тему в открытую решила высказаться Италия, приняв меры против OpenAI, фактически запретив ChatGPT работать в стране на данный момент. ChatGPT получит временное ограничение на обработку данных итальянских пользователей. После этого Италия начинает расследование, чтобы убедиться, что их опасения обоснованы. Главной проблемой здесь является вероятность того, что OpenAI нарушает Общий регламент ЕС по защите данных — GDPR.

Таким образом, итальянское правительство отмечает, что по всей видимости, нет никаких правовых оснований для массового сбора и обработки персональных данных с целью "обучения" алгоритмов, на которые опирается платформа. По сути, ChatGPT не оказывает услуг и не служит более широкой цели в Италии, поскольку его основная функция — вести себя как человек и общаться с людьми, как бы унизительно это ни звучало.

Получение данных без явного согласия в сочетании с тем фактом, что эти данные часто являются ложными, создает веские аргументы против чрезвычайно продвинутого чат-бота. Тем не менее, продвинутая модель GPT-4 по-прежнему полагается на свои обученные данные, и если данные, с которыми она обучается, по своей сути ложны, потому что они могли быть взяты из любого количества обычных сайтов и социальных сетей, в этом кроется серьезная проблема.

Последнее беспокойство, высказанное итальянским DPA, касается отсутствия механизма проверки возраста, используемого OpenAI. Без каких-либо ограничений несовершеннолетние лица имеют полный доступ ко всему, что им бросает чат-бот. Хотя услуга предназначена для лиц старше 13 лет, в ЕС, в частности, установлены строгие ограничения, требующие, чтобы эти механизмы были активны в той или иной степени.

То, что, по-видимому, спровоцировало расследование GDPR в отношении языковой модели ИИ, было нарушением безопасности, которое произошло 20 марта. Компания OpenAI сообщила, что как разговоры, отправленные через ChatGPT от пользователей, так и способы оплаты потенциально подвержены риску из-за этого нарушения.

OpenAI, несомненно, проделал большую работу, чтобы создать что-то, что не только впечатляет, но и заставляет шевелиться весь мир. К сожалению, если у ИИ есть планы по охвату жителей регионов с более строгими правилами использования интернета, ChatGPT, вероятно, придется играть по правилам. В частности, те, которые установлены GDPR.

У OpenAI есть 20 дней, чтобы настроить работу ChatGpt в Италии и сообщить об этих изменениях. Без этих корректировок компании грозит штраф в размере до 20 миллионов евро или 4% от общего годового оборота компании — в зависимости от того, что меньше.