OpenAI сформировала комитет по безопасности ИИ

14.10.2024

Несмотря на увольнения сотрудников, говоривших о необходимости контроля за развитием искусственного интеллекта, OpenAI решила заняться вопросами контроля ИИ.

В прошлом месяце стартап OpenAI столкнулся с уходом нескольких высокопоставленных руководителей, которые выступали за усиление контроля над распространением технологий искусственного интеллекта. Вместе с этим было расформировано специальное подразделение, однако его функции будут переданы новому наблюдательному комитету в совете директоров.

Как сообщает Bloomberg, в состав этого комитета войдут как члены совета директоров, так и руководители компании. Комитет будет оценивать безопасность разрабатываемых больших языковых моделей. Ему отведено 90 дней на первоначальную оценку текущих правил безопасности, после чего будут опубликованы рекомендации. Также OpenAI приступила к обучению своей новейшей большой языковой модели, вероятно, GPT-5.

Напомним, что в OpenAI профильное подразделение боролось за ресурсы, а ведущий научный специалист Илья Суцкевер, покинувший компанию в мае, имел разногласия с руководством по методам оценки рисков. Эти разногласия обострились прошлой осенью и привели к попытке отставки основателя компании Сэма Альтмана. Частично функции контроля за влиянием ИИ на общество теперь выполняет исследовательское подразделение OpenAI, которое после ухода Суцкевера возглавил Джон Шульман.

В новый наблюдательный комитет войдут три члена совета директоров: председатель Брет Тейлор, генеральный директор Адам Д’Анджело и бывшая руководительница Sony Entertainment Николь Селигман. Также в него войдут шесть руководителей компании, включая Альтмана и Шульмана. В комитет будут привлекаться и сторонние советники, в том числе двое бывших высокопоставленных чиновников США.

Теги: