Вся команда OpenAI, сосредоточенная на экзистенциальных опасностях ИИ, либо ушла в отставку, либо была, по сообщениям, переведена в другие исследовательские группы внутри компании.
Через несколько дней после того, как Илья Сутскевер (Ilya Sutskever), главный ученый OpenAI и один из соучредителей компании, объявил о своем уходе, Ян Лейке (Jan Leike), бывший исследователь DeepMind и другой со-руководитель команды Superalignment/Суперсогласования OpenAI, написал в X, что он также ушел в отставку.
I joined because I thought OpenAI would be the best place in the world to do this research.
However, I have been disagreeing with OpenAI leadership about the company's core priorities for quite some time, until we finally reached a breaking point.
— Jan Leike (@janleike) May 17, 2024
По словам Лейке, его уход из компании связан с его беспокойством по поводу её приоритетов, которые, по его мнению, больше сосредоточены на разработке продуктов, чем на безопасности ИИ.
В серии X-сообщений Лейке заявил, что руководство OpenAI ошиблось в выборе основных приоритетов и должно делать упор на безопасность и готовность по мере продвижения разработки общего искусственного интеллекта (AGI).
AGI — это термин, обозначающий гипотетический искусственный интеллект, который может выполнять ряд задач так же или лучше, чем человек.
Проработав три года в OpenAI, Лейке раскритиковал компанию за то, что она отдаёт предпочтение разработке ярких продуктов, а не развитию устойчивой культуры и процессов безопасности ИИ. Он подчеркнул острую необходимость выделения ресурсов — особенно вычислительных мощностей — для поддержки исследований команды в области жизненно важной безопасности, которые, по его словам, были упущены из виду.
«Я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока мы, наконец, не достигли критической точки. Последние несколько месяцев моя команда шла против ветра», — сказал Лейке.
В июле 2023 года OpenAI сформировала новую исследовательскую группу, чтобы подготовиться к появлению продвинутого ИИ, который сможет перехитрить и одолеть своих создателей. Суцкевер был назначен соруководителем этой новой команды, которая получила 20% вычислительных ресурсов OpenAI.
После недавних отставок OpenAI решила распустить команду Superalignment и интегрировать её функции в другие исследовательские проекты внутри организации. Сообщается, что это решение является следствием продолжающейся внутренней реструктуризации, которая была инициирована в ответ на кризис управления в ноябре 2023 года.
Суцкевер был частью усилий, в результате которых совет директоров OpenAI в ноябре 2023 года ненадолго сместил Сэма Альтмана/Сема Олтмена (Sam Altman) с поста генерального директора, прежде чем позже он был повторно принят на эту должность после негативной реакции со стороны сотрудников.
По данным The Information, Суцкевер проинформировал сотрудников, что решение совета директоров отстранить Альтмана выполнило их обязанность гарантировать, что OpenAI разработает AGI, который принесёт пользу всему человечеству. Будучи одним из шести членов совета директоров, Суцкевер подчеркнул приверженность правления приведению целей OpenAI в соответствие с высшим благом.