OpenAI, как сообщается, распускает свою команду по экзистенциальному риску ИИ

OpenAI, как сообщается, распускает свою команду по экзистенциальному риску ИИ

Как опытный геймер с глубоким пониманием технологий и их потенциальных последствий, я глубоко обеспокоен новостями, исходящими от OpenAI. Расформирование их команды Superalignment, которая была сосредоточена исключительно на предотвращении выхода из-под контроля сверхчеловеческих систем ИИ, кажется шагом назад в наших коллективных усилиях по обеспечению безопасной разработки и внедрения передового ИИ.


Как геймер, я слышал, что команда OpenAI Superalignment, которая отвечала за управление потенциальными рисками, связанными с созданием сверхинтеллектуальной системы искусственного интеллекта, как сообщается, была расформирована. По данным Wired, эта новость появилась сразу после того, как ее основатели Илья Суцкевер и Ян Лейке объявили о своем уходе из компании.

Согласно отчету Wired, команда OpenAI, известная как Superalignment, созданная в июле 2023 года для устранения потенциальных рисков, связанных с передовыми системами искусственного интеллекта, была расформирована. Обязанности этой команды будут включены в другие текущие исследовательские инициативы OpenAI. Джон Шульман, один из соучредителей OpenAI, теперь будет курировать исследования, связанные с опасностями более мощных моделей ИИ, как упоминалось в статье Wired. Среди известных ученых OpenAI, которые занимались рисками ИИ, были Суцкевер и Лейке.

В прошлую пятницу Лейке поделился обширным постом с подробным описанием причин своего ухода из OpenAI. По его словам, он уже довольно давно спорит с руководством организации по поводу фундаментальных ценностей. Однако на этой неделе ситуация достигла апогея, когда напряженность достигла своего пика. Лейке выразил обеспокоенность тем, что команда Суперинтеллекта столкнулась с серьезными проблемами в обеспечении достаточных вычислительных ресурсов для критических исследований, сравнив свои усилия с плаванием против сильного ветра. Он придерживается мнения, что OpenAI следует более энергично уделять приоритетное внимание безопасности, безопасности и согласованности.

В недавнем сообщении в блоге OpenAI команда Superalignment признала, что в настоящее время не существует эффективного метода управления высокоинтеллектуальным искусственным интеллектом, который потенциально может выйти за пределы человеческого понимания. Далее они объяснили, что, будучи людьми, мы, возможно, не сможем надежно контролировать более продвинутые системы искусственного интеллекта, что делает нынешние методы согласования недостаточными для сверхразума. Поэтому необходимы новые научные и технологические достижения.

Существует неопределенность относительно уровня внимания, уделяемого новаторским техническим проектам OpenAI в будущем. В то время как команда Шульмана занимается тонкой настройкой моделей ИИ после обучения, Superalignment, которая сосредоточилась на предотвращении наиболее катастрофических последствий работы мошеннического ИИ, как сообщается, передала свои обязанности. Примечательно, что некоторые видные защитники безопасности ИИ в OpenAI недавно ушли или были уволены.

В этом году OpenAI опубликовала влиятельное исследование по управлению большими моделями искусственного интеллекта с использованием меньших моделей. Это знаменует собой значительный прогресс в управлении передовыми системами искусственного интеллекта. Однако остается неопределенным, какие люди или команды внутри OpenAI возглавят следующие этапы этих проектов.

OpenAI не сразу ответила на запрос TopMob о комментариях.

На этой неделе компания OpenAI, занимающаяся искусственным интеллектом Сэма Альтмана, представила GPT-4 Omni — свою новейшую усовершенствованную модель. Это нововведение от OpenAI, известное своей быстрой реакцией, может похвастаться сверхнизкой задержкой и звучит удивительно человечно. Несколько членов команды выразили восхищение, сравнив новейший ИИ с элементами прямо из научной фантастики, в частности, сославшись на фильм «Она».

Смотрите также

2024-05-17 19:45