OpenAI продвигается к AGI с новой группой безопасности под руководством Сэма Альтмана

OpenAI продвигается к AGI с новой группой безопасности под руководством Сэма Альтмана

Как опытный геймер и энтузиаст искусственного интеллекта, проявляющий большой интерес к технологическим разработкам, я уже довольно давно внимательно слежу за OpenAI. Последнее объявление об их следующей пограничной модели и создании Комитета по охране и безопасности интригует, если не сказать больше.


Согласно пресс-релизу во вторник, я рад сообщить, что OpenAI работает над моделью следующего поколения. Мы считаем, что это достижение сделает нас значительным шагом вперед в создании систем искусственного интеллекта, превосходящих интеллект человеческого уровня. Кроме того, мы учредили Комитет по охране и безопасности для обеспечения эффективного принятия важных решений, касающихся безопасности и защиты. Я горжусь тем, что меня возглавляют наш генеральный директор Сэм Альтман и другие уважаемые члены правления OpenAI в рамках этой важной инициативы.

В недавнем заявлении для прессы компания OpenAI выразила гордость за создание и распространение моделей, которые лидируют в отрасли с точки зрения возможностей и безопасности. Они также предложили бурную дискуссию по этой важной теме.

Я внимательно следил за последними разработками в OpenAI, и за последний месяц для организации это были американские горки. Уход исследовательской группы под руководством Ильи Суцкевера и Яна Лейке, которая сосредоточилась на изучении потенциальных экзистенциальных рисков ИИ для человечества, вызвал некоторую обеспокоенность. Бывшие члены правления Хелен Тонер и Таша Макколи выразили свою обеспокоенность в статье для The Economist, заявив, что эти события, среди других, последовавших за возвращением генерального директора OpenAI Сэма Альтмана, являются зловещими знаками для эксперимента OpenAI по самоуправлению. Более того, несколько сотрудников, заботящихся о безопасности, недавно покинули компанию, выразив обеспокоенность по поводу внимания, уделяемого потенциальным опасностям, исходящим от систем искусственного интеллекта.

Новая команда, созданная OpenAI, стремится снять опасения и оценить меры безопасности в течение следующих 90 дней. Однако добавление Альтмана в эту группу, возможно, не успокоит критиков OpenAI, учитывая прошлые обвинения в токсичной рабочей культуре, характеризующейся нечестностью со стороны старших руководителей, включая Тонер и Макколи. Более того, недавние события, связанные с воспроизведением голоса Скарлетт Йоханссон без ее согласия, еще больше поставили под сомнение надежность Альтмана.

Брет Тейлор в качестве председателя возглавит комитет по безопасности и охране вместе с членами правления Адамом Д’Анджело, Николь Селигман, Альтманом, Якубом Пачоцки, Мэттом Найтом, Джоном Скалманом, Лилиан Венг и Александром Мадри. В состав этого комитета войдут новый главный научный сотрудник Якуб Пахоцкий и руководители отделов. Они будут сотрудничать с внешними экспертами и предлагать меры безопасности совету директоров OpenAI на утверждение.

В мае OpenAI представила GPT-4 Omni, ознаменовав революционный прогресс в сфере взаимодействия человека с моделями ИИ. Эта модель удивила многих в секторе искусственного интеллекта своими мультимодальными возможностями в реальном времени. Похоже, что OpenAI уже работает над следующей итерацией. Однако OpenAI сталкивается с жесткой конкуренцией со стороны стартапа Альтмана за обеспечение сотрудничества чат-ботов с искусственным интеллектом с Apple, важным бизнес-альянсом, о котором, как ожидается, будет объявлено во время предстоящей июньской конференции WWDC. Это партнерство может стать одной из самых важных сделок в истории технологической индустрии.

Как геймер, я бы перефразировал это так: должен признать, недавние изменения в OpenAI вызвали у меня некоторые опасения. Новая команда по безопасности, состоящая в основном из новых членов совета директоров и руководителей отделов, является шагом в правильном направлении, но я не могу избавиться от ощущения, что этого может быть недостаточно, чтобы подавить сохраняющиеся опасения по поводу безопасности.

Смотрите также

2024-05-28 17:00