Сотрудники OpenAI предупреждают об опасностях, связанных с продвинутым искусственным интеллектом

Сотрудники OpenAI предупреждают об опасностях, связанных с продвинутым искусственным интеллектом

Как опытный технологический аналитик, я считаю, что открытое письмо нынешних и бывших сотрудников OpenAI и Google DeepMind вызывает обоснованную обеспокоенность по поводу опасностей передового искусственного интеллекта и необходимости усиления контроля и прозрачности в отрасли. Потенциальные риски, которые они подчеркивают, такие как дальнейшее углубление существующего неравенства, манипуляции и дезинформация, потеря контроля над автономными системами искусственного интеллекта и даже вымирание человечества, являются серьезными, и их не следует игнорировать.


Ряд нынешних и бывших сотрудников OpenAI и Google DeepMind вчера выступили с публичным заявлением, выразив обеспокоенность по поводу потенциальных опасностей, создаваемых сложным искусственным интеллектом, и отсутствием нормативного контроля над организациями, разрабатывающими такие технологии.

В своем письме сотрудники выражают обеспокоенность по поводу ряда рисков, связанных с развитием технологий искусственного интеллекта. Эти риски включают в себя потенциал роста неравенства, манипулирования и распространения ложной информации, а также потери контроля человека над автономными системами. Если их не остановить, эти проблемы могут в конечном итоге представлять угрозу выживанию человечества.

Как исследователь, я столкнулся с интригующим наблюдением в индустрии искусственного интеллекта: у компаний есть существенная мотивация продвигать свои технологии, не раскрывая подробностей о своих мерах безопасности и потенциальных рисках. В письме говорится, что мы не можем рассчитывать на то, что эти компании будут свободно делиться этой информацией. Вместо этого нынешним и бывшим сотрудникам приходится выступить вперед и предоставить ценную информацию.

Пока над этими корпорациями нет достаточного государственного надзора, нынешние и бывшие сотрудники служат одной из основных групп, способных привлечь их к ответственности перед обществом. Однако мы часто связаны широкими соглашениями о конфиденциальности, которые не позволяют нам делиться своими опасениями с кем-либо за пределами компании, в том числе когда речь идет о потенциальных проблемах, которые компании могут не решать должным образом. Стандартные меры защиты информаторов неэффективны, поскольку они в первую очередь направлены на сообщение о незаконной деятельности, тогда как многие из рисков, которые нас беспокоят, до сих пор не регулируются.

Рабочие призывают компании, занимающиеся искусственным интеллектом, обеспечить надежные меры безопасности, позволяющие им сообщать о потенциальных опасностях, связанных с искусственным интеллектом, не опасаясь возмездия.

  • Избегайте создания или соблюдения соглашений, которые предотвращают критику по поводу проблем, связанных с риском.
  • Предложите сотрудникам поддающийся проверке анонимный процесс, позволяющий сообщать о проблемах, связанных с рисками, совету директоров, регулирующим органам и независимым организациям, обладающим соответствующим опытом.
  • Поддерживайте культуру открытой критики, чтобы позволить сотрудникам сообщать общественности, совету директоров, регулирующим органам и т. д. о проблемах, связанных с рисками, связанными с технологиями, при условии, что коммерческая тайна защищена.
  • Избегайте преследований сотрудников, которые публично делятся конфиденциальной информацией, связанной с риском, после того, как другие процессы оказались неудачными.

Под письмом поставили свои подписи тринадцать человек, среди которых были семь предыдущих сотрудников OpenAI, четверо нынешних сотрудников, один бывший сотрудник Google DeepMind и нынешний сотрудник Google DeepMind. OpenAI предупреждает своих сотрудников, что выражение мнений может привести к утрате вознаграждения за акции, но при этом требует от них соблюдения строгих соглашений о неразглашении, которые подавляют любую форму критики.

В понедельник Apple собирается представить многочисленные функции, улучшенные искусственным интеллектом, для iOS 18 и других обновлений программного обеспечения. Apple самостоятельно разрабатывает возможности искусственного интеллекта, которые будут легко интегрироваться в приложения по всей системе. Кроме того, Apple заключила партнерство с OpenAI, что привело к интеграции функций ChatGPT в iOS 18.

Смотрите также

2024-06-04 23:22