Doom vs Boom: битва за включение будущего искусственного интеллекта в закон штата Калифорния

Doom vs Boom: битва за включение будущего искусственного интеллекта в закон штата Калифорния

SB 1047 — это предложенный в Калифорнии законопроект, целью которого является регулирование крупных и мощных моделей искусственного интеллекта (ИИ). Законопроект вызвал разногласия в сообществе ИИ: некоторые утверждают, что он может задушить развитие и инновации ИИ с открытым исходным кодом, в то время как другие считают, что необходимы более строгие правила для предотвращения потенциальных рисков для человечества.


Спорное законодательное предложение Калифорнии направлено на введение правил в отношении крупномасштабных передовых моделей искусственного интеллекта, что разжигает серьезную конфронтацию относительно будущего направления искусственного интеллекта. В течение некоторого времени в сообществе ИИ существовали две фракции: «ускорители» и «замедлители». Первая группа выступает за быстрое развитие технологий искусственного интеллекта – «действуйте быстро и ломайте вещи», – тогда как вторая выступает за более осторожный подход, отдавая приоритет безопасности человека. Эти дебаты привлекли внимание всей страны, когда совет директоров OpenAI временно отстранил от должности Сэма Альтмана, в результате чего под лозунгом безопасности ИИ сформировалось несколько отколовшихся групп. Калифорнийский законопроект выводит этот спор на политическую арену.

Рекомендуемое чтение

Рекомендуемое чтение

  • Выключенный
  • Английский

Что такое SB 1047?

SB 1047 — это законодательное предложение штата Калифорния, согласно которому крупные поставщики моделей искусственного интеллекта, включая Meta, OpenAI, Anthropic и Mistral, несут ответственность за любые потенциальные опасности или катастрофические риски, создаваемые их передовыми системами искусственного интеллекта. Этот законопроект, написанный сенатором штата Скоттом Винером, успешно прошел Сенат в мае и на этой неделе стал еще одним важным шагом на пути к тому, чтобы стать законом.

Почему это должно меня беспокоить?

Это может стать первым значительным шагом регулирования в области искусственного интеллекта в Соединенных Штатах, учитывая его остроту, и, что особенно важно, это развитие происходит в Калифорнии, где находится большинство крупных компаний, занимающихся искусственным интеллектом.

Как страстный последователь развития ИИ, я могу вам сказать, что Винер характеризует законопроект как устанавливающий «простые, надежные и разумные рекомендации по безопасности для создателей наиболее надежных и мощных систем ИИ». Однако не все разделяют эту точку зрения. Некоторые в Кремниевой долине выражают серьезную обеспокоенность тем, что этот закон может преждевременно остановить революцию искусственного интеллекта.

Что на самом деле делает SB 1047?

Как геймер, я могу объяснить это так: SB 1047 возлагает на создателей моделей ИИ ответственность за любой значительный ущерб или негативные последствия, которые их технологии могут нанести людям в Калифорнии. Это примечательно, поскольку технологическая индустрия Кремниевой долины обычно избегает брать на себя ответственность за ущерб, причиненный их инновациями. Благодаря этому законопроекту генеральный прокурор Калифорнии получает полномочия подавать судебные иски против этих компаний, если одна из их моделей искусственного интеллекта нанесет серьезный вред калифорнийцам.

Как страстный геймер и последователь технологий искусственного интеллекта, я бы сказал это так: SB 1047 требует, чтобы разработчики искусственного интеллекта включали в свои творения механизм «тревожной кнопки» или «аварийного отключения». Это означает, что в случае непредвиденных обстоятельств, когда модель ИИ может представлять угрозу, компании обязаны предоставить быстрое и эффективное решение для ее деактивации.

Законодательство создает новое подразделение под названием «Frontier Model Division» внутри технологического департамента Калифорнии. Это подразделение будет контролировать и регулировать поставщиков передовых моделей искусственного интеллекта. Компании, находящиеся под их юрисдикцией, должны соблюдать стандарты безопасности, установленные подразделением, иначе им грозят судебные иски и потенциальные штрафы.

Кто поддерживает этот законопроект?

Как страстный геймер и последователь технологических достижений, я бы перефразировал это так: я заметил, что сенатор Винер — не единственный голос, выражающий обеспокоенность по поводу ИИ. Два известных эксперта по искусственному интеллекту, Джеффри Хинтон и Йошуа Бенджио, также поддержали этот законопроект. Эти два первопроходца в нашей области уже довольно давно заявляют о потенциальных опасностях искусственного интеллекта.

С моей точки зрения, как ярого сторонника теории замедления, этот закон соответствует нашему убеждению в том, что искусственный интеллект (ИИ) представляет значительный риск для человечества и требует тщательного регулирования. Многие сторонники этой позиции не руководствуются коммерческими интересами в области ИИ, учитывая их опасения по поводу того, что он может привести к вымиранию человечества. Фактически, они часто являются ведущими исследователями в области искусственного интеллекта.

Центр безопасности ИИ, возглавляемый Дэном Хендриксом, является основным сторонником этого закона. В мае 2023 года их организация опубликовала открытое письмо, в котором подчеркнула потенциальную опасность искусственного интеллекта, ведущего к вымиранию человечества. Среди подписавших были такие известные личности, как Сэм Альтман, Билл Гейтс и Граймс. Эта влиятельная группа играет значительную роль в пропаганде этого законопроекта.

В марте 2023 года некоторые представители сообщества ИИ выступили за прекращение развития ИИ ради принятия мер безопасности. Это предложение может показаться радикальным, но в этой области есть множество интеллектуалов, которые питают искреннюю обеспокоенность тем, что бесконтрольное развитие ИИ может представлять экзистенциальную угрозу человечеству. Они утверждают, что, учитывая любую возможность причинения ИИ вреда людям, мы должны осуществлять строгий контроль над его развитием в качестве меры предосторожности.

В этом есть смысл. Так кто же против SB 1047?

Как страстный геймер и инсайдер в мире технологий, я могу сказать вам, что если вы являетесь частью X, у меня такое ощущение, что в Кремниевой долине наблюдается волна сопротивления SB 1047. Венчурные капиталисты, предприниматели, исследователи ИИ и даже лидеры сообщества ИИ с открытым исходным кодом, похоже, едины в своем презрении к этому законопроекту. Я не удивлен, учитывая, что многие из них являются частью сообщества акселераторов или, по крайней мере, придерживаются такого мнения в этом вопросе. В то время как некоторые занимаются разработкой технологий искусственного интеллекта, другие являются чистыми исследователями. В любом случае, их коллективный голос против SB 1047 является четким показателем потенциального вреда, который он может нанести отрасли.

Преобладающая точка зрения состоит в том, что SB 1047 может заставить поставщиков моделей искусственного интеллекта, таких как Meta и Mistral, сократить или отказаться от своих инициатив с открытым исходным кодом. Этот закон возлагает на эти компании ответственность за неправильное использование их моделей ИИ, однако они могут решить не брать на себя такую ​​ответственность из-за сложностей, связанных с контролем генеративного ИИ и присущей их продуктам открытости.

«Этот законопроект нанесет сокрушительный удар по экосистеме стартапов с открытым исходным кодом. Это все равно, что пытаться помешать прогрессу игровой индустрии во время изобретения печатного станка вместо того, чтобы сосредоточиться на том, как эффективно его использовать».

«По словам Иона Стойки, профессора компьютерных наук Беркли и исполнительного председателя Databricks, открытый исходный код — это наше наиболее эффективное решение, позволяющее оставаться впереди в разработке ИИ за счет совместного проведения открытых тестов безопасности новых моделей вместо того, чтобы позволять избранному числу компаний сохранять ИИ. достижения в тайне».

Как страстный геймер и активный наблюдатель за технологической индустрией, я не могу не заметить, что Мидха и Стойка — не единственные, кто выражает обеспокоенность по поводу регулирования ИИ. Фактически, искусственный интеллект с открытым исходным кодом изменил правила игры для стартапов Кремниевой долины, способствуя их росту, как никогда раньше. Однако противники SB 1047 утверждают, что этот законопроект может непреднамеренно благоприятствовать традиционным игрокам крупных технологических компаний вместо того, чтобы развивать нашу динамичную и открытую экосистему.

«Джереми Никсон, основатель AGI House, который организует мероприятия по искусственному интеллекту с открытым исходным кодом в Кремниевой долине, рассматривает этот закон как средство ограничения прогресса разработки ИИ в сообществе открытого исходного кода. Это часть более масштабного плана по замедлению развития ИИ. Законопроект был разработан группой, которая особенно заинтересована в полном прекращении развития ИИ».

Это звучит очень технически. Смогут ли законодатели добиться всего этого?

Как геймер и наблюдатель за достижениями в области искусственного интеллекта, я могу вам сказать, что действующее законодательство SB 1047 создает некоторые проблемы из-за своего технического характера. Термин «большие» модели на приграничной территории определен расплывчато: в законопроекте указано, что это искусственный интеллект, обученный на 10^26 FLOPS, что является значительным эталоном вычислительной мощности по сегодняшним стандартам. Однако, учитывая экспоненциальные темпы роста технологий искусственного интеллекта, передовые модели, появившиеся всего на год вперед, покажутся незначительными по сравнению с будущими стандартами. Установление жесткого порога в песке не очень хорошо сочетается с областью, которая развивается так быстро.

Как заядлый последователь технологий искусственного интеллекта, я должен признать, что неясно, сможем ли мы полностью предотвратить неправильное поведение систем искусственного интеллекта. Сложности больших языковых моделей (LLM), таких как модели OpenAI, Anthropic и Google, продолжают сбивать нас с толку. Эти модели часто взламываются хакерами, из-за чего даже самым продвинутым поставщикам сложно обеспечить безупречную работу. Следовательно, некоторые исследователи предлагают, чтобы регуляторы нацеливались на злоумышленников, а не на самих поставщиков моделей.

Как геймер, я бы сказал это так: «При работе с ИИ важно управлять тем, как мы его используем, а не самими моделями. Даже самые яркие умы в этой области могут посвятить бесконечные часы модели ИИ, но это все еще можно взломать».

Этот закон поднимает вопрос относительно модели ИИ с открытым исходным кодом Meta, Llama 3. Если стартап будет использовать Llama 3 для создания чего-то нового, кто будет нести ответственность за любые потенциальные проблемы с получившимся ИИ? Согласно законопроекту, Мета потенциально может нести ответственность, однако критики утверждают, что это несправедливое бремя.

Быстрый вопрос: действительно ли ИИ обеспечивает свободу слова?

Проще говоря, некоторые люди в области искусственного интеллекта считают ИИ с открытым исходным кодом похожим на свободу слова из-за убеждения, что код, создающий модель ИИ, является типом самовыражения, а результаты, генерируемые моделью, также выражения. Исторически код защищался Первой поправкой в ​​различных контекстах.

В статье Lawfare три профессора права выдвинули точку зрения, что модели искусственного интеллекта (ИИ) не соответствуют строго концепции свободы слова. Они основывают свои аргументы на нескольких причинах. Во-первых, они отмечают, что сложные структуры моделей ИИ не создаются людьми вручную, а разрабатываются посредством сложных процессов машинного обучения. Следовательно, людям сложно понять эти модели из-за их сложности.

Что касается создания передовых систем искусственного интеллекта, важно отметить, что они существенно отличаются от алгоритмов социальных сетей, когда дело доходит до выражения точек зрения. В отличие от алгоритмов социальных сетей, эти модели ИИ не придерживаются определенных точек зрения; вместо этого они генерируют множество утверждений. По мнению этих профессоров права, SB 1047 может не нарушать Первую поправку из-за этого фундаментального различия.

Ну и что дальше?

Законопроект быстро приближается к голосованию в августе, которое, если оно будет принято, передаст его на подпись губернатору Гэвину Ньюсому. Однако прежде чем достичь этого этапа, ему необходимо преодолеть некоторые серьезные препятствия. Даже если Ньюсому удастся это сделать, он все равно может решить не подписывать его из-за интенсивного лоббирования со стороны Кремниевой долины. Недавно ассоциация технологической отрасли направила Ньюсому письмо, призывая его наложить вето на SB 1047.

Являясь страстным сторонником развития искусственного интеллекта (ИИ), я считаю, что губернатор Ньюсом обладает полномочиями установить революционную веху для нашей страны с помощью SB 1047. В случае принятия этот законопроект может существенно изменить американскую среду искусственного интеллекта.

Смотрите также

2024-06-24 14:44