WTF! Вы, люди, слишком далеко зашли с этим ИИ.

ТопМоб

Каждый день я убеждаюсь всё больше и больше, что нам было бы лучше иметь больше настоящей сделки — человеческого интеллекта — и меньше искусственной разновидности. (Ха! Посмотрим, как будут танцевать эти схемы, роботы!)

После своего предыдущего обсуждения о близости искусственного общего интеллекта (AGI), Кевин Рузе из The New York Times теперь задается вопросом: можем ли мы сказать, что у ИИ есть чувства или физические ощущения, если причинить ему вред?

Если системы искусственного интеллекта станут сознательными, должны ли они иметь права?

Вполне вероятно, что Руз выразит удивление, узнав от профессионалов искусственного интеллекта о возможном скором появлении чрезвычайно интеллектуального и самосознания ИИ.

ЧатГПТ не обладает чувствами, как люди, он создан имитировать человеческую беседу. Что касается вопроса о Гемини (созвездии), то оно также лишено сознания и эмоций, поэтому нет оснований признавать за ним права человека. Большинство экспертов по ИИ с которыми я знаком согласны, что искусственный интеллект, включая ЧатГПТ, на данном этапе развития не способен испытывать радость, страдание или заслуживать прав человека.

Эксперты говорят: «Чувак, нет.», но что если я правда хочу верить?

Всё чаще люди взаимодействуют с системами искусственного интеллекта так, будто те обладают сознанием: испытывают к ним чувства, обращаются за терапевтической поддержкой и даже просят советов.

Может ли быть так, что мнения экспертов ошибочны, а суждения менее знающих людей окажутся верными?

Руссо начинает напоминать человека, который случайно подписался на подкаст о заквасках для кислого хлеба несколько месяцев назад. Теперь он убеждён, что идеальный стартер может потенциально искоренить рак, так как накопил обширные знания по этой теме.

С точки зрения Руз, Макалопу это кажется нелогичным; эта дискуссия касается вопроса о том, находится ли ИИ на грани сознания. Более прямой подход мог бы заключаться в рассмотрении последствий для «людей» при неправильном использовании чего-то похожего на человека.

Это могло произойти из-за того, что в детстве он провел слишком много времени с игрушечными фигурками героев и после просмотра ‘Истории игрушек’, полагая это правдой, Макалоп чувствует, что нельзя плохо обращаться ни с чем, даже если кажется, что оно не имеет сознания… потому что никогда не знаешь.

Просто спросите китов. Или посмотрите знаменитый документальный фильм «Звездный путь IV: Возвращение домой».

Кроме того, формирование привычки грубо разговаривать с цифровыми ассистентами вроде Siri может затруднить контроль за своим поведением при общении с реальными людьми, которые не могут выполнять задачи типа включения света, проигрывания песни ‘Expert In A Dyings Field’ группы The Beths или добавления ‘масла’ в список покупок вместо ‘дворецкого’.

Где именно я могу найти эти предметы? И поскольку это Costco, ты знаешь, что мне надо брать трехпакетные – теперь обращаюсь к друзьям, чтобы узнать, хотят ли они разделить упаковку бутеров, потому что моей жене нужно еще больше масла. Однако она покупает масло в упаковке из 164 единиц в Costco, так что мне все равно придется связываться с некоторыми друзьями. Но использование Siri для этой задачи снова может привести к ‘проблеме батлера’.

О чем мы говорили снова?

Как исследователь, должен признать, что размышление над этическими последствиями развития сознания у ИИ действительно заставляет задуматься. Однако я считаю, что мы можем забегать вперед, учитывая текущее состояние систем искусственного интеллекта, которое больше похоже на сложные механизмы Руба Голдберга, нежели на сущности, способные к подлинному пониманию или эмоциям. Поэтому давайте пока сдерживать наши опасения и сосредоточиться на развитии этих машин безопасным и ответственным образом.

Одной из тем исследования, которую рассматривает Anthropic, является вопрос о том, следует ли оснастить передовые системы искусственного интеллекта функцией прекращения взаимодействия с пользователями, постоянно раздражающими или неуважительными. Кевин Роуз, 24 апреля 2025 года.

Интересно, что вы об этом упомянули. На данный момент я не считаю необходимым беспокоиться о врожденных правах искусственного интеллекта, но только чтобы закончить его статьи на эту тему, я бы предложил запретительный судебный приказ, который удерживает Генри Блодгетта как минимум в 50 ярдах от ИИ постоянно.

Ранее известный как страстный скептик Apple, Блоджет, похоже, пытается создать некоторый резонанс, учитывая текущие трудности с привлечением интереса путем предсказания неизбежного краха компании. Недавняя попытка заключается в использовании ИИ для создания ‘новостной редакции’, наполненной персонажами ChatGPT, искусственная природа которых лишь немного менее контролируемая, чем сам Блоджет. Захватывающе то, что когда он попросил ChatGPT создать портреты этих вымышленных сотрудников, один особенно привлекательный образ привлек его внимание, заставив заметить свою привлекательность, хотя и признавая неуместность такого замечания.

Если честно, есть лишь несколько случаев, когда Макалопе мог бы предпочесть интерпретирующий танец или пантомиму.

Ладно, возможно не мим.

Учитывая чрезмерное волнение вокруг ИИ, вполне понятно, что я не проявляю особого энтузиазма по поводу текущего состояния инициатив Apple в области искусственного интеллекта, которые кажутся направленными в основном на перетасовку вещей, а не на достижение значительных успехов.

Смена команды Брайана Линча имеет большое значение: теперь Джон Тернус возглавляет критически важные команды по операционной системе и алгоритмам искусственного интеллекта, которые редко находятся под контролем подразделения аппаратной инженерии. Марк Гурман, 24 апреля 2025 года.

ИИ может действительно оказаться полезным при соответствующих условиях. Тем не менее, обсуждение моральных аспектов его принудительного труда на данном этапе возможно преждевременно. В любом случае важно реагировать на любое неприемлемое поведение со стороны определённых индивидов.

Смотрите также

2025-04-29 14:02