ChatGPT отвечает на вопросы по программированию неправильно в 52% случаев: исследование

ChatGPT отвечает на вопросы по программированию неправильно в 52% случаев: исследование

Как заинтересованный энтузиаст технологий и пользователь чат-ботов с искусственным интеллектом, я нахожу недавнее исследование точности ChatGPT в ответах на вопросы компьютерного программирования весьма тревожным. Уровень ошибок в 52% не только вызывает тревогу, но и вызывает обеспокоенность по поводу потенциальных рисков, связанных с использованием неверной информации из этих инструментов.


Недавние результаты новаторского исследования показывают, что ChatGPT от OpenAI, популярный чат-бот с искусственным интеллектом, который рекламируется как способ изменить правила игры и повысить эффективность работы и даже потенциально заменить человеческий труд в будущем, имеет уровень ошибок 52% при ответе на запросы компьютерного программирования.

На конференции по взаимодействию компьютера и человека, состоявшейся на Гавайях в начале этого месяца, исследователи из Университета Пердью поделились выводами, о которых первоначально сообщило издание Futurism. Они проанализировали в общей сложности 517 программных запросов, опубликованных на Stack Overflow, и использовали ChatGPT в качестве подопытного для обработки этих вопросов.

Результаты нашего расследования показывают, что более половины ответов ChatGPT (приблизительно 52%) содержат неточную информацию, а значительные 77% являются многословными. Тем не менее, несмотря на эти недостатки, пользователи в нашем опросе примерно в 35% случаев предпочли ответы ChatGPT из-за их широкого охвата и красноречивого выражения.

Было тревожно обнаружить, что программисты, участвовавшие в исследовании, не всегда выявляли ошибки, создаваемые чат-ботом с искусственным интеллектом.

Будучи преданным поклонником технологий и их применений, я недавно наткнулся на интригующее исследование, которое выявило тревожную ошибку. Согласно этому исследованию, примерно в 39% случаев ответы ChatGPT содержали дезинформацию. Я считаю, что это то, что мы не можем игнорировать. Мы должны активно бороться с дезинформацией в ответах ChatGPT, особенно когда речь идет о программировании запросов. Повышение осведомленности о потенциальных рисках, связанных с принятием, казалось бы, правильных ответов, имеет важное значение для поддержания точности и надежности в нашем мире, ориентированном на технологии.

Как заядлый геймер, я заметил некоторые интригующие результаты недавнего исследования чат-ботов с искусственным интеллектом, к которым вы можете получить доступ в Интернете. Это вызывает опасения, с которыми могут столкнуться как многие геймеры, так и пользователи технологий. Такие технологические гиганты, как Meta, Microsoft и Google, вкладывают значительные средства в искусственный интеллект, чтобы создать лучших чат-ботов, стремящихся произвести революцию в нашем Интернете. Однако есть несколько проблем, которые им необходимо преодолеть, прежде чем доминировать в этой многообещающей новой области.

Как страстный геймер и заядлый пользователь поисковых систем, я столкнулся с изрядной долей разочарований в поисковых системах на базе искусственного интеллекта. Одна из основных проблем, которая меня часто раздражает, — это ненадежность ИИ, когда дело доходит до обработки действительно уникальных запросов. Например, поиск Google с его расширенными возможностями искусственного интеллекта иногда предоставляет неточную или вводящую в заблуждение информацию. Это почти как если бы мне представили мусорные данные из сомнительных источников. И хотите верьте, хотите нет, но на этой неделе такое случалось со мной не раз – я даже наткнулся на сатирические статьи из The Onion, которые воспринимались как легитимная информация!

Со своей стороны, Google защищает себя, утверждая, что неправильные ответы являются аномалией.

«С моей игровой точки зрения, приведенные примеры довольно редки и не отражают опыт большинства людей. Однако большинство обзоров ИИ предоставляют точную и ценную информацию со ссылками для дальнейшего изучения в Интернете».

Трудно поверить, что такая защита, которая отвергает «необычные вопросы», приводящие к неправильным ответам, как незначительные, выдерживает критику. Ожидается ли, что при использовании этих чат-ботов мы ограничим наши вопросы самыми банальными? Разве цель этих инструментов не быть новаторскими и инновационными?

В пятницу OpenAI отказалась оперативно комментировать недавнее исследование ответов ChatGPT. Мы будем держать вас в курсе, если получим какие-либо обновления.

Смотрите также

2024-05-24 20:15