У OpenAI могут быть проблемы из-за галлюцинаций ChatGPT о людях

У OpenAI могут быть проблемы из-за галлюцинаций ChatGPT о людях

Как обеспокоенный поклонник прав на конфиденциальность и искусственного интеллекта, я нахожу ситуацию с OpenAI и ее моделью ChatGPT весьма тревожной. Тот факт, что OpenAI не может исправлять неверную информацию о физических лицах, как того требует GDPR, недопустим. Потенциальные последствия этого несоблюдения значительны, как с точки зрения регулятивных санкций, так и с точки зрения индивидуального вреда.


Европейский Союз еще раз изучает практику OpenAI, особенно в отношении ChatGPT, из-за его способности генерировать ложную информацию о людях.

Некоммерческая организация, занимающаяся защитой конфиденциальности, под названием noyb, в понедельник подала жалобу в Австрийское управление по защите данных (DPA), действуя от имени физического лица, на компанию, занимающуюся искусственным интеллектом, за неспособность исправить неточную информацию, предоставленную о людях ЧатGPT.

Как заядлый геймер, я сталкивался с изрядной долей воображаемых сценариев, мало похожих на реальность. Однако, когда дело доходит до беспокойства Нойба, мы имеем дело с чем-то гораздо более конкретным: Общим регламентом защиты данных Европейского Союза (GDPR). Эта правовая база устанавливает руководящие принципы сбора и защиты персональных данных физических лиц в ЕС.

Согласно заявлению Noyb, OpenAI признает, что не может исправлять неточную информацию в ChatGPT в соответствии с правилами GDPR. Более того, они не могут раскрыть происхождение данных или конкретные данные, которые ChatGPT хранит о отдельных лицах. Компания осознает это затруднительное положение, но, похоже, ее это не беспокоит.

Согласно GDPR, люди в ЕС имеют право требовать исправления неточной информации о себе. Неспособность OpenAI внести такие исправления ставит их в противоречие с этим постановлением, как указано в жалобе Noyb.

Как страстный защитник прав на неприкосновенность частной жизни, я твердо верю, что нельзя мириться с неточной информацией о людях, особенно когда речь идет о сборе данных о людях. Хотя незначительные галлюцинации во время выполнения домашних заданий могут быть терпимы, ситуация становится неприемлемой, когда речь идет о предоставлении неверной информации о чьих-либо личных данных.

Запрос, сделанный группой в Управление по защите данных (DPA), касается обработки данных OpenAI, в частности того, как она обрабатывает информацию и поддерживает точность личных данных при обучении своих моделей большого языка (LLM). Кроме того, организация, известная как noyb, обратилась к DPA с просьбой заставить OpenAI предоставить доступ к данным, запрошенным заявителем. Этот доступ является правом, предоставленным GDPR, которое обязывает компании раскрывать имеющиеся у них данные о физических лицах и их источниках.

OpenAI не сразу ответила на запрос о комментариях.

«Мартье де Грааф, юрист по защите данных в Noyb, заявила в своем заявлении, что каждая компания обязана выполнять запросы на доступ. Она добавила: «Для компаний важно вести учет данных обучения и знать об источниках их информация. Похоже, что некоторые предприятия считают, что их инновационные продукты освобождены от юридических обязательств». «

Несоблюдение правил GDPR влечет за собой риск наложения штрафов на сумму от 20 миллионов евро или 4% годового дохода компании по всему миру. Более того, отдельные лица также могут требовать возмещения дополнительного ущерба, что может привести к дальнейшим финансовым последствиям для таких организаций, как OpenAI, которая в настоящее время сталкивается с расследованиями о защите данных в Италии и Польше в рамках ЕС.

Эта статья первоначально появилась на сайте Quartz.

Смотрите также

2024-04-29 20:15