Apple подала иск на 1,2 миллиарда долларов из-за заброшенной системы обнаружения CSAM

Как человек, переживший жестокое обращение с детьми и давний пользователь Apple, я нахожусь в глубоком противоречии с этим недавним событием. С одной стороны, как защитник конфиденциальности, я понимаю и ценю обеспокоенность Apple по поводу потенциальных уязвимостей безопасности и скользкой дорожки государственного надзора. Однако, как человек, которому пришлось пережить ужасы эксплуатации детей, я не могу не чувствовать разочарования и гнева из-за того, что Apple, похоже, не желает или не может принять решительные меры для борьбы с этим отвратительным преступлением.

Против Apple был инициирован судебный иск с требованием компенсации в размере около 1,2 миллиарда долларов из-за решения компании прекратить инициативу по сканированию изображений iCloud на наличие контента с сексуальной эксплуатацией детей (CSAM), согласно отчету The New York Times.

В субботу в Северной Калифорнии я оказался в составе группы истцов, насчитывающей примерно 2680 человек, подающих иск. Суть нашей претензии связана с Apple: мы утверждаем, что их задержка с реализацией обещанных мер по обеспечению безопасности детей привела к постоянному распространению вредоносного контента, причиняя продолжающиеся страдания среди нас, жертв.

В 2021 году Apple объявила о намерении включить обнаружение материалов о сексуальном насилии над детьми (CSAM) в iCloud Photos, а также другие улучшения безопасности детей. Тем не менее, этот шаг вызвал резкую критику со стороны активистов в области конфиденциальности, экспертов по кибербезопасности и политических организаций, которые выразили обеспокоенность тем, что технология может невольно предоставить возможности для государственного мониторинга. В конечном итоге Apple решила отложить и в конечном итоге отказаться от этого проекта.

В тот момент Apple заявила, что сканирование личных данных всех пользователей iCloud создаст значительные риски для безопасности, поскольку злоумышленники могут злоупотребить этими слабостями. Более того, они выразили опасение по поводу создания проблемного прецедента: как только система сканирования контента будет создана для одной конкретной цели, может возникнуть необходимость расширить эту инфраструктуру наблюдения на различные типы контента и коммуникационных платформ, даже на те, которые используют шифрование.

В продолжающемся судебном деле основная заявительница, используя вымышленное имя, заявила, что правоохранительные органы до сих пор информируют ее о людях, арестованных за хранение оскорбительных изображений с ее участием, когда она была ребенком. В иске утверждается, что решение Apple не применять предложенные меры безопасности вынудило жертв бесконечно заново переживать свои испытания.

Что касается иска, представитель Apple Фред Сайнс подчеркнул, что Apple активно занимается борьбой с эксплуатацией детей. Он пояснил, что Apple усердно и активно работает над пресечением этих преступлений, обеспечивая при этом безопасность и конфиденциальность всех своих пользователей. Apple привела примеры, такие как функция «Безопасность общения», которая предупреждает детей о потенциально неприемлемом контенте, чтобы продемонстрировать свои постоянные усилия по защите детей.

Обратите внимание, что, поскольку тема этого разговора вращается вокруг политических или социальных вопросов, его можно найти в нашем разделе «Политические новости». Хотя каждый может просмотреть и принять участие в обсуждении, только пользователи, разместившие не менее 100 сообщений, могут вносить свой вклад путем публикации.

Смотрите также

2024-12-09 14:01