Apple отложила запуск системы поиска материалов с детской порнографией в телефонах - Инфолаз
Apple отложила запуск системы поиска материалов с детской порнографией в телефонах

Apple отложила запуск системы поиска материалов с детской порнографией в телефонах

Apple отложила запуск системы поиска материалов с детской порнографией в телефонах

Корпорация Apple решила отложить запуск системы поиска в телефонах изображений с сексуальным насилием над детьми, которую планировалось протестировать в США. Планы запустить такие проверки вызвали критику со стороны экспертов по безопасности и правозащитников, указывавших, что Apple может создать опасный прецедент.

Корпорация заявила, что прислушалась к их мнению. «Основываясь на отзывах клиентов, групп по защите прав потребителей, экспертов и других, мы решили в ближайшие месяцы провести дополнительный сбор и анализ данных и внести улучшение перед тем, как запустить эти критически важные функции для обеспечения безопасности детей», — говорится в заявлении Apple.

О технологии поиска снимков с сексуальным насилием над детьми Apple объявила в начале августа. Предполагается, что она позволит обнаруживать противозаконный контент в iCloud.

В корпорации уверяли, что фотографии, загруженные пользователями в iCloud, не будут сканировать, а станут сопоставлять цифровые отпечатки изображений с базой данных известных изображений сексуального насилия над детьми, предоставленной Национальным центром по делам пропавших без вести и эксплуатируемых детей (NCMEC).

Если количество подозрительных фотографий будет превышать некое пороговое значение, то отчет по данному пользователю в Apple собирались проверять вручную, после чего блокировать аккаунт и передавать информацию в NCMEC. У пользователей, подчеркивали в Apple, будет возможность оспорить блокировку.

Мы не сдаемся Потому что вы с нами

error: Content is protected !!