Apple проверит фото в айфонах и айпадах (пока только в США) в поисках материалов с детской порнографией. Эксперты обвинили компанию в отказе от приватности, «чтобы сделать возможным 1984 год» - Инфолаз
Apple проверит фото в айфонах и айпадах (пока только в США) в поисках материалов с детской порнографией. Эксперты обвинили компанию в отказе от приватности, «чтобы сделать возможным 1984 год»

Apple проверит фото в айфонах и айпадах (пока только в США) в поисках материалов с детской порнографией. Эксперты обвинили компанию в отказе от приватности, «чтобы сделать возможным 1984 год»

Apple проверит фото в айфонах и айпадах (пока только в США) в поисках материалов с детской порнографией. Эксперты обвинили компанию в отказе от приватности, «чтобы сделать возможным 1984 год»

Корпорация Apple планирует протестировать в США новую технологию для операционных систем iOS и iPadOS, позволяющую обнаружить в iCloud изображения с сексуальным насилием над детьми и ограничить распространение таких материалов. Об этом сообщается на сайте Apple.

В компании подчеркнули, что технология разработана с учетом конфиденциальности пользователей, поэтому фотографии в iCloud не будут сканировать, а станут сопоставлять хэш-суммы (цифровые отпечатки) изображений с базой данных известных изображений сексуального насилия над детьми. Соответствующую базу компании предоставили национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC) и другие организации, занятые в сфере безопасности детей.

В Apple отметили, что компания не сможет интерпретировать эти данные, пока учетная запись не пересечет пороговое значение по количеству изображений с насилием над детьми. По словам представителей Apple, в этом случае ошибка возможна в одном случае из триллиона.

Затем Apple вручную проверит каждый отчет, чтобы подтвердить совпадение, отключит учетную запись пользователя и передаст полученные данные в NCMEC. Пользователи смогут оспорить решение, если посчитает, что его аккаунт отметили по ошибке.

Эта новая инновационная технология позволяет Apple предоставлять ценную и оперативную информацию NCMEC и правоохранительным органам о распространении известных материалов с сексуальным насилием над детьми.

5 августа газета Financial Times сообщила, ссылаясь на источники, что Apple планирует установить на айфоны американских пользователей программное обеспечение neuralMatch, позволяющее сканировать изображения для поиска материалов с насилием над детьми.

В этот же день доцент Института информационной безопасности Джонса Хопкинса, эксперт по безопасности Мэтью Грин рассказал в твиттере о новой разработке Apple, назвав ее «действительно плохой идеей». «Подобный инструмент может стать благом для поиска детской порнографии в телефонах людей. Но представьте, что он может сделать в руках авторитарного правительства?» — заявил Мэтью Грин.

«Это абсолютно ужасная идея, потому что она приведет к децентрализованной массовой слежке за нашими телефонами и ноутбуками», — считает Росс Андерсон, профессор техники обеспечения безопасности в Кембриджском университете. «Apple отступает от приватности, чтобы сделать возможным », — заявил аналитик в области информационной безопасности Алек Маффетт, который ранее работал в Facebook и Deliveroo.

Financial Times подчеркивает, что новая инициатива компании — это «попытка Apple найти компромисс между собственным обещанием защищать частную жизнь клиентов и постоянными требованиями правительств, правоохранительных органов и организаций, выступающих за безопасность детей, больше помогать в расследовании уголовных дел, в том числе связанных с терроризмом и детской порнографией».

Слушайте музыку, помогайте «Медузе»

error: Content is protected !!