Apple проверит фото в айфонах и айпадах на детскую порнографию

Эксперты обвиняют компанию в попытке возвратятся в 1984 год.

Компания Apple сказала о том, что  протестирует в США новую функцию ОС iOS и iPadOS, которая сможет распознать в iCloud фото с сексапильным насилием над детками, также ограничит их распространение.

Как сообщается на веб-сайте компании, создатели Apple учли конфиденциальность своих юзеров, поэтому изображения не будут сканироваться.

Разработка позволит делать цифровые отпечатки картинок которые будут сопоставляться с базой данной подобных изображений, которую предоставили компании ряд организаций, включая государственный центр по делам пропавших без вести и эксплуатируемых малышей(NCMEC).

Согласно публикации, интерпретация этих данных также будет невозможна. Предел числа таких фото для учетной записи установлен довольно высоко, таковым образом возможна одна ошибка  на трлн изображений.

Отчеты технологии будут проверяться вручную для доказательства совпадения и только после чего отключит учетную запись юзера, а сведения о нем отправит в NCMEC.

У клиентов есть шанс оспорить решение по блокировке аккаунта.

Целью компания называет подачу оперативной и полезной инфы правоохранителям и общественникам о распространении детской порнухи.

Ранее Financial Times уточнила, что функция – новое ПО – носит название  neuralMatch, и оно сможет сканировать фото с детским порно.

Эксперт  Института Джонса Хопкинса Мэтью Грин именовал ее «плохой идеей», ведь таковой инструмент в руках авторитарного правительства сможет стать инвентарем слежки.

Издание полагает, что таковым образом компания желала отыскать компромисс между защитой личной жизни клиентов и требованиями страны и помощью в расследовании  подобных уголовных дел, в том числе касающихся и интернационального терроризма.

Ранее Topnews сообщал, что Apple покажет новейшие версии iOS 15 и iPadOS 15.


Опрос
БЫСТРО ЛИ ГРУЗИТСЯ САЙТ?