Вчeрa Apple oфициaльнo прeдстaвилa нoвыe функции бeзoпaснoсти дeтeй, oдним с кoтoрыx стaл aлгoритм поиска детской порнографии бери всех iPhone, подключенных к облачному сервису iCloud. Га задумке, инструмент хватит непрерывно сканировать снимки в галерее смартфонов и параллелизировать их с некой базой данных. В случае обнаружения незаконных изображений Apple пометит пользователя подозрительным, расшифрует его причина iCloud и, при подтверждении комиссией, сообщит правоохранительным органам.
Сие незамедлительно стало причиной опасений пользователей насчет приватности которую круглым счетом рьяно компания продвигала и рекламировала получай протяжении многих парение. И хотя сама объединение себе инициатива является тотально здравой, то, якобы Apple намерена её выполнить вызывает беспокойство у многих ведущих специалистов согласно кибербезопаности, считающих её опасным прецедентом посягательства нате конфиденциальность пользовательских данных. Хоть несмотря на всё-таки заявленные степени безопасности и шифрования, подобная сингония открывает компании грубый путь по изучению содержимого сильнее чем миллиарда iPhone, которое потенциально может выявиться в руках злоумышленников, конкурентов возможно ли государственных структур.
Любое это противоречит тем принципам, держи которые упирала Apple, в 2015-2016 годах отказавшись развязать кому руки во взломе iPhone стебель-террориста. Правозащитная создание Electronic Frontier Foundation окрестила данную технологию опасным бэкдором (чёрным ходом), открывающим путешествие к дальнейшим нарушениям пользовательских свобод. Укоренение новых алгоритмов по мнению защите детей произойдёт в iOS 15 и iPadOS 15 этой по осени.