Презентация Apple своих новых функций безопасности детей — наиболее спорно сканирование сохраненных фотографий для изображений жестокого обращения с детьми — было неуклюже, чтобы сказать, что по крайней мере, и ответ явно неоднозначный. Однако в последние дни Apple попыталась лучше объяснить свое решение американским СМИ.
В рамках этого обаятельного наступления Крейг Федериги дал длинное интервью Wall Street Journal, встроенное в видео ниже в этой статье. Интервью было посвящено двум новым функциям: функции сканирования фотографий iCloud и новой функции защиты детей для iMessage.
Федериги признает, «задним числом», что одновременное введение обеих функций «было рецептом для такого рода путаницы», и пытается как прояснить некоторые заблуждения относительно планов Apple, так и защитить политику от более широко распространенных критика.
Содержание статьи
Что и где сканирует Apple?
В интервью Федериги категорически отвергает общее заявление о том, что «Apple сканирует мой телефон в поисках изображений». По словам вице-президента по программному обеспечению, обнаружение незаконных файлов изображений ограничивается специально фотографиями, которые загружаются в iCloud, даже если, как мы объясним, часть сканирования технически происходит на устройстве.
Такая проверка давно стала обычной практикой для всех других служб облачного хранения, отмечает Федериги. Более того, эти конкурирующие службы обычно сканировали фотографии своих пользователей, чего Apple хотела избежать, чтобы защитить их конфиденциальность.
«Мы чувствовали, что это очень важно, — говорит Федериги, — прежде чем мы сможем предложить такого рода возможности, чтобы делать это намного, намного более конфиденциально, чем все, что делалось в этой области раньше».
Только при использовании библиотеки фотографий iCloud, которая является необязательной, изображения будут проверяться при их загрузке на серверы Apple.
Когда изображение загружается, создается так называемый NeuralHash изображения, своего рода отпечаток пальца. Это сравнивается с базой данных известных незаконных изображений, поддерживаемой организацией NCMEC. Поскольку в качестве эталона для проверок используются только известные изображения жестокого обращения с детьми, фотография вашего собственного ребенка в ванной не будет отмечена, как и порнографические материалы в целом.
Если изображение совпадает с изображением, указанным в базе данных, автоматически создается так называемый «ваучер безопасности», который добавляется к изображению. Apple получит уведомление об учетной записи только в случае превышения порогового количества ваучеров безопасности — по словам Федериги, впервые назвавшего номер, около 30. И даже в этом случае Apple может получить доступ только к помеченным файлам изображений, но не к другим.
Согласно Федериги, алгоритм выполняет часть анализа на устройстве, а затем вторая часть анализа выполняется на сервере. Однако, как справедливо отмечает Джоанна Стерн, именно та часть анализа, которая проводится на устройстве, многих раздражает. Это создает впечатление, что «Apple может делать что-то на вашем устройстве», — объясняет она.
Однако, по мнению Федериги, это недоразумение. По его словам, аудит проводится только во время загрузки в облако. Это не процесс, который выполняется для всех файлов изображений, таких как фотографии в iMessage или Telegram.
Федериги также категорически отрицает, что это бэкдор. По его словам, это не тот случай, когда данные на сервере проверяются без ограничений. Для всех iPhone существует только одна база данных, которая используется в США, Европе и Китае.
Нет необходимости даже доверять Apple, говорит Федериги, потому что процесс проверяется несколькими органами. Он утверждает, что Apple намеренно разработала систему таким образом, чтобы ни один иностранный орган не мог принудительно вносить изменения (например, для поиска других данных).
Нагота в сообщениях
Вторая новая функция, о которой Apple объявила в то же время, также относится к безопасности детей, но это не то же самое, что функция сканирования фотографий, и, возможно, создала дополнительную путаницу.
Новая функция влияет на сообщения и предназначена для отслеживания и фильтрации изображений, получаемых детьми. Если родительская функция включена, и ребенок получает фотографию обнаженного тела, изображение будет скрыто, а ребенок получит предупреждение. Родители также могут быть проинформированы.
Это сделано для защиты детей от контакта с сексуальными хищниками и полностью находится под контролем родителей. Интеллектуальная система распознавания изображений на iPhone способна распознавать наготу.
Кому на самом деле принадлежит iPhone?
Однако, наконец, Стерн снова поднимает вопрос о том, действительно ли кто-то все еще владеет своим iPhone.
По словам Федериги, это все еще так: телефон по-прежнему принадлежит владельцу. Проверка выполняется только для фотографий, хранящихся в облаке. Таким образом, система использует наилучшую возможную защиту конфиденциальности.
Apple явно приложила усилия для достижения баланса между конфиденциальностью и защитой детей. Однако компания не должна удивляться критике со стороны защитников конфиденциальности.
Похоже, что перед объявлением слишком мало внимания было уделено впечатлению, которое эта сложная процедура произведет на покупателя. Покупатель, вероятно, задаст простой вопрос: «Сканирует ли Apple мои фотографии или нет?» И, несмотря на сложные процессы проверки и ваучеры, в конце концов ответ — да, Apple делает.
Эта статья изначально была опубликована на Macwelt. Перевод Дэвида Прайса.