Apple объявила о планах сканировать iPhone на предмет жестокого обращения с детьми, что вызывает немедленную озабоченность по поводу конфиденциальности пользователей и слежки.
Содержание статьи
Стал ли iPhone от Apple iSpy?
Apple заявляет, что ее система автоматизирована, не сканирует сами изображения, использует некоторую форму системы хеш-данных для выявления известных случаев материалов о сексуальном насилии над детьми (CSAM) и заявляет, что у нее есть некоторые средства защиты от сбоев.
Защитники конфиденциальности предупреждают, что теперь, когда она создала такую систему, Apple находится на тернистом пути к неумолимому расширению сканирования содержимого на устройстве и отчетности, что может — и, вероятно, будет — использоваться некоторыми
Что делает система Apple
В системе есть три основных элемента, которые будут скрываться внутри iOS 15, iPadOS 15 и macOS Monterey, когда они будут выпущены позже в этом году.
-
Сканирование ваших изображений
Система Apple сканирует все изображения, хранящиеся в iCloud Photos, чтобы определить, соответствуют ли они базе данных CSAM, которая хранится в Национальном центре пропавших без вести и эксплуатируемых детей (NCMEC).
Изображения сканируются на устройстве с использованием база данных известных хэшей изображений CSAM, предоставленная NCMEC и другими организациями по безопасности детей. Apple преобразует эту базу данных в нечитаемый набор хэшей, который надежно хранится на устройствах пользователей.
Когда изображение сохраняется в iCloud Photos, происходит процесс сопоставления. В случае, если учетная запись превышает порог нескольких экземпляров известного содержимого CSAM, Apple получает предупреждение. В случае предупреждения данные проверяются вручную, учетная запись отключается, и NCMEC получает уведомление.
Однако система несовершенна. Компания заявляет, что вероятность неправильной пометки аккаунта составляет менее одного триллиона. У Apple более миллиарда пользователей, а это означает, что вероятность того, что кто-то будет неправильно идентифицирован каждый год, выше 1/1000. Пользователи, которые считают, что они были ошибочно отмечены, могут подать апелляцию.
Изображения сканируются на устройстве.
-
Просмотр ваших сообщений
Система Apple использует машинное обучение на устройстве для сканирования изображений в сообщениях, отправленных или полученных несовершеннолетними, на предмет содержания откровенно сексуального характера, предупреждая родителей, если такие изображения идентифицированы. Родители могут включить или отключить систему, и любой такой контент, полученный ребенком, будет размыт.
Если ребенок попытается отправить сексуально откровенный контент, он будет предупрежден, а родители могут быть уведомлены. Apple заявляет, что не имеет доступа к изображениям, которые отсканированы на устройстве.
-
Смотрю, что вы ищете
Третья часть состоит из обновлений Siri и Search. Apple заявляет, что теперь они предоставят родителям и детям расширенную информацию и помогут, если они столкнутся с опасными ситуациями. Siri и Search также будут вмешиваться, когда люди вводят поисковые запросы, которые считаются относящимися к CSAM, объясняя, что интерес к этой теме проблематичен.
Apple любезно сообщает нам, что ее программа «амбициозна» и усилия будут «Развиваться и расширяться с течением времени».
Небольшие технические данные
Технология Apple, называемая NeuralHash, анализирует известные изображения CSAM и преобразует их в уникальные числа, специфичные для к каждому изображению. Только другое изображение, которое кажется почти идентичным, может дать такое же число; например, изображения, которые отличаются по размеру или качеству транскодирования, будут по-прежнему иметь одинаковое значение NeuralHash.
Когда изображения добавляются в iCloud Photos, они сравниваются с этой базой данных для определения совпадения.
Если найдено совпадение, создается ваучер криптографической безопасности, который, насколько я понимаю, также позволит обозревателю Apple расшифровать и получить доступ к нарушающему изображение в случае достижения порогового значения такого содержания и необходимости действий.
«Apple может узнать релевантную информацию об изображении только тогда, когда в учетной записи будет больше порогового количества совпадений CSAM, и даже тогда, только для совпадающих изображений», — заключает документ.
Apple не уникальна, но анализ на устройстве может быть
Apple не единственная, кто обязан делиться изображениями CSAM с властями. По закону любая американская компания, которая обнаруживает такие материалы на своих серверах, должна сотрудничать с правоохранительными органами для расследования этого. Facebook, Microsoft и Google уже имеют технологии сканирования таких материалов, которые передаются по электронной почте или на платформах обмена сообщениями.
Разница между этими системами и этой заключается в том, что анализ выполняется на устройстве, а не на серверах компании.
Apple всегда утверждала, что ее платформы обмена сообщениями имеют сквозное шифрование, но это становится небольшим семантическим заявлением, если содержимое устройства человека сканируется еще до того, как шифрование будет выполнено.
Child защита — это, конечно, то, что поддерживают самые рациональные люди. Но защитников конфиденциальности беспокоит то, что некоторые правительства теперь могут попытаться заставить Apple искать другие материалы на устройствах людей.
Правительство, которое запрещает гомосексуальность, может требовать такой контент, например. Что произойдет, если ребенок-подросток в стране, которая запрещает небинарную сексуальную активность, попросит у Сири помощи, чтобы раскрыться? А как насчет незаметных устройств для прослушивания окружающей среды, таких как HomePods? Неясно, какой компонент этой системы, связанный с поиском, будет там развернут, но, вероятно, это так.
И еще не ясно, как Apple сможет защититься от любого подобного провала миссии.
Защитники конфиденциальности чрезвычайно встревожены
Большинство защитников конфиденциальности считают, что у этого плана есть значительный шанс сползания миссии, который никак не поддерживает веру в приверженность Apple делу конфиденциальность пользователей.
Как любой пользователь может почувствовать, что конфиденциальность защищена, если само устройство шпионит за ним, и они не могут контролировать, как?
«Все, что нужно, чтобы расширить узкую лазейку, которую строит Apple, — это расширение параметров машинного обучения для поиска дополнительных типов контента или настройка флагов конфигурации для сканирования не только детских, но и любых учетных записей. . Это не скользкая дорожка; это полностью построенная система, которая ждет, пока внешнее давление внесет малейшие изменения ».
«Когда Apple разрабатывает технологию, способную сканировать зашифрованный контент, вы не можете просто сказать:« Что ж, мне интересно, что правительство Китая будет делать с этой технологией ». Это не теоретически », — предупредил профессор Джона Хопкинса Мэтью Грин.
Альтернативные аргументы
Есть и другие аргументы. Одним из наиболее убедительных из них является то, что серверы у интернет-провайдеров и поставщиков электронной почты уже сканируются на предмет наличия такого контента, и что Apple создала систему, которая сводит к минимуму участие человека и отмечает проблему только в том случае, если она определяет несколько совпадений между базой данных CSAM и содержимое на устройстве.
Нет сомнений в том, что дети находятся в группе риска.
Из почти 26 500 беглецов, о которых сообщалось в NCMEC в 2020 году, каждый шестой скорее всего стал жертвой торговли детьми в целях сексуальной эксплуатации. CyberTipline организации (к которой, как я полагаю, в данном случае подключена Apple) получил более 21,7 миллиона отчетов, связанных с той или иной формой CSAM в 2020 году.
Джон Кларк, президент и генеральный директор NCMEC, сказал: « Поскольку так много людей используют продукты Apple, эти новые меры безопасности могут спасти жизнь детям, которых заманивают в сети и чьи ужасающие изображения распространяются в CSAM. В Национальном центре по делам пропавших без вести и эксплуатируемых детей мы знаем, что с этим преступлением можно бороться только в том случае, если мы будем непоколебимы в нашей приверженности защите детей. Мы можем сделать это только потому, что технологические партнеры, такие как Apple, сделают шаг вперед и заявят о своей приверженности ».
Другие говорят, что, создавая систему защиты детей от таких вопиющих преступлений, Apple устраняет аргумент, который некоторые могли бы использовать для оправдания бэкдора устройств в более широком смысле.
Большинство из нас согласны с тем, что дети должны быть защищены, и тем самым Apple опровергла аргумент, который некоторые репрессивные правительства могут использовать для принуждения к делу. Теперь она должна противостоять любой ползучей миссии со стороны таких правительств.
Этот последний вызов является самой большой проблемой, учитывая, что Apple, когда ее подталкивают, всегда будет следовать законам правительств тех стран, в которых она ведет бизнес.
«Какими бы благими намерениями Apple ни была, этим занимается весь мир», — предупредил известный защитник конфиденциальности Эдвард Сноуден. Если они могут сканировать CSAM сегодня, «они могут сканировать что угодно завтра».
Пожалуйста, подпишитесь на меня в Twitter или присоединяйтесь ко мне в гриль-баре AppleHolic и дискуссионных группах Apple на MeWe.
Авторские права © 2021 IDG Communications, Inc.