Вы, наверное, видели в Интернете дипфейковые видеоролики, в которых факсимиле известных людей внедряются в странные или забавные ситуации — например, фальшивый Том Круз, занимающийся «промышленной очисткой», или в поистине мета-усилии искусственный Морган Фримен, рекламирующий «эпоху синтетической реальности».
Теперь представьте, что вам звонит кто-то, кто говорит точно так же, как ваш ребенок, и умоляет о экстренной помощи. Та же технология, но никто не смеется.
Эксперты по кибербезопасности говорят, что технология дипфейков продвинулась до такой степени, что ее можно использовать в режиме реального времени, что позволяет мошенникам воспроизводить чей-то голос, изображение и движения во время разговора или виртуальной встречи. По их словам, эта технология также широко доступна и относительно проста в использовании. И все время становится лучше.
«Благодаря инструментам искусственного интеллекта, которые создают «синтетические носители» или иным образом генерируют контент, растущий процент того, на что мы смотрим, не является подлинным, и становится все труднее заметить разницу», — предупредила Федеральная торговая комиссия.
Исследователи говорят, что технология дипфейков в реальном времени существует уже большую часть десятилетия. Что нового, так это ряд инструментов, доступных для их создания.
«Мы знаем, что наше общество не готово» к этой угрозе, — сказал Эндрю Гарднер, вице-президент по исследованиям, инновациям и искусственному интеллекту в Gen. мошенничество, и вам нужна немедленная помощь, чтобы проверить это.
Глубокие подделки в реальном времени использовались, чтобы запугать бабушек и дедушек и заставить их отправлять деньги симулированным родственникам, получать работу в технологических компаниях в попытке получить инсайдерскую информацию, влиять на избирателей и выкачивать деньги из одиноких мужчин и женщин. Мошенники могут скопировать запись чьего-то голоса, размещенную в Интернете, а затем использовать захваченный звук, чтобы выдать себя за любимого человека жертвы; одного 23-летнего мужчину обвиняют в том, что он выманил у бабушки и дедушки в Ньюфаундленде 200 000 долларов всего за три дня с помощью этой техники.
Появляются инструменты для отсеивания дипфейков последнего поколения, но они не всегда эффективны и могут быть недоступны для вас. Именно поэтому специалисты советуют предпринять несколько простых шагов, чтобы обезопасить себя и своих близких от мошенников нового типа.
Термин дипфейк — это сокращение от симуляции, основанной на технологии глубокого обучения — искусственного интеллекта, который поглощает океаны данных, чтобы попытаться воспроизвести что-то человеческое, например, беседу (например, ChatGPT) или создание иллюстрации (например, Dall-E). Гарднер сказал, что разработка этих инструментов по-прежнему требует больших затрат и времени, но их использование сравнительно быстро и просто.
Исроэль Мирски, исследователь искусственного интеллекта и эксперт по дипфейкам из Университета Бен-Гуриона в Негеве, сказал, что технология продвинулась до такой степени, что стало возможным сделать дипфейк-видео из одной фотографии человека и «приличного» клона фотографии. голос только из трех или четырех секунд аудио. Но Гарднер сказал, что широко доступные инструменты для создания дипфейков отстают от современного уровня техники; для них требуется около пяти минут аудио и один-два часа видео.
Тем не менее, благодаря таким сайтам, как Facebook, Instagram и YouTube, мошенники могут найти множество изображений и аудио.
Мирски сказал, что легко представить, как злоумышленник просматривает Facebook, чтобы идентифицировать детей потенциальной жертвы, звонит сыну, чтобы записать достаточно звука, чтобы клонировать его голос, а затем использует дипфейк сына, чтобы выпрашивать у жертвы деньги, чтобы выбраться из передряги. какой-то.
По его словам, технология становится настолько эффективной, что вы можете клонировать лицо или голос с помощью обычного игрового компьютера. И программное обеспечение «наводит и щелкает», сказал он, легко доступно в Интернете и настраивается с помощью некоторого базового программирования.
Чтобы проиллюстрировать, насколько эффективными могут быть дипфейки в режиме реального времени, правительственная группа LexisNexis Risk Solutions поделилась видео, которое Дэвид Маймон, профессор криминологии в Университете штата Джорджия, выхватил из темной паутины очевидной аферы с ловлей рыбы. На нем был показан онлайн-чат между пожилым мужчиной и молодой женщиной, которая просила кредит, чтобы она могла встретиться с мужчиной в Канаде. Но в третьем окне можно было увидеть, как мужчина на самом деле произносил слова, исходившие из уст женщины, женским голосом — она была дипфейком, а он мошенником.
Этот метод известен как реконструкция, заявили Мирски и Венке Ли из Технологического института Джорджии в статье, опубликованной в 2020 году. Его также можно использовать для «совершения клеветнических действий, создания дискредитации, распространения дезинформации и подделки доказательств», — написали они. . Другой подход — замена, когда лицо или тело жертвы помещается на кого-то другого, как в порно-видео мести.
Но как именно мошенники используют эти инструменты, остается загадкой, сказал Гарднер. Это потому, что мы знаем только то, за чем их поймали.
Хейвуд Талков, исполнительный директор правительственной группы LexisNexis Risk Solutions, сказал, что новая технология может обойти некоторые методы безопасности, которые компании используют вместо паролей. Например, он указал на двухэтапный процесс онлайн-идентификации в Калифорнии, при котором пользователи загружают две вещи: изображение своих водительских прав или удостоверения личности, а затем только что сделанное селфи. Мошенники могут купить поддельное калифорнийское удостоверение личности в Интернете за несколько долларов, а затем использовать поддельное программное обеспечение для создания подходящего лица для селфи. «Горячий нож сквозь масло», — сказал он.
Точно так же Талков сказал, что финансовые компании должны прекратить использовать инструменты голосовой идентификации для разблокировки учетных записей. «Я бы нервничал, если бы [at] мой банк, мой голос были моим паролем», — сказал он. «Просто использовать только голос, это больше не работает». То же самое относится и к распознаванию лиц, сказал он, добавив, что срок службы технологии как способа контроля доступа истек.
Сеть поддержки киберпреступников, некоммерческая организация, которая помогает частным лицам и компаниям, пострадавшим в Интернете, часто работает с объектами мошенничества в романтических отношениях и призывает людей проводить видеочаты со своими женихами, чтобы попытаться отсеять мошенников. Элли Армесон, программный директор сети, сказала, что всего два или три года назад они могли попросить клиентов искать легко обнаруживаемые сбои, такие как замороженные изображения. Но в последние недели, по ее словам, в сети связались жертвы мошенников, которые сказали, что вели видеочат в течение 10 или 20 минут со своим предполагаемым ухажером, «и это был тот человек, которого они мне прислали на фото. ”
Она добавила: «Жертвы действительно говорили: «Голова действительно выглядела странно на теле, поэтому она выглядела немного не так». Но люди нередко игнорируют тревожные сигналы, сказала она. «Они хотят верить, что видео настоящее, поэтому не замечают незначительных несоответствий».
(Жертвы романтических афер в Соединенных Штатах сообщили об убытках в размере 1,3 миллиарда долларов в прошлом году.)
Глубокие подделки в реальном времени представляют новую опасную угрозу и для бизнеса. По словам Мирски, многие компании обучают сотрудников распознавать фишинговые атаки незнакомцев, но никто особо не готовится к звонкам от дипфейков с клонированным голосом коллеги или начальника.
«Люди будут путать знакомство с подлинностью», — сказал он. «И в результате люди попадутся на эти атаки».
Как защитить себя
Talcove предложил простой и сложный способ защиты от дипфейков, которые выдают себя за члена семьи: иметь секретное кодовое слово, которое знает каждый член семьи, но которое преступники не угадали бы. По словам Талькова, если кто-то называет себя вашей дочерью, внуком или племянником, запрос кодового слова может отличить настоящих близких от фальшивых.
«Каждой семье сейчас нужно кодовое слово», — сказал он.
Выберите что-то простое и легко запоминающееся, что не нужно записывать (и не публиковать в Facebook или Instagram), сказал он, а затем вдолбите это в память своей семьи. «Вы должны убедиться, что они знают и практикуют, практикуют, практикуют», — сказал Талков.
Гарднер также выступал за кодовые слова. «Я думаю, что подготовка имеет большое значение для защиты от мошенничества с дипфейками», — сказал он.
Армесон сказала, что ее сеть до сих пор советует людям искать определенные подсказки во время видеозвонков, включая то, что их предполагаемый любовник слишком часто или слишком мало моргает, у него брови, которые не подходят к лицу, или волосы в неправильном месте, и кожа, которая не соответствует. их возраст. Если человек носит очки, проверьте, реалистично ли отражение, которое они дают, — говорится в сети — «дипфейки часто не могут полностью передать естественную физику освещения».
Она также призывает людей пройти эти простые тесты: попросите другого участника видеозвонка повернуть голову и положить руку перед лицом. По ее словам, эти маневры могут быть показательными, потому что дипфейки часто не обучены выполнять их реалистично.
Тем не менее, призналась она, «мы просто играем в обороне». По ее словам, мошенники «всегда будут опережать нас», отсеивая сбои, раскрывающие мошенничество. «Это бесит».
В конечном счете, по ее словам, самый надежный способ выкурить дипфейки может состоять в том, чтобы настоять на личной встрече. «Мы должны быть действительно аналоговыми в этом. Мы не можем полагаться только на технологии».
Существуют программные инструменты, которые автоматически ищут сбои и шаблоны, созданные искусственным интеллектом, чтобы отделить законные аудио и видео от поддельных. Но Мирски сказал, что «это потенциально проигрышная игра», потому что по мере совершенствования технологий контрольные признаки, которые раньше выдавали подделки, исчезнут.
Мирский и его команда из Университета Бен-Гуриона разработали другой подход, называемый D-CAPTCHA, который работает по тому же принципу, что и некоторые веб-сайты, чтобы не дать ботам отправлять онлайн-формы. Система D-CAPTCHA представляет собой тест, предназначенный для того, чтобы сбивать с толку текущие дипфейки в реальном времени — например, просить звонящих напевать, смеяться, петь или просто откашляться.
Система, которую еще предстоит коммерциализировать, может принять форму комнаты ожидания для аутентификации гостей, посещающих конфиденциальные виртуальные встречи, или приложения, которое проверяет подозрительных абонентов. На самом деле, сказал Мирски, «мы можем разработать приложения, которые будут пытаться перехватывать эти подозрительные звонки и проверять их до того, как они будут подключены».
Гарднер предложил еще одну обнадеживающую записку. По его словам, опыт, который люди сейчас получают с ИИ и такими приложениями, как ChatGPT, заставил людей быстрее задавать вопросы о том, что реально, а что подделка, и более критично смотреть на то, что они видят.
«Я думаю, что тот факт, что люди ведут эти беседы с ИИ один на один, помогает», — сказал он.
О команде журналистов The Times Utility
Эта статья подготовлена командой служебной журналистики The Times. Наша миссия состоит в том, чтобы играть важную роль в жизни жителей Южной Калифорнии, публикуя информацию, которая решает проблемы, отвечает на вопросы и помогает в принятии решений. Мы обслуживаем аудиторию в Лос-Анджелесе и его окрестностях, включая нынешних подписчиков Times и различные сообщества, чьи потребности исторически не удовлетворялись нашим освещением.
Чем мы можем быть полезны вам и вашему сообществу? Утилита электронной почты (at) latimes.com или один из наших журналистов: Мэтт Баллинджер, Джон Хили, Ада Ценг, Джессика Рой и Карен Гарсия.