Консалтинг, который делает видео бизнес-обучения, является рекламой для «глубокого эксперта» для создания нового поколения докладчиков.
До настоящего времени подавляющее большинство deepfake видео были порнографическими, с использованием искусственного интеллекта (AI), чтобы манипулировать существующие кадры так актеры принимают черты лица определенных знаменитостей без их ведома, хотя они все шире используют гораздо более сложный синтез всего тела.
Эта технология также используется для того, чтобы политики говорили о том, что может убедить людей не голосовать или их.
Но консалтинговая компания Preswerx видит, что она играет гораздо более приземленную роль — на рабочем месте.
Содержание статьи
Редактирование видео
"На самом деле она не использовалась в деловой обстановке пока », — говорит босс Джошуа Харден.
« Я не могу 80 часов сидеть перед камерой и снимать 1000 видеороликов, но это не слишком полезное время ».
Глубокие поддельные докладчики могут быть ответом, но ответ на рекламу Preswerx, размещенную в деловой социальной сети LinkedIn в прошлом месяце, до сих пор разочаровывает.
«У нас было два кандидата, которые имели опыт работы с редактирование видео, но не глубокая экспертиза, и когда мы попросили их предоставить это, ни один не ответил, "говорит г-н Харден.
" Очень трудно найти этих людей.
"Люди либо делают не очень хорошие вещи с этим в Интернете, или они используют это в исследовательских проектах в университетах. "
'Прием хорошо'
Но г-н Харден сохраняет свое видение нового поколения глубоководных докладчиков настолько обманчивы, что они могут сойти за реальность.
«Мы бы полностью раскрыли это, — говорит он, — но как изюминку».
«Наши видео в целом хорошо приняты — это то, как мы создали наш бизнес.
«Если бы мы сделали то же самое и, в конце концов, сказали, что это компьютерная визуализация, это унесет людей».
Глубокие подделки традиционно не связаны с хорошим выбором карьеры.
Когда Супасорн Суваджанакорн, вместе с некоторыми коллегами из Вашингтонского университета, создал в 2017 году глубоко поддельного президента Барака Обаму, он столкнулся с серьезной негативной реакцией.
И его предложение о том, что технология может быть использована для оживления исторических личностей и обучения детей, привлекло гораздо меньше внимания, чем его потенциал для создания вреда, хаоса и дезинформации.
Босс Facebook Марк Цукерберг сказал, что фальшивые политики представляют собой «серьезную проблему» для отрасли.
И в этом году Facebook объявил, что удалит фальшивое видео со своей платформы.
Twitter, тем временем, запретила pornograhic deepfakes в 2018.
сотрудники Trick
Но угроза технологические позах в деловом мире может быть не менее волнующее .
Мошенники давно используют электронные письма, предназначенные для того, чтобы прийти от руководителя, чтобы обманом заставить сотрудников отправлять деньги или налоговую информацию.
Насколько убедительнее было бы, если бы было аудио или даже видео руководителя, явно говорящего непосредственно с сотрудником?
«Аудио, генерируемое AI, могло бы стать реальной проблемой, если бы фирмы не У него нет шагов для его смягчения », — говорит Крис Бойд, аналитик разведки в Malwarebytes.
« Был случай мошенничества генерального директора с использованием смоделированного звука, но жертва осознала после второго или третьего звонка что это была подделка. "
Финансовые потери
В статье на Forbes автор технологии Уэйн Раш указал, что мошеннические сотрудники тоже могут злоупотреблять технологией.
«К сожалению, сейчас никто не может сделать что-то, чтобы помешать кому-то, возможно, недовольному бывшему сотруднику, создать фальшивое видео и затем выпустить его в Интернете», — написал он.
«Например, такие видео может заставить генерального директора вашей компании объявить о крупных финансовых потерях, Возможно прекращение бизнеса.
«Такое объявление может оказать существенное влияние на цены акций».
«Увеличение разнообразия»
Глупые люди уже заполняют веб-сайты компаний.
Стартапы AI продают изображения сгенерированных компьютером лиц, предлагая компаниям возможность «увеличить разнообразие» в своем маркетинге без необходимости в людях.
Icons8, которая продает стоковые фотографии, способна создавать до миллиона «разнообразных моделей по требованию» каждый день и позволяет клиентам загружать до 10000 за 100 долларов США в месяц.
Босс Иван Браун говорит, что он уже поставлял фальшивые лица университетским исследователям , джинсы рекламодателей, игровые компании и сайт знакомств.
Для обеспечения алгоритма ИИ компания сделала десятки тысяч фотографий 70 реальных лиц по всему миру в контролируемой среде с аналогичным освещением и углами.
Для каждого настоящего лица можно создать не менее 10 глубоких поддельных и отфильтровать их по возрасту, этнической принадлежности, длине волос и эмоциям, говорит г-н Браун.
Хотя ИИ далеко не безошибочный .
«У нас было много плохих результатов от жутко прямых лиц до кусочка мяса, торчащего из чьего-то уха», — говорит Браун BBC News.
И он знает, что технология нуждается в этическом надзоре.
Технология здесь, и мы увидим много хорошего и плохого ее использования, поэтому производители должны нести ответственность за то, как мы ее используем », — говорит он.
Легкость, с которой могут быть созданы искусственные люди, также беспокоит профессора по этике искусственного интеллекта в Интернет-институте Оксфордского университета Сандре Вахтер.
«Это ставит нас в тупик постоянное состояние сомнения для всего, что мы видим и слышим — и обнаружение всегда будет догоняющей игрой », — говорит она BBC News.
«Мы должны внедрить более сильные средства сдерживания в случае неправильного использования этих методов и технологий ИИ».