Андрей Дороничев был встревожен в прошлом году, когда увидел в социальных сетях видео, на котором видно, как президент Украины капитулирует перед Россией.
Видео было быстро разоблачено как искусственно сгенерированный дипфейк, но для г-на Дороничева это было тревожным предзнаменованием. В этом году его опасения стали ближе к реальности, поскольку компании начали конкурировать в улучшении и выпуске технологий искусственного интеллекта, несмотря на хаос, который они могут вызвать.
Генеративный ИИ теперь доступен каждому, и он все чаще способен обманывать людей с помощью текста, аудио, изображений и видео, которые, кажется, были придуманы и сняты людьми. Риск социальной доверчивости вызвал опасения по поводу дезинформации, потери работы, дискриминации, конфиденциальности и широкой антиутопии.
Для таких предпринимателей, как г-н Дороничев, это также стало возможностью для бизнеса. В настоящее время более дюжины компаний предлагают инструменты для определения того, было ли что-то сделано с помощью искусственного интеллекта, с такими названиями, как Sensity AI (обнаружение дипфейков), Fictitious.AI (обнаружение плагиата) и Originality.AI (также плагиат).
Г-н Дороничев, уроженец России, основал в Сан-Франциско компанию Optic, чтобы помочь идентифицировать синтетические или поддельные материалы, чтобы, по его словам, стать «рентгеновским аппаратом в аэропорту для цифрового контента».
В марте компания представила веб-сайт, на котором пользователи могут проверять изображения, чтобы понять, были ли они сделаны с помощью реальных фотографий или искусственного интеллекта. Он работает над другими сервисами для проверки видео и аудио.
«Подлинность контента станет серьезной проблемой для общества в целом», — сказал г-н Дороничев, который был инвестором приложения для смены лиц под названием Reface. “Мы вступаем в эпоху дешевых подделок». По его словам, поскольку производство поддельного контента не требует больших затрат, его можно делать в больших масштабах.
По данным исследовательской компании Grand View Research, к 2030 году общий рынок генеративного ИИ превысит 109 миллиардов долларов, а до тех пор будет расти в среднем на 35,6 процента в год. Компании, ориентированные на обнаружение технологий, становятся растущей частью отрасли.
Спустя несколько месяцев после создания студентом Принстонского университета, GPTZero утверждает, что более миллиона человек использовали его программу для поиска сгенерированного компьютером текста. Reality Defender стала одной из 414 компаний, отобранных из 17 000 заявок на финансирование стартап-акселератором Y Combinator этой зимой.
В прошлом году Copyleaks привлекла 7,75 млн долларов частично для расширения своих услуг по борьбе с плагиатом для школ и университетов, чтобы обнаруживать искусственный интеллект в работах студентов. Sentinel, чьи основатели специализировались на кибербезопасности и информационной войне для британского Королевского флота и Организации Североатлантического договора, в 2020 году закрыла начальный раунд на 1,5 миллиона долларов, который частично поддержал один из инженеров-основателей Skype, чтобы помочь защитить демократии от дипфейков и других вредоносных программ. синтетические носители.
Задействованы и крупные технологические компании: FakeCatcher от Intel утверждает, что способен идентифицировать дипфейк-видео с точностью до 96 процентов, частично путем анализа пикселей на наличие едва заметных признаков кровотока на человеческих лицах.
В рамках федерального правительства Агентство перспективных исследовательских проектов Министерства обороны США планирует потратить в этом году почти 30 миллионов долларов на запуск Semantic Forensics, программы, которая разрабатывает алгоритмы для автоматического обнаружения дипфейков и определения того, являются ли они вредоносными.
Даже OpenAI, которая ускорила бум ИИ, выпустив свой инструмент ChatGPT в конце прошлого года, работает над службами обнаружения. Компания, базирующаяся в Сан-Франциско, представила в январе бесплатный инструмент, помогающий различать текст, написанный человеком, и текст, написанный искусственным интеллектом.
OpenAI подчеркнул, что, хотя этот инструмент стал лучше, чем в предыдущих версиях, он по-прежнему «не полностью надежен». Инструмент правильно идентифицировал 26 процентов искусственно сгенерированного текста, но ошибочно пометил 9 процентов текста от людей как сгенерированный компьютером.
Инструмент OpenAI обременен общими недостатками программ обнаружения: он борется с короткими текстами и написанием не на английском языке. В образовательных учреждениях инструменты обнаружения плагиата, такие как TurnItIn, обвиняются в неточной классификации эссе, написанных студентами, как созданных чат-ботами.
Инструменты обнаружения по своей природе отстают от генеративной технологии, которую они пытаются обнаружить. К тому времени, когда система защиты сможет распознать работу нового чат-бота или генератора изображений, таких как Google Bard или Midjourney, разработчики уже придумают новую итерацию, способную обойти эту защиту. Ситуацию описывают как гонку вооружений или отношения вирус-антивирус, когда одно порождает другое снова и снова.
«Когда Midjourney выпускает Midjourney 5, мой стартовый пистолет срабатывает, и я начинаю работать, чтобы наверстать упущенное — и пока я это делаю, они работают над Midjourney 6», — сказал Хани Фарид, профессор компьютерных наук в университете. из Калифорнии, Беркли, который специализируется на цифровой криминалистике, а также участвует в индустрии обнаружения ИИ. «Это по своей сути состязательная игра, в которой, пока я работаю над детектором, кто-то строит лучшую мышеловку, лучший синтезатор».
Несмотря на постоянное наверстывание, многие компании заметили спрос на обнаружение ИИ со стороны школ и преподавателей, сказал Джошуа Такер, профессор политики в Нью-Йоркском университете и содиректор его Центра социальных сетей и политики. Он задался вопросом, появится ли аналогичный рынок перед выборами 2024 года.
«Увидим ли мы своего рода параллельное крыло этих компаний, развивающееся для защиты политических кандидатов, чтобы они могли знать, когда они становятся целью таких вещей», — сказал он.
Эксперты говорят, что синтетически сгенерированное видео по-прежнему довольно неуклюже и легко идентифицируется, но клонирование аудио и создание изображений находятся на высоком уровне. Для отделения настоящего от подделки потребуются тактики цифровой криминалистики, такие как обратный поиск изображений и отслеживание IP-адресов.
Доступные программы обнаружения тестируются на примерах, которые «сильно отличаются от того, что происходит в дикой природе, где изображения, которые ходили по кругу, были изменены, обрезаны, уменьшены, перекодированы и аннотированы, и Бог знает, что еще с ними случилось». — сказал мистер Фарид.
«Это отмывание контента усложняет задачу», — добавил он.
Content Authenticity Initiative, консорциум из 1000 компаний и организаций, — это одна группа, пытающаяся сделать генеративные технологии очевидными с самого начала. (Его возглавляет Adobe с такими участниками, как The New York Times, и игроками в области искусственного интеллекта, такими как Stability AI). Вместо того, чтобы собирать воедино происхождение изображения или видео на более поздних этапах его жизненного цикла, группа пытается установить стандарты, которые будут применяться. отслеживаемые учетные данные для цифровой работы при создании.
На прошлой неделе Adobe заявила, что ее генеративная технология Firefly будет интегрирована в Google Bard, где она будет прикреплять «этикетки питания» к производимому ею контенту, включая дату создания изображения и цифровые инструменты, использованные для его создания.
Джефф Сакасегава, архитектор доверия и безопасности в Persona, компании, которая помогает проверять личность потребителей, сказал, что проблемы, связанные с искусственным интеллектом, только начинаются.
«Волна набирает обороты», — сказал он. «Он направляется к берегу. Я не думаю, что он еще не разбился».