В Торонто кандидат на выборах мэра на этой неделе, который обещает очистить лагеря бездомных, обнародовал набор предвыборных обещаний, иллюстрированных искусственным интеллектом, включая фальшивые антиутопические изображения людей, разбивших лагерь на улице в центре города, и сфабрикованное изображение палаток, установленных в парке. .
В Новой Зеландии политическая партия опубликовала в Instagram реалистичную визуализацию фальшивых грабителей, бесчинствующих в ювелирном магазине.
В Чикаго кандидат, занявший второе место на выборах мэра в апреле, пожаловался на то, что аккаунт в Твиттере, маскирующийся под новостное агентство, использовал искусственный интеллект для клонирования его голоса таким образом, что предполагалось, что он потворствует жестокости полиции.
То, что несколько месяцев назад началось с медленного потока электронных писем по сбору средств и рекламных изображений, созданных ИИ для политических кампаний, превратилось в постоянный поток агитационных материалов, созданных с помощью этой технологии, переписывая политический сценарий демократических выборов по всему миру.
Политические консультанты, исследователи выборов и законодатели все чаще говорят, что установка новых барьеров, таких как законодательство, ограничивающее синтетическую рекламу, должно стать неотложным приоритетом. Существующие средства защиты, такие как правила социальных сетей и службы, которые утверждают, что обнаруживают контент ИИ, не смогли сильно замедлить волну.
Поскольку президентская гонка в США в 2024 году начинает накаляться, некоторые из кампаний уже тестируют технологию. Республиканский национальный комитет выпустил видео с искусственно сгенерированными изображениями сценариев конца света после того, как президент Байден объявил о своей заявке на переизбрание, в то время как губернатор Флориды Рон ДеСантис опубликовал поддельные изображения бывшего президента Дональда Дж. Трампа с доктором Энтони Фаучи, бывшим официальный. Весной Демократическая партия экспериментировала с сообщениями о сборе средств, составленными искусственным интеллектом, и обнаружила, что они часто более эффективны для поощрения участия и пожертвований, чем тексты, полностью написанные людьми.
Некоторые политики рассматривают искусственный интеллект как способ сократить расходы на избирательную кампанию, используя его для создания мгновенных ответов на вопросы в дебатах или атаки на рекламу, или для анализа данных, для которого в противном случае потребовались бы дорогостоящие специалисты.
В то же время технология может распространять дезинформацию среди широкой аудитории. Эксперты говорят, что нелестное фальшивое видео, электронная почта, полная ложных повествований, созданных компьютером, или сфабрикованное изображение городского упадка могут усилить предрассудки и расширить партийный раскол, показывая избирателям то, что они ожидают увидеть.
Эта технология уже намного мощнее, чем ручное управление — она не идеальна, но быстро совершенствуется и проста в освоении. В мае исполнительный директор OpenAI Сэм Альтман, чья компания помогла начать бум искусственного интеллекта в прошлом году с помощью своего популярного чат-бота ChatGPT, сказал подкомитету Сената, что он нервничает по поводу сезона выборов.
Он сказал, что способность технологии «манипулировать, убеждать, предоставлять своего рода интерактивную дезинформацию один на один» вызывает «значительную озабоченность».
Представитель Иветт Д. Кларк, демократ из Нью-Йорка, заявила в своем заявлении в прошлом месяце, что избирательный цикл 2024 года «готов стать первыми выборами, на которых будет преобладать контент, созданный ИИ». Она и другие демократы в Конгрессе, в том числе сенатор Эми Клобушар из Миннесоты, внесли закон, который требует, чтобы политическая реклама с использованием искусственно созданных материалов содержала заявление об отказе от ответственности. Аналогичный законопроект был недавно принят в штате Вашингтон.
Американская ассоциация политических консультантов недавно осудила использование дипфейков в политических кампаниях как нарушение своего этического кодекса.
«У людей возникнет искушение выйти за рамки возможного и посмотреть, где они могут что-то взять», — сказал Ларри Хьюн, будущий президент группы. «Как и в случае с любым инструментом, могут быть неправильные действия и неправильные действия с их использованием, чтобы лгать избирателям, вводить избирателей в заблуждение, создавать веру в то, чего не существует».
Недавнее вторжение технологии в политику стало неожиданностью в Торонто, городе, который поддерживает процветающую экосистему исследований и стартапов в области искусственного интеллекта. Выборы мэра пройдут в понедельник.
Консервативный кандидат в гонке, Энтони Фьюри, бывший обозреватель новостей, недавно изложил свою платформу в документе, состоящем из десятков страниц и наполненном синтетическим контентом, который поможет ему занять жесткую позицию в отношении преступности.
Более пристальный взгляд ясно показал, что многие изображения были ненастоящими: в одной из лабораторных сцен были ученые, которые выглядели как инопланетные капли. Женщина в другом изображении носила на кардигане булавку с неразборчивой надписью; аналогичная маркировка появилась на изображении предупреждающей ленты на строительной площадке. Кампания г-на Фьюри также использовала синтетический портрет сидящей женщины с двумя скрещенными руками и третьей рукой, касающейся ее подбородка.
Другие кандидаты использовали это изображение для смеха в дебатах в этом месяце: «На самом деле мы используем настоящие фотографии», — сказал Джош Мэтлоу, который показал фотографию своей семьи и добавил, что «ни у кого на наших фотографиях нет трех рук».
Тем не менее, небрежные переводы были использованы для усиления аргумента г-на Фьюри. Он набрал достаточно сил, чтобы стать одним из самых узнаваемых имен на выборах с более чем 100 кандидатами. В тех же дебатах он признал, что использовал эту технологию в своей кампании, добавив, что «мы собираемся немного посмеяться здесь, когда мы продолжим узнавать больше об ИИ».
Политологи опасаются, что искусственный интеллект при неправильном использовании может оказать разрушительное воздействие на демократический процесс. Дезинформация — это постоянный риск; одна из соперниц г-на Фьюри заявила в ходе дебатов, что хотя ее сотрудники и используют ChatGPT, они всегда проверяют его результаты.
«Если кто-то может создать шум, создать неопределенность или разработать ложные нарративы, это может быть эффективным способом повлиять на избирателей и выиграть гонку», — написал в отчете в прошлом месяце Даррелл М. Уэст, старший научный сотрудник Института Брукингса. «Поскольку на президентских выборах 2024 года могут присутствовать десятки тысяч избирателей в нескольких штатах, все, что может подтолкнуть людей в том или ином направлении, может оказаться решающим».
Все более изощренный ИИ-контент все чаще появляется в социальных сетях, которые в значительной степени не желают или не могут контролировать его, сказал Бен Колман, исполнительный директор Reality Defender, компании, предлагающей услуги по обнаружению ИИ. «необратимый ущерб» до того, как он будет устранен, сказал он.
«Объяснять миллионам пользователей, что контент, который они уже видели и которым они поделились, был фальшивкой, уже много лет спустя, слишком мало и слишком поздно», — сказал г-н Колман.
В течение нескольких дней в этом месяце в прямом эфире Twitch велись непрерывные, небезопасные для работы дебаты между синтетическими версиями мистера Байдена и мистера Трампа. Оба были четко идентифицированы как смоделированные «объекты ИИ», но если организованная политическая кампания создала такой контент и широко распространила его без какого-либо раскрытия, это могло бы легко снизить ценность реального материала, заявили эксперты по дезинформации.
Политики могли отмахнуться от ответственности и заявить, что подлинные кадры компрометирующих действий не были реальными, явление, известное как дивиденд лжеца. Обычные граждане могли делать свои собственные фейки, в то время как другие могли глубже окопаться в поляризованных информационных пузырях, веря только тем источникам, которым они предпочли верить.
«Если люди не могут доверять своим глазам и ушам, они могут просто сказать: «Кто знает?», — написал в электронном письме Джош А. Гольдштейн, научный сотрудник Центра безопасности и новых технологий Джорджтаунского университета. «Это может способствовать переходу от здорового скептицизма, поощряющего хорошие привычки (такие как боковое чтение и поиск надежных источников), к нездоровому скептицизму, что невозможно знать, что является правдой».