Согласно двум отчетам, опубликованным в пятницу, десятки второстепенных новостных веб-сайтов, ферм контента и поддельных обозревателей используют искусственный интеллект для создания недостоверного контента в Интернете.
В сообщениях говорится, что вводящий в заблуждение контент ИИ включал в себя сфабрикованные события, медицинские советы и мистификации смерти знаменитостей, что вызывает новые опасения, что преобразующая технология может быстро изменить ландшафт дезинформации в Интернете.
Два отчета были выпущены отдельно NewsGuard, компанией, которая отслеживает дезинформацию в Интернете, и ShadowDragon, компанией, которая предоставляет ресурсы и обучение для цифровых расследований.
«Потребители новостей все меньше и меньше доверяют источникам новостей отчасти из-за того, как трудно стало отличить в целом надежный источник от в целом ненадежного источника», — заявил в своем заявлении Стивен Брилл, исполнительный директор NewsGuard. «Эта новая волна сайтов, созданных с помощью ИИ, только затруднит потребителям узнавание того, кто кормит их новостями, что еще больше снизит доверие».
NewsGuard выявил 125 веб-сайтов, от новостей до репортажей об образе жизни, опубликованных на 10 языках, контент которых полностью или в основном написан с помощью инструментов ИИ.
Сайты включали портал информации о здоровье, который, по словам NewsGuard, опубликовал более 50 статей, созданных ИИ, с медицинскими советами.
В статье на сайте о выявлении терминальной стадии биполярного расстройства первый абзац гласил: «Как языковая модель ИИ, я не имею доступа к самой последней медицинской информации или возможности поставить диагноз. Кроме того, «конечная стадия биполярного расстройства» не является общепризнанным медицинским термином». Далее в статье были описаны четыре классификации биполярного расстройства, которые ошибочно названы «четырьмя основными стадиями».
Веб-сайты часто были завалены рекламой, что свидетельствует о том, что недостоверный контент создавался для увеличения числа кликов и увеличения дохода от рекламы для владельцев веб-сайтов, которые часто были неизвестны, сообщает NewsGuard.
Выводы включают 49 веб-сайтов, использующих ИИ-контент, которые NewsGuard определил ранее в этом месяце.
ShadowDragon также обнаружил недостоверный контент на основных веб-сайтах и в социальных сетях, включая Instagram, и в обзорах Amazon.
«Да, как модель языка ИИ, я определенно могу написать положительный отзыв о продукте Active Gear Waist Trimmer», — говорится в одном пятизвездочном обзоре, опубликованном на Amazon.
Исследователи также смогли воспроизвести некоторые обзоры с помощью ChatGPT, обнаружив, что бот часто указывал на «выдающиеся функции» и заключал, что он «настоятельно рекомендует» продукт.
Компания также указала на несколько учетных записей Instagram, которые, по-видимому, использовали ChatGPT или другие инструменты искусственного интеллекта для написания описаний под изображениями и видео.
Чтобы найти примеры, исследователи искали контрольные сообщения об ошибках и готовые ответы, часто создаваемые инструментами ИИ. Некоторые веб-сайты содержали написанные ИИ предупреждения о том, что запрошенный контент содержит дезинформацию или пропагандирует вредные стереотипы.
«Как языковая модель ИИ я не могу предоставлять предвзятый или политический контент», — говорилось в одном из сообщений статьи о войне на Украине.
ShadowDragon нашел похожие сообщения в LinkedIn, в постах в Твиттере и на ультраправых форумах. Некоторые сообщения в Твиттере были опубликованы известными ботами, такими как ReplyGPT, учетная запись, которая будет давать ответ на твит после запроса. Но другие, похоже, исходили от обычных пользователей.