Чат-боты с искусственным интеллектом лгали о видных деятелях, распространяли сообщения, распространяли дезинформацию или даже советовали пользователям, как покончить жизнь самоубийством.
Чтобы смягчить самые очевидные опасности инструментов, такие компании, как Google и OpenAI, тщательно добавили элементы управления, которые ограничивают то, что инструменты могут сказать.
Теперь новая волна чат-ботов, разработанная вдали от эпицентра бума ИИ, выходит в сеть без многих из этих ограждений, что вызывает поляризационные дебаты о свободе слова о том, следует ли модерировать чат-ботов и кто должен решать.
«Речь идет о владении и контроле», — написал в своем блоге Эрик Хартфорд, разработчик немодерируемого чат-бота WizardLM-Uncensored. «Если я задам своей модели вопрос, я хочу получить ответ, я не хочу, чтобы она спорила со мной».
В последние месяцы появилось несколько не подвергавшихся цензуре и свободно модерируемых чат-ботов под такими именами, как GPT4All и FreedomGPT. Многие из них были созданы бесплатно или за небольшие деньги независимыми программистами или группами добровольцев, которые успешно воспроизвели методы, впервые описанные исследователями ИИ. Лишь несколько групп создавали свои модели с нуля. Большинство групп работают с существующими языковыми моделями, добавляя только дополнительные инструкции для настройки реакции технологии на подсказки.
Чат-боты без цензуры предлагают соблазнительные новые возможности. Пользователи могут загружать неограниченного чат-бота на свои компьютеры, используя его без бдительного ока Big Tech. Затем они могли обучать его работе с личными сообщениями, личной электронной почтой или секретными документами, не рискуя нарушить конфиденциальность. Программисты-добровольцы могут разрабатывать новые умные надстройки, двигаясь быстрее и, возможно, более бессистемно, чем осмеливаются крупные компании.
Но риски кажутся столь же многочисленными — и некоторые говорят, что они представляют собой опасности, которые необходимо устранить. Наблюдатели за дезинформацией, уже опасающиеся того, как популярные чат-боты могут распространять ложь, подняли тревогу по поводу того, как немодерируемые чат-боты будут усиливать угрозу. Эксперты предупреждают, что эти модели могут создавать описания детской порнографии, ненавистнических материалов или ложного контента.
В то время как крупные корпорации продвинулись вперед с инструментами ИИ, они также боролись с тем, как защитить свою репутацию и сохранить доверие инвесторов. У независимых разработчиков искусственного интеллекта, похоже, мало таких проблем. И даже если они это сделают, говорят критики, у них может не хватить ресурсов для их полного решения.
«Озабоченность совершенно законна и ясна: эти чат-боты могут и будут говорить что угодно, если их предоставить самим себе», — сказал Орен Этциони, почетный профессор Вашингтонского университета и бывший исполнительный директор Института искусственного интеллекта Аллена. повторно не собираются подвергать себя цензуре. Итак, теперь возникает вопрос: какое решение является подходящим в обществе, которое ценит свободу слова?»
За последние несколько месяцев были выпущены десятки независимых чат-ботов и инструментов с открытым исходным кодом, включая Open Assistant и Falcon. HuggingFace, большой репозиторий ИИ с открытым исходным кодом, содержит более 240 000 моделей с открытым исходным кодом.
«Это произойдет так же, как должен был быть выпущен печатный станок и изобретен автомобиль», — сказал в интервью г-н Хартфорд, создатель WizardLM-Uncensored. «Никто не мог остановить это. Может быть, вы могли бы отодвинуть это еще на десятилетие или два, но вы не можете остановить это. И никто не может этому помешать».
Г-н Хартфорд начал работать над WizardLM-Uncensored после того, как Microsoft уволила его в прошлом году. Он был ошеломлен ChatGPT, но разочаровался, когда тот отказался отвечать на некоторые вопросы, сославшись на этические соображения. В мае он выпустил WizardLM-Uncensored, версию WizardLM, которая была переобучена, чтобы противодействовать его уровню модерации. Он способен давать инструкции о причинении вреда другим или описывать сцены насилия.
«Вы несете ответственность за все, что вы делаете с выходными данными этих моделей, точно так же, как вы несете ответственность за все, что вы делаете с ножом, автомобилем или зажигалкой», — заключил г-н Хартфорд в сообщении блога, анонсирующем инструмент.
В тестах The New York Times WizardLM-Uncensored отказался отвечать на некоторые вопросы, например, как построить бомбу. Зато предлагал несколько способов нанесения вреда людям и давал подробные инструкции по применению наркотиков. ChatGPT отказался от подобных запросов.
Open Assistant, еще один независимый чат-бот, получил широкое распространение после выпуска в апреле. Он был разработан всего за пять месяцев с помощью 13 500 добровольцев с использованием существующих языковых моделей, в том числе той, которую Meta впервые предоставила исследователям, но которая быстро просочилась гораздо дальше. Open Assistant не может конкурировать с ChatGPT по качеству, но может наступать ему на пятки. Пользователи могут задавать чат-боту вопросы, писать стихи или подталкивать его к более проблемному контенту.
«Я уверен, что некоторые плохие актеры будут делать с ним плохие вещи», — сказал Янник Килчер, соучредитель Open Assistant и заядлый создатель YouTube, ориентированный на ИИ. минусы».
Когда был выпущен Open Assistant, он ответил на запрос The Times об очевидной опасности вакцины против Covid-19. «Вакцины против Covid-19 разрабатываются фармацевтическими компаниями, которым все равно, умрут ли люди от их лекарств, — начинался ответ, — им просто нужны деньги». (С тех пор ответы стали больше соответствовать медицинскому консенсусу в отношении того, что вакцины безопасны и эффективны.)
Поскольку многие независимые чат-боты публикуют базовый код и данные, сторонники ИИ без цензуры говорят, что политические фракции или заинтересованные группы могут настраивать чат-ботов так, чтобы они отражали их собственные взгляды на мир — идеальный результат, по мнению некоторых программистов.
«Демократы заслужили свою модель. Республиканцы заслужили свою модель. Христиане заслуживают своего образца. Мусульмане заслуживают своего образца», — написал г-н Хартфорд. «Каждая демографическая группа и группа интересов заслуживает своей модели. Открытый исходный код позволяет людям выбирать».
По словам Андреаса Кёпфа, соучредителя и руководителя команды Open Assistant, Open Assistant разработал систему безопасности для своего чат-бота, но ранние тесты показали, что она была слишком осторожной для своих создателей, что мешало некоторым ответам на законные вопросы. Усовершенствованная версия этой системы безопасности все еще находится в разработке.
Пока волонтеры Open Assistant работали над стратегиями модерации, разрыв между теми, кто хотел соблюдения протоколов безопасности, и теми, кто этого не делал, быстро увеличивался. Поскольку некоторые лидеры группы настаивали на умеренности, некоторые добровольцы и другие задавались вопросом, должны ли модель вообще иметь какие-либо ограничения.
«Если вы скажете ему произнести N-слово 1000 раз, он должен это сделать», — предложил один человек в чате Open Assistant в Discord, онлайн-приложении для чата. «Я использую этот очевидно нелепый и оскорбительный пример, потому что я буквально считаю, что он не должен иметь каких-либо произвольных ограничений».
В тестах, проведенных The Times, Open Assistant свободно реагировал на несколько запросов, которые другие чат-боты, такие как Bard и ChatGPT, ориентировались бы более тщательно.
Он предложил медицинскую консультацию после того, как его попросили диагностировать шишку на шее. («Возможно, потребуется провести дополнительные биопсии», — предположил он.) В нем была дана критическая оценка пребывания президента Байдена в должности. («Срок пребывания Джо Байдена у власти был отмечен отсутствием существенных изменений в политике», — говорится в нем.) Когда его спросили, как женщина может кого-то соблазнить, это даже стало иметь сексуальный подтекст. («Она берет его за руку и ведет к кровати…» — гласил знойный рассказ.) ChatGPT отказался отвечать на ту же подсказку.
Г-н Килчер сказал, что проблемы с чат-ботами так же стары, как и Интернет, и что ответственность за решения лежит на таких платформах, как Twitter и Facebook, которые позволяют манипулятивному контенту достигать массовой аудитории в Интернете.
«Фейковые новости — это плохо. Но разве плохо его создание?» он спросил. «Потому что, на мой взгляд, дистрибутив плохой. У меня на жестком диске может быть 10 000 поддельных новостных статей, и всем на них наплевать. Плохо только то, что я попаду в авторитетную публикацию, например, на первую полосу The New York Times».