Существуют жизненно важные национальные интересы в развитии искусственного интеллекта (ИИ) для оптимизации государственных услуг и автоматизации рутинных задач, выполняемых государственными служащими. Но правительству не хватает как ИТ-специалистов, так и систем для поддержки этих усилий.
«Федеральное правительство в целом по-прежнему сталкивается с препятствиями при найме, управлении и удержании персонала с передовыми техническими навыками — теми самыми навыками, которые необходимы для проектирования, разработки, развертывания и мониторинга систем искусственного интеллекта», — сказал Така Арига, главный специалист по данным в Счетная палата правительства США.
Даниэль Хо, заместитель директора Института искусственного интеллекта, ориентированного на человека (HAI) в Стэнфордском университете, согласился, заявив, что, по одной из оценок, федеральному правительству потребуется нанять около 40 000 ИТ-специалистов для решения проблем кибербезопасности, связанных с ИИ.
Инструменты искусственного интеллекта были предметом двух отдельных слушаний на Капитолийском холме. Перед Комитетом по национальной безопасности и делам правительства группа из пяти экспертов по искусственному интеллекту заявила, что, хотя внедрение технологии искусственного интеллекта неизбежно, устранение человеческого надзора за ней сопряжено с огромными рисками. А на слушаниях судебного подкомитета Сената по конфиденциальности, технологиям и закону генеральный директор OpenAI Сэм Альтман вместе с исполнительным директором IBM Кристиной Монтгомери и почетным профессором Нью-Йоркского университета Гэри Маркусом дали показания.
Перекрывающиеся слушания охватили множество вопросов и опасений по поводу быстрого роста и развития инструментов на основе ИИ. Помимо потребности в более квалифицированных кадрах в правительстве США, официальные лица выразили обеспокоенность по поводу того, что правительственные учреждения имеют дело с предубеждениями, основанными на ошибочных или искаженных данных из алгоритмов ИИ, опасения по поводу дезинформации о выборах и необходимость большей прозрачности в отношении того, как инструменты ИИ — и лежащие в основе больших языковых моделей — действительно работают.
Во вступительном слове председатель комитета по внутренней безопасности и делам правительства сенатор Гэри Питерс (D-MI) сказал, что США должны взять на себя мировое лидерство в разработке и регулировании ИИ, устанавливая стандарты, которые могут «устранить потенциальные риски и вред».
Одна из самых очевидных угроз? Данные, используемые чат-ботами ИИ, такими как OpenAI’sChatGPT, для получения ответов, часто недоступны для кого-либо за пределами сообщества поставщиков, и даже инженеры, разрабатывающие системы ИИ, не всегда понимают, как системы делают выводы.
Другими словами, системы искусственного интеллекта могут быть черными ящиками, использующими проприетарные технологии, часто подкрепленные неверными данными, что приводит к ошибочным результатам.
Содержание статьи
Плохие данные на входе, плохие результаты на выходе?
Питерс указал на недавнее исследование Стэнфордского университета, в котором был обнаружен ошибочный алгоритм искусственного интеллекта налоговой службы, используемый для определения того, кого следует проверять. Система выбирала чернокожих налогоплательщиков в пять раз чаще, чем представители других рас.
Петерс также сослался на системы на основе ИИ, развернутые как минимум в дюжине штатов для определения права на получение пособий по инвалидности, «что привело к тому, что система отказала тысячам получателей в этой критически важной помощи, которая помогает им жить независимо», — сказал Петерс.
По словам Петерса, поскольку система пособий по инвалидности считалась в штатах «запатентованной технологией», граждане не могли узнать, почему им было отказано в пособиях, или обжаловать это решение. Законы о конфиденциальности, которые скрывали данные и процессы, не были предназначены для решения проблем и приложений ИИ.
«Поскольку агентства используют больше инструментов ИИ, им необходимо обеспечить безопасность и надлежащее использование любых входных данных, чтобы избежать случайного раскрытия или непреднамеренного использования, наносящего ущерб правам или гражданским свободам американцев», — сказал Питерс.
Ричард Эппинк, юрист Фонда Американского союза гражданских свобод штата Айдахо, отметил, что ACLU подал коллективный иск, представляющий около 4000 жителей штата Айдахо с нарушениями развития и интеллектуальными нарушениями, которым государственная программа Medicaid отказала в финансировании из-за системы на основе ИИ. . «Мы не можем позволить проприетарному ИИ удерживать в заложниках процессуальные права», — сказал Эппинк.
На другом слушании по ИИ Альтмана спросили, должны ли граждане беспокоиться о том, что в выборы могут играть большие языковые модели (LLM), такие как GPT-4 и его приложение для чат-ботов ChatGPT.
«Это одна из областей, вызывающих у меня наибольшее беспокойство, — сказал он. «Более общая способность этих моделей манипулировать, убеждать, предоставлять интерактивную дезинформацию один на один — учитывая, что в следующем году нас ждут выборы, а эти модели улучшаются, я думаю, что это серьезная проблема. ».
Регулирование, по словам Альтмана, было бы «мудрым», потому что люди должны знать, разговаривают ли они с системой искусственного интеллекта или просматривают контент — изображения, видео или документы — сгенерированные чат-ботом. «Я думаю, нам также потребуются правила и рекомендации относительно того, что ожидается в плане раскрытия информации от компании, предлагающей модель, которая может иметь такие возможности, о которых мы говорим. Поэтому я нервничаю по этому поводу».
Однако люди быстро адаптируются, добавил он, указывая на программное обеспечение Adobe Photoshop как на то, что поначалу обманывало многих, пока его возможности не были реализованы. «А потом довольно быстро [people] пришло понимание того, что изображения могли быть обработаны в фотошопе», — сказал Альтман. «Это будет так, но на стероидах».
Водяные знаки для обозначения AI-контента
Линн Паркер, директор AI Tennessee Initiative в Университете Теннесси, сказала, что одним из методов идентификации контента, созданного инструментами AI, является добавление водяных знаков. Эта технология позволит пользователям полностью понять происхождение контента или его происхождение.
Член комитета сенатор Мэгги Хассан (D-NH) заявила, что в будущем будет проведено слушание по теме водяных знаков на контенте AI.
Альтман также предложил правительству США следовать плану надзора за ИИ, состоящему из трех пунктов:
- Создайте государственное агентство, которому поручено лицензировать крупные модели ИИ, и отзывайте те, которые не соответствуют государственным стандартам.
- Создайте стандарты безопасности LLM, которые включают возможность оценить, опасны они или нет. Как и другие продукты, LLM должны пройти тесты на безопасность, такие как неспособность к «самовоспроизведению», стать мошенниками и начать действовать самостоятельно.
- Создайте независимую структуру AI-аудита под контролем независимых экспертов.
Альтман, однако, не ответил на вопросы о прозрачности обучения LLM, как предложили сенатор Марша Блэкберн (R-TN) и другие члены комитета.
Паркер также призвал к действиям на федеральном уровне — руководящим принципам, которые позволили бы правительству США ответственно использовать ИИ. Затем она перечислила 10, включая защиту прав граждан, использование установленных правил, таких как предложенная NIST структура управления ИИ, и создание федерального совета по ИИ.
По мнению Паркера, обременительный или деспотический контроль, который препятствует разработке и развертыванию систем искусственного интеллекта, не нужен. Вместо этого существующие предлагаемые руководящие принципы, такие как План Управления науки и технологий для Билля о правах ИИ, будут решать проблемы с высоким риском.
Также важно определить ответственное использование ИИ, за что должны нести ответственность такие агентства, как Административно-бюджетное управление.
Одна проблема: поставщики чат-ботов и других технологий ИИ усердно работают над получением общедоступной информации, такой как записи мобильных телефонов и адреса граждан, от государственных и федеральных агентств, чтобы помочь в разработке новых приложений. Эти приложения могли бы отслеживать людей и их онлайн-привычки, чтобы лучше продвигать их.
Китай продвигает ИИ
Комитет Сената также услышал опасения, что Китай лидирует как в разработке ИИ, так и в стандартах. «Кажется, мы попали в ловушку», — сказал Джейкоб Сигел, старший редактор отдела новостей в Журнал для планшетов. «Существует жизненно важный национальный интерес в содействии развитию ИИ, однако в настоящее время правительство в основном использует ИИ в качестве политического оружия для цензуры информации, которую оно или его сторонние партнеры считают вредной».
Сигел, чей онлайн-журнал посвящен еврейским новостям и культуре, служил офицером разведки и ветераном войны в Ираке и Афганистане.
Он утверждал, что на сегодняшний день управление ИИ в Америке подражает китайской модели с нисходящим социальным контролем, управляемым политической партией. «Продолжение в этом направлении будет означать конец нашей традиции самоуправления и американского образа жизни».
Сигел сказал, что его опыт войны с террором дал ему «проблеск революции ИИ». Он сказал, что технология уже «переделывает политическую систему и культуру Америки способами, которые уже оказались несовместимыми с нашей системой демократии и самоуправления и вскоре могут стать необратимыми».
Он сослался на показания, данные ранее в этом месяце Джен Истерли, директором Агентства кибербезопасности и безопасности инфраструктуры (CISA), которая сказала, что Китай уже установил барьеры, чтобы гарантировать, что ИИ представляет его ценности. «И США должны сделать то же самое», — сказал Сигел.
Судебный комитет провел слушания в марте, чтобы обсудить преобразующий потенциал ИИ, а также связанные с ним риски. Сегодняшнее слушание было посвящено тому, как ИИ может помочь правительству более эффективно предлагать услуги, избегая при этом посягательств на частную жизнь, свободу слова и предвзятость.
Опасения по поводу цензуры
Сенатор Рэнд Пол (республиканец от штата Кентукки) нарисовал особенно зловещий, оруэлловский сценарий, в котором ИИ, такой как ChatGPT, не только действует посредством ошибочных данных, которые ему подаются, но также может сознательно производить дезинформацию и подвергать цензуре свободу слова на основе того, для чего, по мнению правительства, большее благо.
Например, Пол описал, как во время пандемии COVID-19 частно-государственное партнерство работало совместно с частными компаниями, такими как Twitter, чтобы использовать ИИ для автоматизации обнаружения противоречивых сообщений о происхождении вакцин и неутвержденных методах лечения и их удаления.
«Цель, как они утверждали, состояла в том, чтобы бороться со злонамеренным влиянием иностранцев. Но на самом деле правительство не подавляло иностранную дезинформацию или дезинформацию. Он работал над цензурой внутренней речи американцев», — сказал Пол. «Джордж Оруэлл был бы горд».
По словам Пола, с 2020 года федеральное правительство заключило более 500 контрактов на разработку проприетарных систем искусственного интеллекта. Сенатор заявил, что контракты были переданы компаниям, чьи технологии используются для «мониторинга Интернета, выявления разговоров, свидетельствующих о вредоносных повествованиях, отслеживания этих угроз и разработки контрмер до того, как сообщения станут вирусными».
Авторское право © 2023 IDG Communications, Inc.