Президент Байден заявил во вторник, что у искусственного интеллекта «огромные перспективы», но он также сопряжен с такими рисками, как разжигание дезинформации и потеря рабочих мест — опасностями, с которыми его администрация хочет бороться.
Байден, встречаясь в Сан-Франциско с экспертами, исследователями и сторонниками искусственного интеллекта, сказал, что технология уже приводит к «изменениям во всех сферах американской жизни, часто так, как мы этого не замечаем». ИИ помогает людям искать в Интернете, находить направления и может изменить то, как люди преподают и учатся.
«Пользуясь этим моментом, мы должны управлять рисками для нашего общества, нашей экономики и нашей национальной безопасности», — сказал Байден журналистам перед закрытой встречей с экспертами по искусственному интеллекту в отеле Fairmont.
Указывая на рост социальных сетей, Байден сказал, что люди уже увидели вред, который мощные технологии могут нанести без надлежащих ограждений. Тем не менее, он признал, что ему еще многое предстоит узнать об ИИ.
Встреча состоялась, когда Байден наращивает усилия по сбору денег для своей заявки на переизбрание в 2024 году, в том числе от технологических миллиардеров. Во время посещения Силиконовой долины в понедельник он посетил два сбора средств, в том числе один, организованный предпринимателем Ридом Хоффманом, который имеет многочисленные связи с предприятиями, занимающимися искусственным интеллектом.
Венчурный капиталист был одним из первых инвесторов в Open AI, которая создала популярное приложение ChatGPT, и входит в совет директоров технологических компаний, включая Microsoft, которые вкладывают значительные средства в AI.
Среди экспертов, с которыми Байден встретился во вторник, были одни из самых громких критиков Big Tech. В список входят детский защитник Джим Стейер, который основал и возглавляет Common Sense Media; Тристан Харрис, исполнительный директор и соучредитель Центра гуманных технологий; Джой Буоламвини, основатель Лиги алгоритмической справедливости; и Фей-Фей Ли, содиректор Стэнфордского института искусственного интеллекта, ориентированного на человека. Губернатор Калифорнии Гэвин Ньюсом также присоединился к Байдену на мероприятии AI.
Стейер сказал, что президент был действительно вовлечен во время разговора и что он говорил о потенциальном влиянии ИИ на демократию.
«Некоторые люди называют это своего рода лунным моментом», — сказал Стейер. «Вы не можете позволить небольшой горстке крупных компаний, которые могут действовать из лучших побуждений, а могут и нет, управлять будущим ИИ».
Он сказал, что сказал президенту, что главными победителями или проигравшими от ИИ могут быть молодые люди, отметив, что это может усугубить проблемы с психическим здоровьем.
Некоторые из экспертов имеют опыт работы в крупных технологических компаниях. До приезда в Стэнфорд Ли возглавлял работу по искусственному интеллекту и машинному обучению в Google Cloud, а также входил в совет директоров Twitter. Ли сказал, что Байдену важно рассмотреть вопрос о том, кто разрабатывает ИИ.
«Наше послание президенту состоит в том, чтобы инвестировать в государственный сектор, потому что это обеспечит здоровую экосистему», — сказала она, указав на положительное влияние технологий на здоровье, образование и окружающую среду.
Встречи Байдена с исследователями ИИ и техническими руководителями подчеркивают, как президент взаимодействует с обеими сторонами, поскольку его кампания пытается привлечь богатых доноров, в то время как его администрация изучает риски, связанные с быстрорастущей технологией. В то время как Байден критически относился к технологическим гигантам, руководители и работники таких компаний, как Apple, Microsoft, Google и материнская компания Facebook, Meta внесли свой вклад. миллионы долларов к его президентской кампании 2020 года.
Администрация Байдена сосредоточилась на Потенциальные риски ИИ. В прошлом году администрация выпустила «Проект Билля о правах ИИ», излагая пять принципов, которые разработчики должны помнить, прежде чем выпускать новые инструменты на базе ИИ. Администрация также встретилась с руководителями технических служб, объявила о шагах, предпринятых федеральным правительством для устранения рисков, связанных с ИИ, и предприняла другие усилия по «продвижению ответственных американских инноваций».
Технологические гиганты используют ИИ в различных продуктах, чтобы рекомендовать видео, управлять виртуальными помощниками и расшифровывать аудио.
Хотя искусственный интеллект существует уже несколько десятилетий, популярность чат-бота с искусственным интеллектом, известного как ChatGPT, усилила гонку между крупными технологическими игроками, такими как Microsoft, Google и Meta. ChatGPT, запущенный OpenAI в 2022 году, может отвечать на вопросы, генерировать текст и выполнять различные задачи.
Стремление к развитию технологий искусственного интеллекта заставило технических работников, исследователей, законодателей и регулирующих органов беспокоиться о том, могут ли новые продукты быть выпущены до того, как они станут безопасными. В марте генеральный директор Tesla, SpaceX и Twitter Илон Маск, соучредитель Apple Стив Возняк и другие технологические лидеры призвали лаборатории искусственного интеллекта приостановить обучение передовых систем ИИ и призвал разработчиков работать с политиками. 75-летний пионер искусственного интеллекта Джеффри Хинтон уволился с работы в Google, чтобы более открыто говорить о рисках, связанных с искусственным интеллектом.
Поскольку технологии быстро развиваются, законодатели и регулирующие органы изо всех сил стараются не отставать. В Калифорнии Ньюсом дал понять, что хочет осторожно подходить к регулированию ИИ на уровне штата. Он сказал в Лос-Анджелесе конференция в мае, что «самая большая ошибка», которую могут совершить политики, — это самоутверждаться, «не пытаясь сначала понять».
Калифорнийские законодатели выдвинули несколько идей, в том числе закон о борьбе с алгоритмическая дискриминация, создать офис искусственного интеллекта и создать рабочую группу для представления отчета об ИИ в Законодательное собрание.
Писатели и художники обеспокоены тем, что компании могут использовать ИИ для замены рабочих. Использование ИИ для создания текста и изображений связано с этическими вопросами, включая опасения по поводу плагиата и нарушения авторских прав. Гильдия писателей Америки, которая продолжает забастовку, предлагаемые правила в марте о том, как голливудские студии могут использовать ИИ. Например, любой текст, сгенерированный чат-ботами с искусственным интеллектом, «не может учитываться при определении авторских прав» в соответствии с предлагаемыми правилами.
Потенциальное использование ИИ для распространения политической пропаганды и теорий заговора — проблема, от которой страдают социальные сети, — еще одна серьезная проблема среди исследователи дезинформации. Они боятся Инструменты ИИ которые могут выдавать текст и изображения, облегчит и удешевит распространение вводящей в заблуждение информации для злоумышленников.
ИИ уже используется в некоторых популярных политических объявлениях. Республиканский национальный комитет опубликовал сгенерированное искусственным интеллектом видеообъявление, изображающее антиутопическое будущее, которое якобы станет реальностью, если Байден выиграет переизбрание.
Инструменты ИИ также использовались для создания поддельные аудиоклипы политиков и знаменитостей, делающих замечания, которых они на самом деле не говорили. Кампания кандидата в президенты от Республиканской партии и губернатора Флориды Рона ДеСантиса разделила видео того, что оказалось сгенерированным ИИ изображением бывшего президента Трампа, обнимающего доктора Энтони Фаучи — цель сторонников теорий заговора о COVID-19.
Технологические компании не возражают против того, чтобы ставить барьеры вокруг ИИ. Они говорят, что приветствуют регулирование, но также хотят помочь его сформировать. В мае Microsoft выпустила 42-страничный отчет об управлении ИИ, отметив, что ни одна компания не может быть выше закона. Отчет включает «схему государственного управления ИИ», в которой изложены пять пунктов, в том числе создание «безопасных перерывов» для систем ИИ, которые контролируют электросеть, системы водоснабжения и другую важнейшую инфраструктуру.
В том же месяце генеральный директор OpenAI Сэм Альтман выступил перед Конгрессом и призвал к регулированию ИИ.
«Мой самый большой страх в том, что мы, технологическая индустрия, причиним значительный вред миру», — сказал он законодателям. «Если эта технология пойдет не так, она может пойти совсем не так».
Альтман, который встречался с мировыми лидерами в Европе, Азии, Африке, на Ближнем Востоке и за их пределами, также присоединился к ученым и другим лидерам, подписавшим в мае письмо, состоящее из одного предложения, в котором предупреждалось, что ИИ представляет «риск исчезновения» для человечества.
Штатный сотрудник Times Сима Мехта из Лос-Анджелеса внесла свой вклад в этот отчет.