В четверг Microsoft одобрила ряд правил для искусственного интеллекта, поскольку компания преодолевает опасения правительств всего мира по поводу рисков, связанных с быстро развивающейся технологией.
Microsoft, которая пообещала встроить искусственный интеллект во многие свои продукты, предложила правила, в том числе требование о том, чтобы системы, используемые в критической инфраструктуре, могли быть полностью отключены или замедлены, подобно системе экстренного торможения в поезде. Компания также призвала к принятию законов, разъясняющих, когда к системе искусственного интеллекта применяются дополнительные юридические обязательства, и к этикеткам, указывающим, когда изображение или видео были созданы компьютером.
«Компаниям необходимо активизироваться, — сказал Брэд Смит, президент Microsoft, в интервью о стремлении ввести правила. «Правительство должно действовать быстрее». Он изложил предложения перед аудиторией, в которую входили законодатели, на мероприятии в центре Вашингтона в четверг утром.
Призыв к регулированию подчеркивает бум ИИ, а выпуск чат-бота ChatGPT в ноябре вызвал волну интереса. Компании, в том числе Microsoft и материнская компания Google, Alphabet, с тех пор стремились внедрить эту технологию в свои продукты. Это вызвало опасения, что компании жертвуют безопасностью, чтобы опередить своих конкурентов.
Законодатели публично выразили обеспокоенность тем, что такие продукты ИИ, которые могут самостоятельно генерировать текст и изображения, создадут поток дезинформации, будут использоваться преступниками и лишат людей работы. Регулирующие органы в Вашингтоне обязались проявлять бдительность в отношении мошенников, использующих ИИ, и случаев, когда системы увековечивают дискриминацию или принимают решения, нарушающие закон.
В ответ на это пристальное внимание разработчики ИИ все чаще призывают переложить часть бремени контроля за технологией на правительство. Сэм Альтман, исполнительный директор OpenAI, которая делает ChatGPT и считает Microsoft инвестором, заявил в этом месяце подкомитету Сената, что правительство должно регулировать эту технологию.
Этот маневр перекликается с призывами к принятию новых законов о конфиденциальности или социальных сетях со стороны таких интернет-компаний, как Google и Meta, материнской компании Facebook. В Соединенных Штатах законодатели двигались медленно после таких призывов, и в последние годы появилось несколько новых федеральных правил в отношении конфиденциальности или социальных сетей.
В интервью г-н Смит сказал, что Microsoft не пытается снять с себя ответственность за управление новой технологией, потому что она предлагает конкретные идеи и обязуется реализовать некоторые из них независимо от того, предпримет ли правительство какие-либо действия.
«Нет ни на йоту отказа от ответственности», — сказал он.
Он поддержал идею, поддержанную г-ном Альтманом во время его выступления в Конгрессе, о том, что государственное учреждение должно требовать от компаний получения лицензий на развертывание «высокоэффективных» моделей ИИ.
«Это означает, что вы уведомляете правительство, когда начинаете тестирование», — сказал г-н Смит. «Вы должны поделиться результатами с правительством. Даже когда он лицензирован для развертывания, вы обязаны продолжать следить за ним и сообщать правительству, если возникают непредвиденные проблемы».
Microsoft, которая заработала более 22 миллиардов долларов на своем бизнесе облачных вычислений в первом квартале, также заявила, что этим системам с высоким риском следует разрешить работать только в «лицензированных центрах обработки данных ИИ». Г-н Смит признал, что у компании не будет «плохих позиций» для предоставления таких услуг, но сказал, что многие американские конкуренты также могут их предоставить.
Microsoft добавила, что правительства должны определить определенные системы искусственного интеллекта, используемые в критически важной инфраструктуре, как «высокорисковые» и потребовать, чтобы они имели «тормоз безопасности». Он сравнил эту функцию с «инженерами тормозных систем, которые уже давно встроены в другие технологии, такие как лифты, школьные автобусы и высокоскоростные поезда».
По словам Microsoft, в некоторых деликатных случаях компании, предоставляющие системы искусственного интеллекта, должны знать определенную информацию о своих клиентах. По словам компании, чтобы защитить потребителей от обмана, контент, созданный с помощью ИИ, должен иметь специальную маркировку.
Г-н Смит сказал, что компании должны нести юридическую «ответственность» за ущерб, связанный с ИИ. В некоторых случаях, по его словам, ответственной стороной может быть разработчик приложения, такого как поисковая система Microsoft Bing, которая использует чужую базовую технологию ИИ. Он добавил, что облачные компании могут нести ответственность за соблюдение правил безопасности и других правил.
«У нас не обязательно есть лучшая информация или лучший ответ, или мы не можем быть самым заслуживающим доверия оратором», — сказал г-н Смит. «Но знаете, прямо сейчас, особенно в Вашингтоне, округ Колумбия, люди ищут идеи».