Во вторник Совет Безопасности ООН впервые провел заседание, посвященное угрозе, которую искусственный интеллект представляет для международного мира и стабильности, и генеральный секретарь Антониу Гутерриш призвал глобальный наблюдатель за новой технологией, которая вызвала не меньше опасений, чем надеется.
Г-н Гутерриш предупредил, что ИИ может облегчить путь преступникам, террористам и другим субъектам, стремящимся причинить «смерть и разрушения, массовые травмы и глубокий психологический ущерб в невообразимых масштабах».
Запуск в прошлом году ChatGPT, который может создавать тексты из подсказок, имитировать голос и генерировать фотографии, иллюстрации и видео, вызвал тревогу по поводу дезинформации и манипуляций.
Во вторник дипломаты и ведущие эксперты в области ИИ рассказали Совету Безопасности о рисках и угрозах, а также о научных и социальных преимуществах новой появляющейся технологии. По их словам, многое остается неизвестным об этой технологии, даже несмотря на то, что ее развитие ускоряется.
«Это как если бы мы строили двигатели, не понимая науку о сгорании», — сказал Джек Кларк, соучредитель Anthropic, исследовательской компании по безопасности ИИ. По его словам, частные компании не должны быть единственными создателями и регуляторами ИИ.
Г-н Гутерриш сказал, что наблюдательный орган ООН должен действовать в качестве руководящего органа для регулирования, мониторинга и обеспечения соблюдения правил ИИ во многом так же, как другие агентства контролируют авиацию, климат и ядерную энергию.
Предлагаемое агентство будет состоять из экспертов в этой области, которые поделятся своим опытом с правительствами и административными учреждениями, которым может не хватать технических ноу-хау для устранения угроз ИИ.
Но перспектива юридически обязывающего решения об управлении им остается далекой. Однако большинство дипломатов поддерживают концепцию глобального механизма управления и свода международных правил.
«Ни одна страна не останется незатронутой ИИ, поэтому мы должны привлечь и задействовать самую широкую коалицию международных участников из всех секторов», — сказал министр иностранных дел Великобритании Джеймс Клеверли, который председательствовал на встрече, поскольку в этом месяце Великобритания председательствует в Совете поочередно. .
Россия, отступая от мнения большинства в Совете, выразила скептицизм в отношении того, что о рисках ИИ известно достаточно, чтобы рассматривать его как источник угроз глобальной нестабильности. А посол Китая в ООН Чжан Цзюнь выступил против создания свода глобальных законов и заявил, что международные регулирующие органы должны быть достаточно гибкими, чтобы позволить странам разрабатывать свои собственные правила.
Однако китайский посол сказал, что его страна выступает против использования ИИ как «средства создания военной гегемонии или подрыва суверенитета страны».
Также упоминалось военное использование автономного оружия на поле боя или в другой стране для убийств, таких как робот с искусственным интеллектом, управляемый со спутника, которого Израиль отправил в Иран, чтобы убить ведущего ученого-ядерщика Мохсена Фахризаде.
Г-н Гутерриш сказал, что к 2026 году Организация Объединенных Наций должна выработать юридически обязывающее соглашение, запрещающее использование ИИ в автоматизированном оружии войны.
Профессор Ребекка Уиллетт, директор по искусственному интеллекту в Институте науки о данных Чикагского университета, сказала в интервью, что при регулировании технологии важно не упускать из виду людей, стоящих за ней.
По ее словам, системы не являются полностью автономными, и люди, которые их проектируют, должны нести ответственность.
«Это одна из причин, по которой ООН рассматривает это», — сказал профессор Уиллетт. «Действительно должны быть международные последствия, чтобы компания, базирующаяся в одной стране, не могла уничтожить другую страну, не нарушая международных соглашений. Реальное принудительное регулирование может сделать ситуацию лучше и безопаснее».