Европейский парламент собирается формализовать свою позицию в отношении того, что может стать первым в мире набором правил для ИИ со стороны крупного законодательного органа, поскольку законодатели ЕС достигли предварительного политического соглашения в четверг.
Члены Европейского парламента (MEP) обсуждали содержание Закона ЕС об ИИ и согласовали компромиссные поправки с несколькими внесенными в последнюю минуту корректировками, касающимися генеративного ИИ.
«Компромиссные поправки были согласованы вчера в ходе внутренних переговоров между докладчиками и теневыми докладчиками и будут поставлены на голосование в комитете депутатами Европарламента 11 мая 2023 года», — сказал представитель парламента. «За этим последует пленарное голосование в июне, после чего начнутся переговоры с Советом (государствами-членами) с целью достижения межведомственного соглашения до конца года».
Европейская комиссия, которая является исполнительной властью ЕС, работает над нормативно-правовой базой для ИИ с начала 2020 года. В апреле 2021 года Комиссия предложила набор проектов правил для Закона об ИИ, целью которого является обеспечение всеобъемлющего правового регулирования. рамки для разработки и развертывания систем искусственного интеллекта в ЕС.
Предлагаемые правила охватывают широкий спектр приложений ИИ и призваны способствовать доверию и прозрачности в использовании ИИ, защищать основные права и свободы, а также обеспечивать безопасность и соблюдение этических принципов при разработке и развертывании ИИ.
ChatGPT и связанные с ним ИИ получают последние настройки
Работа с системами ИИ, которые не подходят для конкретного варианта использования, была самой обсуждаемой проблемой в предложении. Системы искусственного интеллекта общего назначения решают широкий спектр задач и не были включены в исходное предложение. Они привлекли к себе внимание только после того, как ChatGPT, универсальная генеративная модель искусственного интеллекта, которая принимает текстовый ввод и возвращает пользователям высококачественные ответы на основе контекста, произвела сбой.
Члены Европарламента согласились с тем, что генеративные инструменты, такие как ChatGPT, DALL-E и Midjourney, должны регулироваться с точки зрения дизайна и развертывания, чтобы соответствовать законодательству ЕС и основным правам, включая свободу выражения мнений. Основное изменение, внесенное в закон, заключается в том, что эти инструменты должны будут раскрывать любые материалы, защищенные авторским правом, которые использовались для разработки их систем.
Другие требования к генеративным моделям ИИ включают тестирование и снижение разумно предсказуемых рисков для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства закона с привлечением независимых экспертов.
Закон также требует документирования неустранимых рисков в моделях ИИ и причин, по которым они не были устранены. Были опасения, что ChatGPT может использоваться в злонамеренных целях, в том числе для создания фишинговых материалов, полезной нагрузки для кражи информации, DDoS-атак и бинарных скриптов программ-вымогателей.
Эксперты задаются вопросом, можно ли ввести правила для систем, основанных на больших языковых моделях (LLM), таких как ChatGPT и DALL-E, без ущерба для их основной функциональности.
«Проще говоря — я понятия не имею, как можно регулировать что-то вроде Chat GPT, не снижая при этом эффективности их решения», — сказал Крис Штеффен, аналитик Enterprise Management. «Кроме того, как насчет экземпляров, созданных специально для гнусных целей? Как только технология станет общедоступной и доступной, злоумышленники смогут (и будут) создавать свой собственный «ИИ для плохих парней в чате», чтобы делать все, что они хотят, и оптимизировать его для этих целей. Итак, вы также регулируете (и можете) эту технологию? Скорее всего, не.»
Закон об ИИ в первую очередь следует системе классификации
Помимо недавних дебатов об ИИ общего назначения, закон в первую очередь фокусируется на классификации существующих решений ИИ по категориям, основанным на риске, — неприемлемые, высокие, ограниченные и минимальные.
Системы ИИ, представляющие лишь ограниченные и минимальные риски, например, используемые для спам-фильтров или видеоигр, могут использоваться с небольшими требованиями при условии прозрачности. Однако системы ИИ, представляющие неприемлемые риски, например, используемые для государственных систем социальной оценки и систем биометрической идентификации в реальном времени в общественных местах, как правило, не допускаются, за некоторыми исключениями.
Разработчикам и пользователям разрешено использовать системы искусственного интеллекта с высоким риском, но они должны соблюдать правила, требующие тщательного тестирования, надлежащего документирования качества данных и системы подотчетности, предусматривающей человеческий контроль. Примеры систем ИИ, которые считаются высокорисковыми, включают автономные транспортные средства, медицинские устройства и оборудование критической инфраструктуры.
Соглашение, достигнутое в четверг, завершает текст, который все еще подлежит незначительным корректировкам перед голосованием 11 мая, когда все группы должны будут проголосовать за компромисс без возможности внесения альтернативных поправок.
Авторское право © 2023 IDG Communications, Inc.