Через несколько дней после того, как генеральный директор OpenAI Сэм Альтман заявил, что компании, возможно, придется прекратить операции в Европе, если правила ЕС об ИИ будут приняты в их нынешнем виде, он, похоже, отказался от своих комментариев.
Несмотря на то, что недавно он сказал американским законодателям, что поддерживает регулирование ИИ, в разговоре с журналистами в Великобритании ранее на этой неделе Альтман сказал, что у него «много опасений» по поводу Закона ЕС об ИИ, и даже обвинил блок в «чрезмерном регулировании».
OpenAI — это фирма, поддерживаемая Microsoft, которая разработала новаторскую, но несколько спорную систему генеративного искусственного интеллекта ChatGPT.
«Мы постараемся выполнить требования, но если мы не сможем их выполнить, мы прекратим работу», — сказал Альтман, согласно сообщению The Financial Times. Закон в настоящее время обсуждается представителями парламента, Совета и комиссии ЕС и должен быть завершен в следующем году.
Однако в Твит опубликован Утром в пятницу Альтман, похоже, отказался от риторики, написав: «Очень продуктивная неделя разговоров в Европе о том, как лучше всего регулировать ИИ! мы рады продолжать работать здесь и, конечно же, не планируем уходить».
Его более ранние комментарии разозлили законодателей в Европе, поскольку ряд политиков утверждали, что уровень регулирования, предлагаемый ЕС, необходим для решения проблем, связанных с генеративным ИИ.
«Давайте проясним, наши правила установлены для безопасности и благополучия наших граждан, и это не может быть предметом торга», — заявил Reuters еврокомиссар Тьерри Бретон.
«Европа опережает время в разработке прочной и сбалансированной нормативно-правовой базы для ИИ, которая устраняет риски, связанные с основными правами или безопасностью, а также позволяет Европе стать лидером в области надежного ИИ», — сказал он.
Альтман считает, что регулирование ИИ было бы «мудрым»
Выступая в судебном подкомитете Сената по конфиденциальности, технологиям и законодательству ранее в этом месяце, Альтман сказал законодателям США, что регулирование будет «мудрым», поскольку людям нужно знать, разговаривают ли они с системой искусственного интеллекта или просматривают контент — изображения, видео. или документы — сгенерированные чат-ботом.
Когда во время слушаний его спросили, должны ли граждане быть обеспокоены тем, что в выборы могут играть крупные языковые модели (LLM), такие как GPT-4 и его приложение для чат-ботов ChatGPT, Альтман сказал, что это одна из его «областей, вызывающих наибольшую озабоченность».
«Более общая способность этих моделей манипулировать, убеждать, предоставлять интерактивную дезинформацию один на один — учитывая, что в следующем году нас ждут выборы, а эти модели улучшаются, я думаю, что это серьезная проблема. ,» он сказал.
«Я думаю, нам также потребуются правила и рекомендации относительно того, что ожидается в плане раскрытия информации от компании, предлагающей модель, которая может иметь такие возможности, о которых мы говорим. Поэтому я нервничаю по этому поводу».
Авторское право © 2023 IDG Communications, Inc.