Федеральная торговая комиссия начала расследование в отношении OpenAI, стартапа искусственного интеллекта, создающего ChatGPT, на предмет того, наносил ли чат-бот вред потребителям путем сбора данных и публикации ложной информации о физических лицах.
В 20-страничном письме, отправленном компании из Сан-Франциско на этой неделе, агентство сообщило, что также изучает методы обеспечения безопасности OpenAI. В своем письме FTC задала OpenAI десятки вопросов, в том числе о том, как стартап обучает свои модели ИИ и обрабатывает персональные данные, и заявила, что компания должна предоставить агентству документы и подробности.
FTC изучает вопрос о том, «причастна ли OpenAI к недобросовестным или вводящим в заблуждение методам обеспечения конфиденциальности или безопасности данных или к недобросовестным или вводящим в заблуждение методам, связанным с рисками причинения вреда потребителям», говорится в письме.
О расследовании ранее сообщала The Washington Post и подтвердил человек, знакомый с ходом расследования.
Расследование FTC представляет собой первую серьезную регулятивную угрозу США для OpenAI, одной из самых известных компаний в области искусственного интеллекта, и сигнализирует о том, что технология может подвергаться все более тщательному изучению, поскольку люди, предприятия и правительства используют больше продуктов на основе искусственного интеллекта. Быстро развивающаяся технология вызвала тревогу, поскольку чат-боты могут генерировать ответы в ответ на запросы, потенциально могут заменить людей на их работе и распространять дезинформацию.
Сэм Альтман, возглавляющий OpenAI, считает, что быстрорастущую индустрию искусственного интеллекта необходимо регулировать. В мае он свидетельствовал в Конгрессе, призывая принять закон об искусственном интеллекте, и посетил сотни законодателей, стремясь определить политическую повестку дня для этой технологии.
В четверг он твитнул что «очень важно», чтобы технология OpenAI была безопасной. Он добавил: «Мы уверены, что соблюдаем закон» и будем работать с агентством.
OpenAI уже подвергся давлению регулирующих органов на международном уровне. В марте орган по защите данных Италии запретил ChatGPT, заявив, что OpenAI незаконно собирает личные данные пользователей и не имеет системы проверки возраста, чтобы предотвратить доступ несовершеннолетних к незаконным материалам. OpenAI восстановила доступ к системе в следующем месяце, заявив, что внесла изменения, о которых просили итальянские власти.
FTC действует в отношении ИИ с заметной скоростью, начав расследование менее чем через год после того, как OpenAI представила ChatGPT. Лина Хан, председатель FTC, заявила, что технологические компании должны регулироваться, пока технологии только зарождаются, а не только тогда, когда они становятся зрелыми.
В прошлом агентство обычно начинало расследования после серьезных публичных ошибок со стороны компании, таких как открытие расследования политики конфиденциальности Meta после сообщений о том, что оно передало пользовательские данные политической консалтинговой фирме Cambridge Analytica в 2018 году.
Г-жа Хан, которая в четверг давала показания на слушаниях в комитете Палаты представителей по поводу практики агентства, ранее заявляла, что индустрия ИИ нуждается в тщательном анализе.
«Хотя эти инструменты являются новыми, они не освобождаются от существующих правил, и Федеральная торговая комиссия будет энергично обеспечивать соблюдение законов, которые нам поручено администрировать, даже на этом новом рынке», — написала она в гостевом эссе в The New York Times в мае. «Несмотря на то, что технология развивается быстро, мы уже видим несколько рисков».
В четверг на слушаниях в Судебном комитете Палаты представителей г-жа Хан заявила: «ChatGPT и некоторые другие сервисы получают огромное количество данных. Нет никаких проверок того, какой тип данных вводится в эти компании». Она добавила, что поступали сообщения о появлении «конфиденциальной информации» людей.
Расследование может заставить OpenAI раскрыть свои методы создания ChatGPT и источники данных, которые он использует для создания своих систем искусственного интеллекта. Хотя OpenAI долгое время довольно открыто сообщала такую информацию, в последнее время она мало говорила о том, откуда берутся данные для ее систем ИИ и сколько используется для создания ChatGPT, вероятно, потому, что она настороженно относится к копированию конкурентами и опасается судебных исков. над использованием определенных наборов данных.
Чат-боты, которые также внедряются такими компаниями, как Google и Microsoft, представляют собой серьезный сдвиг в способах создания и использования компьютерного программного обеспечения. Они готовы заново изобрести поисковые системы в Интернете, такие как Google Search и Bing, говорящих цифровых помощников, таких как Alexa и Siri, и почтовые службы, такие как Gmail и Outlook.
Когда OpenAI выпустила ChatGPT в ноябре, она мгновенно захватила воображение публики своей способностью отвечать на вопросы, писать стихи и рифмовать практически на любую тему. Но технология также может смешивать факты с вымыслом и даже создавать информацию — явление, которое ученые называют «галлюцинациями».
ChatGPT управляется тем, что исследователи ИИ называют нейронной сетью. Это та же технология, которая осуществляет перевод между французским и английским языками в таких сервисах, как Google Translate, и идентифицирует пешеходов, когда беспилотные автомобили перемещаются по городским улицам. Нейронная сеть обучается навыкам, анализируя данные. Например, определяя закономерности на тысячах фотографий кошек, он может научиться распознавать кошку.
Исследователи из таких лабораторий, как OpenAI, разработали нейронные сети, которые анализируют огромное количество цифрового текста, включая статьи в Википедии, книги, новости и журналы онлайн-чатов. Эти системы, известные как большие языковые модели, научились генерировать текст самостоятельно, но могут повторять ошибочную информацию или комбинировать факты таким образом, что получается неточная информация.
В марте Центр искусственного интеллекта и цифровой политики, правозащитная группа, выступающая за этичное использование технологий, обратилась к FTC с просьбой заблокировать OpenAI от выпуска новых коммерческих версий ChatGPT, сославшись на опасения, связанные с предвзятостью, дезинформацией и безопасностью.
Организация обновила жалобу менее недели назад, описав дополнительные способы, которыми чат-бот может причинить вред, на что, по ее словам, также указал OpenAI.
«Сама компания признала риски, связанные с выпуском продукта, и призвала к регулированию», — сказал Марк Ротенберг, президент и основатель Центра искусственного интеллекта и цифровой политики. «Федеральная торговая комиссия должна действовать».
OpenAI работает над улучшением ChatGPT и сокращением количества предвзятых, ложных или иных вредных материалов. Когда сотрудники и другие тестировщики используют систему, компания просит их оценить полезность и правдивость ее ответов. Затем с помощью метода, называемого обучением с подкреплением, он использует эти рейтинги, чтобы более точно определить, что чат-бот будет делать, а что нет.
Расследование FTC в отношении OpenAI может занять много месяцев, и неясно, приведет ли оно к каким-либо действиям со стороны агентства. Такие расследования являются частными и часто включают показания высших руководителей корпораций.
По словам Меган Грей, бывшего сотрудника бюро по защите прав потребителей, у агентства может не хватить знаний для полной проверки ответов OpenAI. «У FTC нет сотрудников с техническими знаниями, чтобы оценить ответы, которые они получат, и посмотреть, как OpenAI может попытаться скрыть правду», — сказала она.