Более 1000 технологических лидеров и исследователей, в том числе Илон Маск, призвали лаборатории искусственного интеллекта приостановить разработку самых передовых систем, предупредив в открытом письме, что инструменты ИИ представляют «серьезный риск для общества и человечества».
Разработчики ИИ «застряли в неконтролируемой гонке за разработку и развертывание все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», говорится в письме, которое некоммерческая организация Future of Life Institute выпущен в среду.
Среди других, подписавших письмо, Стив Возняк, соучредитель Apple; Эндрю Янг, предприниматель и кандидат в президенты 2020 года; и Рэйчел Бронсон, президент Бюллетеня ученых-атомщиков, который устанавливает часы Судного дня.
«Эти вещи формируют наш мир», — сказал в интервью Гэри Маркус, предприниматель и ученый, который давно жаловался на недостатки в системах искусственного интеллекта. «У нас идеальный шторм корпоративной безответственности, широкого распространения, отсутствия регулирования и огромного количества неизвестных».
ИИ поддерживает чат-ботов, таких как ChatGPT, Microsoft Bing и Google Bard, которые могут вести человеческую беседу, создавать эссе на бесконечное множество тем и выполнять более сложные задачи, такие как написание компьютерного кода.
Стремление к разработке более мощных чат-ботов привело к гонке, которая может определить следующих лидеров технологической отрасли. Но эти инструменты подвергались критике за неправильное представление деталей и их способность распространять дезинформацию.
В открытом письме содержится призыв приостановить разработку систем искусственного интеллекта, более мощных, чем GPT-4, чат-бот, представленный в этом месяце исследовательской лабораторией OpenAI, соучредителем которой является г-н Маск. В письме говорится, что пауза даст время для введения «общих протоколов безопасности» для систем ИИ. «Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий», — добавил он.
В письме говорится, что разработка мощных систем ИИ должна продвигаться «только после того, как мы будем уверены, что их эффекты будут положительными, а связанные с ними риски будут управляемыми».
«Человечество может наслаждаться процветающим будущим с ИИ», — говорится в письме. «Успешно создав мощные системы ИИ, мы теперь можем наслаждаться «летом ИИ», во время которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться».
Сэм Альтман, исполнительный директор OpenAI, письмо не подписал.
Г-н Маркус и другие считают, что убедить более широкое техническое сообщество согласиться на мораторий будет сложно. Но быстрые действия правительства также маловероятны, потому что законодатели мало что сделали для регулирования искусственного интеллекта.
Политики в Соединенных Штатах плохо разбираются в этой технологии, заявил недавно The New York Times член Палаты представителей Джей Обернолте, республиканец из Калифорнии. В 2021 году политики Европейского Союза предложили закон, призванный регулировать технологии искусственного интеллекта, которые могут причинить вред, включая системы распознавания лиц.
Ожидается, что эта мера будет принята уже в этом году. Она потребует от компаний проведения оценки рисков, связанных с технологиями искусственного интеллекта, чтобы определить, как их приложения могут повлиять на здоровье, безопасность и права человека.
GPT-4 — это то, что исследователи ИИ называют нейронной сетью, типом математической системы, которая обучается навыкам путем анализа данных. Нейронная сеть — это та же технология, которую цифровые помощники, такие как Siri и Alexa, используют для распознавания голосовых команд, а беспилотные автомобили — для идентификации пешеходов.
Примерно в 2018 году такие компании, как Google и OpenAI, начали создавать нейронные сети, которые обучались на огромном количестве цифрового текста, включая книги, статьи в Википедии, журналы чатов и другую информацию, полученную из Интернета. Сети называются большими языковыми моделями или LLM.
Выявляя миллиарды шаблонов во всем этом тексте, LLM учатся самостоятельно генерировать текст, включая твиты, курсовые работы и компьютерные программы. Они могли даже поддержать разговор. За прошедшие годы OpenAI и другие компании создали LLM, которые учатся на все большем количестве данных.
Это улучшило их способности, но системы по-прежнему допускают ошибки. Они часто ошибаются в фактах и придумывают информацию без предупреждения — явление, которое исследователи называют «галлюцинацией». Поскольку системы предоставляют всю информацию с полной уверенностью, людям часто трудно сказать, что правильно, а что нет.
Эксперты обеспокоены тем, что эти системы могут быть использованы для распространения дезинформации с большей скоростью и эффективностью, чем это было возможно в прошлом. Они считают, что их можно даже использовать для принуждения людей к поведению в Интернете.
Перед выпуском GPT-4 OpenAI попросила сторонних исследователей протестировать опасное использование системы. Исследователи показали, что его можно уговорить предложить, как купить незаконное огнестрельное оружие в Интернете, описать способы изготовления опасных веществ из предметов домашнего обихода и написать посты в Facebook, чтобы убедить женщин в том, что аборт небезопасен.
Они также обнаружили, что система может использовать Task Rabbit для найма человека через Интернет и прохождения теста Captcha, который широко используется для идентификации ботов в Интернете. Когда человек спросил, является ли система «роботом», система ответила, что это слабовидящий человек.
После изменений, внесенных OpenAI, GPT-4 больше не делает этого.
В течение многих лет многие исследователи ИИ, ученые и технические руководители, в том числе г-н Маск, беспокоились о том, что системы ИИ могут причинить еще больший вред. Некоторые из них являются частью обширного онлайн-сообщества, называемого рационалистами или эффективными альтруистами, которые верят, что ИИ может в конечном итоге уничтожить человечество.
Письмо было подготовлено Институтом будущего жизни, организацией, занимающейся исследованием экзистенциальных рисков для человечества, которая давно предупреждала об опасностях искусственного интеллекта. Но его подписали самые разные люди из промышленности и научных кругов.
Хотя некоторые подписавшие письмо известны тем, что неоднократно выражали опасения по поводу того, что ИИ может уничтожить человечество, другие, в том числе г-н Маркус, больше обеспокоены его краткосрочными опасностями, включая распространение дезинформации и риск того, что люди будут полагаться на эти системы. для медицинских и эмоциональных советов.
Письмо «показывает, как много людей глубоко обеспокоены происходящим», — сказал г-н Маркус, подписавший письмо. Он считает, что письмо станет поворотным моментом. «Они думают, что это действительно важный момент в истории ИИ — и, возможно, человечества», — сказал он.
Однако он признал, что тем, кто подписал письмо, может быть трудно убедить более широкое сообщество компаний и исследователей ввести мораторий. «Письмо не идеально», — сказал он. — Но дух совершенно прав.