По мере того, как искусственный интеллект стремится к повседневному внедрению, эксперты снова собрались вместе, чтобы выразить беспокойство по поводу потенциальной способности технологий причинить вред или даже покончить с человеческой жизнью.
Через два месяца после того, как Илон Маск и многие другие специалисты в этой области подписали в марте письмо с призывом приостановить разработку ИИ, другая группа, состоящая из сотен бизнес-лидеров и ученых, занимающихся вопросами ИИ, подписала новое заявление Центра безопасности ИИ, согласно которому служит для того, чтобы «выразить обеспокоенность по поводу некоторых наиболее серьезных рисков продвинутого ИИ».
Согласно веб-сайту некоммерческой организации, новое заявление, состоящее всего из одного предложения, призвано «открыть дискуссию» и подчеркнуть растущий уровень беспокойства среди тех, кто наиболее разбирается в технологии. Полный текст заявления гласит: «Снижение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Среди известных подписантов документа Демис Хассабис, исполнительный директор Google DeepMind, и Сэм Альтман, исполнительный директор OpenAI.
Хотя заявления о надвигающейся гибели искусственного интеллекта не новы, недавние разработки в области генеративного ИИ, такие как общедоступный инструмент ChatGPT, разработанный OpenAI, проникли в общественное сознание.
Центр безопасности ИИ делит риски ИИ на восемь категорий. Среди опасностей, которые он предвидит, — химическое оружие, разработанное искусственным интеллектом, персонализированные кампании по дезинформации, полная зависимость людей от машин и синтетические умы, эволюционирующие за пределы того, что люди могут их контролировать.
Джеффри Хинтон, пионер искусственного интеллекта, подписавший новое заявление, ушел из Google в начале этого года, заявив, что хочет свободно говорить о своих опасениях по поводу потенциального вреда от систем, подобных тем, которые он помогал разрабатывать.
«Трудно понять, как можно помешать плохим актерам использовать его в плохих целях», — сказал он New York Times.
Мартовское письмо не содержало поддержки со стороны руководителей крупных игроков в области ИИ и пошло значительно дальше, чем более новое заявление, призывающее к добровольной шестимесячной паузе в разработке. После того, как письмо было опубликовано, Маск, как сообщалось, поддерживал своего собственного конкурента ChatGPT, «TruthGPT».
Технический писатель Алекс Кантровиц отметил в Твиттере что финансирование Центра безопасности ИИ было непрозрачным, предполагая, что кампания в СМИ вокруг опасности ИИ может быть связана с призывами руководителей ИИ к усилению регулирования. В прошлом компании, работающие в социальных сетях, такие как Facebook, использовали аналогичный сценарий: спросите о регулировании, а затем получите место за столом, когда законы будут написаны.
Центр безопасности ИИ не сразу ответил на просьбу прокомментировать источники его финансирования.
Вопрос о том, представляет ли эта технология серьезный риск, еще предстоит обсудить, писал в марте технический обозреватель Times Брайан Мерчант. Он утверждал, что для кого-то в положении Альтмана «апокалиптические роковые заявления об ужасающей силе ИИ служат вашей маркетинговой стратегии».