Сотни лидеров технологической отрасли, ученых и других общественных деятелей подписали открытое письмо, в котором предупреждали, что развитие искусственного интеллекта (ИИ) может привести к исчезновению, и заявляли, что контроль над технологиями должен быть главным глобальным приоритетом.
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война», — говорится в заявлении, опубликованном Центром безопасности ИИ в Сан-Франциско.
Краткое заявление в письме читается почти как вина за технологию, о которой ее создатели теперь объединяются, чтобы предупредить мир.
По иронии судьбы, среди наиболее видных подписавших в начале письма были Сэм Альтман, генеральный директор OpenAI, компании, которая создала чрезвычайно популярный чат-бот с генеративным искусственным интеллектом ChatGPT, а также Кевин Скотт, технический директор Microsoft, крупнейшего инвестора OpenAI. К ряду основателей и руководителей OpenAI также присоединились руководители, инженеры и ученые из исследовательской лаборатории искусственного интеллекта Google DeepMind.
Джеффри Хинтон, считающийся отцом ИИ за его вклад в технологию за последние 40 лет или около того, также подписал сегодняшнее письмо. Во время вопросов и ответов в Массачусетском технологическом институте в начале этого месяца Хинтон зашел так далеко, что сказал, что люди — не более чем переходный этап в развитии ИИ. Он также сказал, что в 70-х и 80-х годах было вполне разумно проводить исследования о том, как создавать искусственные нейронные сети. Но сегодняшние технологии — это как если бы генные инженеры решили улучшить медведей гризли, позволив им говорить по-английски и повысить их «IQ до 210».
Однако Хинтон сказал, что не сожалеет о том, что сыграл важную роль в создании ИИ. «На самом деле это было невозможно предвидеть — эту стадию этого нельзя было предвидеть. До недавнего времени я думал, что до этого экзистенциального кризиса еще далеко. Так что у меня нет никаких сожалений о том, что я сделал», — сказал Хинтон.
Ранее в этом месяце лидеры стран Большой семерки (G7) призвали к созданию технических стандартов для контроля над искусственным интеллектом (ИИ), заявив, что ИИ превзошел надзор за безопасностью и безопасностью. Слушания в Сенате США в начале этого месяца, на которых присутствовали показания Альтмана из OpenAI, также продемонстрировали множество явных и реальных опасностей, возникающих в результате эволюции ИИ.
«Заявление, подписанное Центром безопасности ИИ, действительно зловещее и беспрецедентное в технологической отрасли. Вы когда-нибудь слышали, чтобы технологические предприниматели говорили публике, что технология, над которой они работают, может уничтожить человечество, если ее не остановить?» сказал Авива Литан, вице-президент и выдающийся аналитик Gartner. «Тем не менее, они продолжают работать над этим из-за конкурентного давления».
Литан также отметил, что предприятия также сталкиваются с «краткосрочными и неминуемыми» рисками, связанными с использованием ИИ. «Они связаны с рисками дезинформации и дезинформации, а также с возможностью кибератак или социальных манипуляций, которые масштабируются гораздо быстрее, чем то, что мы видели в последнее десятилетие с социальными сетями и онлайн-торговлей», — сказала она. «Эти краткосрочные риски могут легко выйти из-под контроля, если их не остановить».
Краткосрочные риски, связанные с искусственным интеллектом, можно устранить и смягчить с помощью ограждений и технических решений. Она отметила, что долгосрочные экзистенциальные риски можно устранить посредством международного сотрудничества и регулирования со стороны правительств.
«Правительства действуют очень медленно, но технические инновации и решения — там, где это возможно — развиваются молниеносно, как и следовало ожидать», — сказал Литан. — Так что, кто знает, что ждет впереди.
Сегодняшнее письмо следует за аналогичным письмом, опубликованным в марте Институтом будущего жизни. В этом письме, подписанном соучредителем Apple Стивом Возняком, генеральным директором SpaceX Илоном Маском и еще почти 32 000 человек, содержится призыв к шестимесячной паузе в разработке ChatGPT, чтобы обеспечить более строгий контроль.
В мартовском письме содержится призыв к надзору и отслеживанию высокопроизводительных систем искусственного интеллекта и больших вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно демократии), которые вызовет ИИ.
Дэн Хендрикс, директор Центра безопасности ИИ, написал в последующая ветка твита сегодня, что существует «множество причин, по которым разработка ИИ может пойти не так, как пандемии могут быть вызваны бесхозяйственностью, плохими системами общественного здравоохранения, дикой природой и т. д. Подумайте о том, чтобы поделиться своими первоначальными мыслями о риске ИИ с помощью твита или поста, чтобы помочь начать разговор и чтобы мы могли коллективно исследовать эти источники риска».
Хендрикс также процитировал Роберта Оппенгеймера, физика-теоретика и отца атомной бомбы: «Мы знали, что мир не будет прежним». Хендрикс, однако, не упомянул, что атомная бомба была создана, чтобы остановить тиранию, с которой мир столкнулся из-за господства держав Оси во время Второй мировой войны.
Центр безопасности ИИ — это некоммерческая исследовательская организация из Сан-Франциско, заявленная миссия которой — «обеспечить безопасную разработку и внедрение ИИ».
«Мы считаем, что искусственный интеллект может принести огромную пользу миру при условии, что мы сможем безопасно разрабатывать и использовать его», — говорится на веб-странице группы.
Авторское право © 2023 IDG Communications, Inc.