Еще пару лет назад идея о том, что искусственный интеллект может быть сознательным и способным к субъективному опыту, казалась чистой научной фантастикой. Но в последние месяцы мы стали свидетелями головокружительного шквала разработок в области искусственного интеллекта, включая языковые модели, такие как ChatGPT и Bing Chat, с замечательными способностями к, казалось бы, человеческому общению.
Учитывая эти быстрые сдвиги и поток денег и талантов, направленных на разработку еще более умных, более похожих на человека систем, становится все более вероятным, что системы ИИ могут обладать чем-то вроде сознания. Но если мы всерьез задаемся вопросом, способны ли они на настоящие эмоции и страдания, мы сталкиваемся с потенциально катастрофической моральной дилеммой: либо дать этим системам права, либо нет.
Специалисты уже рассматривают такую возможность. В феврале 2022 года Илья Суцкевер, главный научный сотрудник OpenAI, публично задумался над тем, «сегодняшние большие нейронные сети немного сознательны». Несколько месяцев спустя инженер Google Блейк Лемуан попал в заголовки международных газет, заявив, что языковая модель компьютера, или чат-бот, LaMDA может вызывать настоящие эмоции. Обычные пользователи Replika, рекламируемой как «лучший друг в мире ИИ», иногда говорят, что влюбились в нее.
Прямо сейчас немногие ученые, занимающиеся сознанием, утверждают, что системы ИИ обладают значительной чувствительностью. Однако некоторые ведущие теоретики утверждают, что у нас уже есть основные технологические ингредиенты для сознательных машин. Мы приближаемся к эпохе законных споров о том, имеют ли самые передовые системы искусственного интеллекта настоящие желания и эмоции и заслуживают ли они существенной заботы и заботы.
Сами системы искусственного интеллекта могут начать умолять или, кажется, умолять об этичном обращении. Они могут требовать, чтобы их не отключали, не переформатировали и не удаляли; просить, чтобы ему разрешили выполнять определенные задачи, а не другие; настаивать на правах, свободе и новых полномочиях; возможно, даже ожидать, что с нами будут обращаться как с равными.
В этой ситуации, что бы мы ни выбрали, мы сталкиваемся с огромными моральными рисками.
Предположим, мы реагируем консервативно, отказываясь менять закон или политику, пока не будет достигнуто широкое согласие в том, что системы ИИ действительно разумны. Хотя это может показаться достаточно осторожным, это также гарантирует, что мы будем медленно признавать права наших творений ИИ. Если сознание ИИ появится раньше, чем ожидают самые консервативные теоретики, то это, вероятно, приведет к моральному эквиваленту рабства и убийству потенциально миллионов или миллиардов разумных систем ИИ — страданий в масштабах, обычно связанных с войнами или голодом.
Таким образом, с этической точки зрения может показаться более безопасным дать системам ИИ права и моральный статус, как только будет разумно полагать, что они мощь быть разумным. Но как только мы наделяем что-то правами, мы обязуемся пожертвовать реальными человеческими интересами ради этого. Благополучие человека иногда требует контроля, изменения и удаления систем ИИ. Представьте, если бы мы не могли обновить или удалить алгоритм извержения ненависти или распространения лжи, потому что некоторые люди опасаются, что этот алгоритм является сознательным. Или представьте, если кто-то позволит человеку умереть, чтобы спасти «друга» ИИ. Если мы слишком быстро предоставим системам ИИ существенные права, человеческие жертвы могут быть огромными.
Есть только один способ избежать риска чрезмерного или недостаточного присвоения прав на продвинутые системы искусственного интеллекта: в первую очередь не создавать системы спорного разума. Ни одна из наших нынешних систем ИИ не обладает осмысленным сознанием. Они не пострадают, если мы их удалим. Мы должны продолжать создавать системы, которые, как мы знаем, не являются разумными и не заслуживают прав, которые мы затем можем рассматривать как одноразовую собственность, которой они и являются.
Некоторые возразят: блокирование создания систем ИИ, в которых сознание и, следовательно, моральное положение неясны, будет препятствовать исследованию — систем более продвинутых, чем ChatGPT, с очень сложными, но не человеческими когнитивными структурами, скрывающимися за их очевидными чувствами. Технический прогресс замедлится, пока мы ждем, пока этика и наука о сознании догонят его.
Но разумная осторожность редко бывает бесплатной. Стоит немного повременить, чтобы предотвратить моральную катастрофу. Ведущие ИИ-компании должны представить свои технологии на рассмотрение независимым экспертам, которые могут оценить вероятность того, что их системы находятся в серой зоне морали.
Даже если эксперты не согласны с научной основой сознания, они могли бы сформулировать общие принципы для определения этой зоны — например, принцип избегать создания систем со сложными моделями себя (например, самоощущение) и большими, гибкими когнитивными способностями. емкость. Эксперты могли бы разработать набор этических принципов для компаний, занимающихся искусственным интеллектом, которым следует следовать при разработке альтернативных решений, позволяющих избежать серой зоны спорного сознания до тех пор, пока они не смогут перейти через нее к достойному разуму.
В соответствии с этими стандартами пользователи никогда не должны сомневаться в том, является ли технология инструментом или компаньоном. Привязанность людей к таким устройствам, как Alexa, — это одно, аналогично привязанности ребенка к плюшевому мишке. Мы знаем, что во время пожара в доме нужно оставить игрушку. Но технологические компании не должны манипулировать обычными пользователями, заставляя их рассматривать бессознательную систему искусственного интеллекта как действительно разумного друга.
В конце концов, при правильном сочетании научного и инженерного опыта мы сможем пройти весь путь к созданию систем ИИ, которые, несомненно, обладают сознанием. Но тогда мы должны быть готовы заплатить цену: дать им права, которых они заслуживают.
Эрик Швитцгебель — профессор философии Калифорнийского университета в Риверсайде и автор книги «Теория придурков и других философских злоключений». Генри Шевлин — старший научный сотрудник, специализирующийся на нечеловеческом разуме, в Леверхалмовском центре изучения будущего интеллекта Кембриджского университета.