На прошлой неделе кто есть кто из технологов призвал лаборатории искусственного интеллекта (ИИ) прекратить обучение самых мощных систем ИИ как минимум на шесть месяцев, сославшись на «серьезные риски для общества и человечества».
В открытом письме, которое на данный момент подписали более 2100 человек, включая соучредителя Apple Стива Возняка, технические лидеры призвали, в частности, недавно анонсированный алгоритм GPT-4 от OpenAI Lab из Сан-Франциско, заявив, что компания должна приостановить дальнейшую разработку до тех пор, пока не будут приняты стандарты надзора. на месте. Эта цель поддерживается технологами, генеральными и финансовыми директорами, аспирантами, психологами, врачами, разработчиками программного обеспечения и инженерами, профессорами и учителями государственных школ со всего мира.
В пятницу Италия стала первой западной страной, запретившей дальнейшее развитие ChatGPT из соображений конфиденциальности; В прошлом месяце в приложении для обработки естественного языка произошла утечка данных, включая разговоры пользователей и платежную информацию. ChatGPT — популярный чат-бот на основе GPT, созданный OpenAI и поддерживаемый Microsoft на миллиарды долларов.
Итальянский орган по защите данных заявил, что также расследует, нарушил ли уже чат-бот OpenAI правила Общего регламента ЕС по защите данных, созданные для защиты персональных данных внутри и за пределами ЕС. Согласно сообщению BBC, OpenAI соблюдает новый закон.
Многие в технологическом сообществе ожидают, что GPT, расшифровывающийся как Generative Pre-trained Transformer, станет GPT-5 — и эта версия будет общим искусственным интеллектом, или AGI. AGI представляет собой ИИ, который может думать сам за себя, и в этот момент алгоритм будет продолжать экспоненциально становиться умнее с течением времени.
Примерно в 2016 году в моделях обучения ИИ появилась тенденция, которая была на два-три порядка больше, чем в предыдущих системах, по данным исследовательской группы Epoch, пытающейся спрогнозировать развитие преобразующего ИИ. Эта тенденция сохранилась.
По словам Хайме Севилья, директора Epoch, в настоящее время нет систем искусственного интеллекта, превышающих GPT-4 с точки зрения обучающих вычислений. Но это изменится.
Объем крупномасштабных моделей машинного обучения для ИИ с каждым годом увеличивается более чем вдвое.
Энтони Агирре, профессор физики Калифорнийского университета в Санта-Крузе и исполнительный вице-президент Future of Life, некоммерческой организации, опубликовавшей открытое письмо разработчикам, сказал, что нет оснований полагать, что GPT-4 не будет продолжаться более удваивать вычислительные возможности каждый год.
«Самые масштабные вычисления увеличиваются примерно в 2,5 раза в год. Параметры GPT-4 не были раскрыты OpenAI, но нет оснований полагать, что эта тенденция остановилась или даже замедлилась», — сказал Аквирре. «Только сами лаборатории знают, какие вычисления они проводят, но тенденция безошибочна».
В своем блоге, выходящем раз в две недели 23 марта, соучредитель Microsoft Билл Гейтс назвал AGI, способный изучить любую задачу или предмет, «великой мечтой компьютерной индустрии».
«AGI еще не существует — в компьютерной индустрии ведутся активные дебаты о том, как его создать и можно ли его вообще создать», — написал Гейтс. «Теперь, с появлением машинного обучения и больших вычислительных мощностей, сложные ИИ стали реальностью, и они будут улучшаться очень быстро».
Мудду Судхакар, генеральный директор Aisera, компании, занимающейся генеративным искусственным интеллектом для предприятий, сказал, что существует лишь несколько компаний, ориентированных на достижение AGI, таких как OpenAI и DeepMind (при поддержке Google), хотя они обладают «огромным количеством финансовых и технических ресурсов».
По его словам, даже в этом случае им предстоит пройти долгий путь, чтобы добраться до AGI.
«Существует так много задач, которые системы ИИ не могут выполнить, но люди могут делать естественным образом, например, рассуждать на основе здравого смысла, знать, что такое факт, и понимать абстрактные понятия (такие как справедливость, политика и философия)», — сказал Судхакар в электронном письме. Компьютерный мир. «Для ОИИ потребуется много прорывов и инноваций. Но если это будет достигнуто, похоже, что эта система в основном заменит людей.
«Это, безусловно, будет разрушительным, и потребуется много ограждений, чтобы помешать AGI получить полный контроль», — сказал Судхакар. «Но пока это, вероятно, в далеком будущем. Это больше из области научной фантастики».
Не все согласны.
Технологии искусственного интеллекта и помощники чат-ботов были и будут продолжать проникать почти во все отрасли. Технология может повысить эффективность и взять на себя рутинные задачи, освобождая работников умственного труда и других лиц, чтобы они могли сосредоточиться на более важной работе.
Например, большие языковые модели (LLM) — алгоритмы, лежащие в основе чат-ботов, — могут просеивать миллионы предупреждений, онлайн-чатов и электронных писем, а также находить фишинговые веб-страницы и потенциально вредоносные исполняемые файлы. Чат-боты на базе LLM могут писать эссе, проводить маркетинговые кампании и предлагать компьютерный код, и все это с помощью простых пользовательских подсказок (предложений).
Чат-боты на основе LLM — это процессоры естественного языка, которые в основном предсказывают следующие слова после запроса пользователя. Таким образом, если пользователь попросит чат-бота написать стихотворение о человеке, сидящем на пляже в Нантакете, ИИ просто соединит вместе слова, предложения и абзацы, которые являются лучшими ответами на основе предыдущего обучения программистов.
Но LLM также совершали громкие ошибки и могут вызывать «галлюцинации», когда двигатели следующего поколения сходят с рельсов и дают странные ответы.
Если ИИ, основанный на LLM с миллиардами настраиваемых параметров, может сойти с ума, насколько больше будет риск, когда ИИ больше не будет нуждаться в людях для обучения, и он сможет думать сам? По словам Авивы Литан, вице-президента и выдающегося аналитика Gartner Research, ответ намного шире.
Литан считает, что лаборатории по разработке ИИ движутся вперед с головокружительной скоростью без какого-либо надзора, что может привести к тому, что ОИИ станет неуправляемым.
Лаборатории искусственного интеллекта, по ее словам, «продвинулись вперед, не предоставив пользователям надлежащих инструментов для наблюдения за тем, что происходит. Я думаю, что это происходит намного быстрее, чем кто-либо ожидал», — сказала она.
Текущая проблема заключается в том, что технология искусственного интеллекта для использования корпорациями выпускается без инструментов, необходимых пользователям для определения того, генерирует ли технология точную или неточную информацию.
«Сейчас мы говорим обо всех хороших парнях, у которых есть все эти инновационные возможности, но они есть и у плохих парней», — сказал Литан. «Итак, мы должны иметь эти системы маркировки воды и знать, что настоящее, а что синтетическое. И мы не можем полагаться на обнаружение, нам нужна аутентификация контента. В противном случае дезинформация будет распространяться со скоростью лесного пожара».
Например, на этой неделе Microsoft запустила Security Copilot, основанную на большой языковой модели OpenAI GPT-4. Инструмент представляет собой чат-бот с искусственным интеллектом для экспертов по кибербезопасности, который помогает им быстро обнаруживать угрозы и реагировать на них, а также лучше понимать общий ландшафт угроз.
Проблема в том, что «вы, как пользователь, должны зайти и выявить любые ошибки, которые он допускает», — сказал Литан. «Это неприемлемо. У них должна быть какая-то система подсчета очков, которая говорит, что этот вывод, вероятно, будет верным на 95%, и поэтому вероятность ошибки составляет 5%. И у этого есть 10%-ая вероятность ошибки. Они не дают вам никакого представления о производительности, чтобы понять, можно ли доверять этому или нет».
Более серьезной проблемой в не столь отдаленном будущем является то, что OpenAI, создатель GPT-4, выпустит версию с поддержкой AGI. В этот момент может быть слишком поздно обуздать технологию.
Одно из возможных решений, предложил Литан, — выпустить две модели для каждого генеративного инструмента ИИ — одну для генерации ответов, другую для проверки первой на точность.
«Это может действительно хорошо помочь в том, чтобы убедиться, что модель выпускает что-то, чему вы можете доверять», — сказала она. «Вы не можете ожидать, что человек просмотрит весь этот контент и решит, что правда, а что нет, но если вы дадите им другие модели, которые проверяют… это позволит пользователям контролировать производительность».
В 2022 году Время сообщил, что OpenAI передал услуги низкооплачиваемым работникам в Кении, чтобы определить, производит ли его GPT LLM безопасную информацию. Сообщается, что работникам, нанятым Sama, базирующейся в Сан-Франциско фирме, платили 2 доллара в час, и они должны были просматривать ответы приложений GPT, «которые были склонны к высказыванию насильственных, сексистских и даже расистских замечаний».
— И вот как ты нас защищаешь? Платить людям по 2 доллара в час и болеть. Это совершенно неэффективно и совершенно аморально, — сказал Литан.
«Разработчикам ИИ необходимо работать с политиками, и среди них должны быть как минимум новые и дееспособные регулирующие органы», — продолжил Литан. «Я не знаю, доберемся ли мы когда-нибудь до этого, но регулирующие органы не могут справиться с этим, и это было предсказано много лет назад. Нам нужно придумать новый тип власти».
Шубхам Мишра, соучредитель и глобальный генеральный директор стартапа Pixis в сфере ИИ, считает, что, хотя прогресс в его области «не может и не должен останавливаться», призыв к паузе в развитии ИИ оправдан. Генеративный ИИ, по его словам, способен сбить с толку массы, передавая пропаганду или «трудно различимую» информацию в открытый доступ.
«Что мы можем сделать, так это спланировать этот прогресс. Это возможно только в том случае, если все мы взаимно согласимся приостановить эту гонку и сосредоточить ту же энергию и усилия на создании руководств и протоколов для безопасной разработки более крупных моделей ИИ», — сказал Мишра в электронном письме. Компьютерный мир.
«В данном конкретном случае требуется не общий запрет на разработку ИИ, а временная пауза в создании более крупных и непредсказуемых моделей, конкурирующих с человеческим интеллектом», — продолжил он. «Ошеломляющие темпы, с которыми разрабатываются новые мощные инновации и модели искусственного интеллекта, определенно требуют, чтобы технические лидеры и другие специалисты объединились для разработки мер безопасности и протоколов».
Авторское право © 2023 IDG Communications, Inc.