Те из нас, кто последние несколько десятилетий писал о технологиях, видели, как причуды и мода поднимались и опускались на инвестиционных пузырях.
В конце 1990-х это были компании доткомов, а совсем недавно — криптовалюты, блокчейн, NFT, беспилотные автомобили, «метавселенная». У всех был свой день на солнце среди обещаний, что они изменят мир или, по крайней мере, банковское дело и финансы, искусство, транспорт, общество в целом. На сегодняшний день эти обещания поразительно невыполнены.
Это подводит нас к чат-ботам с искусственным интеллектом.
Через три-восемь лет у нас будет машина с общим интеллектом среднего человека… Через несколько месяцев она будет на уровне гения, а еще через несколько месяцев ее возможности будут неисчислимы.
— Пионер искусственного интеллекта Марвин Мински — в 1970 году.
С октября прошлого года, когда я поднял красный флаг по поводу ажиотажа в области искусственного интеллекта, энтузиазм инвесторов только вырос в геометрической прогрессии (как и опасения общественности).
Уолл-стрит и венчурные инвесторы вкладывают миллиарды долларов в стартапы ИИ — только Microsoft инвестировала 10 миллиардов долларов в OpenAI, фирму, которая создала бота ChatGPT.
Новостная рассылка
Получите последние новости от Майкла Хилцика
Комментарий по экономике и не только от лауреата Пулитцеровской премии.
Время от времени вы можете получать рекламные материалы от Los Angeles Times.
Компании, ищущие капитал, узнали, что им нужно всего лишь заявить о подключении к ИИ, чтобы привлечь инвесторов к своим дверям, подобно тому, как стартапы пару десятилетий назад напечатали «дотком» в своих бизнес-планах. Nvidia Corp. приобрела рыночную стоимость в триллион долларов благодаря производимому ею чипу, который считается критически важным для обработки данных, необходимых чат-ботам с искусственным интеллектом.
Промоутеры ИИ без ума от возможностей своих продуктов (и потенциальной прибыли).
Вот венчурный капиталист Марк Андриссен: Среди благ «нашей новой эры ИИ», — написал он недавно, — «каждый ребенок будет иметь наставника по ИИ, который бесконечно терпелив, бесконечно сострадателен, бесконечно осведомлен и бесконечно готов помочь»; каждый человек «ИИ-помощник/коуч/наставник/тренер/советник/терапевт»; каждый ученый «помощник/сотрудник/партнер по ИИ»; каждый политический лидер такой же сверхразумный помощник.
Об этом предсказании особо нечего сказать, кроме того, что оно мило в своей детской наивности, учитывая, что в современном мире мы до сих пор не можем обеспечить широкополосное интернет-соединение, которое появилось в 1990-х годах, для миллионов американцев. Удивитесь ли вы, узнав, что венчурная фирма Андреессен вложила средства в более чем 40 компаний, связанных с ИИ? И я нет.
Андреессен также писал: «Все, что сегодня люди делают с помощью своего естественного интеллекта, можно сделать намного лучше с помощью ИИ».
Это доказуемо неверно. Примеры того, как ИИ сбивает с толку ожидания пользователей, накапливаются почти каждую неделю.
Одним из самых известных случаев является случай с нью-йоркским юристом, который подал заявление в федеральный суд, ссылаясь или цитируя десятки фиктивных исков, сгенерированных ChatGPT. Когда судья приказал адвокату проверить цитаты, он спросил ChatGPT, были ли они на самом деле, что немного похоже на вопрос молодой матери, является ли ее ребенок самым очаровательным ребенком на свете. Бот сказал, конечно, еще одна «галлюцинация».
В конце концов, адвокат и его партнеры были оштрафованы на 5000 долларов и обязаны написать уничижительные письма с извинениями противным сторонам и всем судьям, которых бот ложно идентифицировал с поддельными делами. Он также проиграл судебный процесс.
Сообщений о других подобных фиаско предостаточно. Ассоциация расстройств пищевого поведения заменила людей, обслуживающих ее линию помощи, чат-ботом, возможно, в качестве шага против профсоюзов, но затем была вынуждена отключить бота, потому что, как сообщает Vice, он поощрял звонящих придерживаться «нездоровых пищевых привычек».
Профессор из Техаса завалил весь класс, потому что ChatGPT заявил, что является автором их статей. Администрация университета реабилитировала почти всех студентов после того, как доказала, что бот был неправ; кто-то даже отправил докторскую диссертацию профессора боту, который утверждал, что написал и это.
Заявления о способностях или опасностях чат-ботов с искусственным интеллектом часто оказывались ошибочными или химерическими.
Группа исследователей Массачусетского технологического института намеревалась обнаружить, что ChatGPT может превзойти школьные учебные программы по математике и информатике с «идеальной скоростью решения» на предметных тестах; их открытие было опровергнуто группой студентов Массачусетского технологического института. (Первоначальная статья была отозвана.) Открывающее глаза сообщение о том, что программа ИИ в симуляции ВВС «убила» своего оператора-человека для достижения запрограммированных целей (в стиле HAL) оказалась фикцией.
Поэтому полезно внимательно изучить, что могут и чего не могут делать чат-боты с искусственным интеллектом. Начнем с терминологии. Для этих программ термин «искусственный интеллект» является неправильным. Они не разумны в том смысле, в каком разумны люди и животные; они просто созданы для того, чтобы казаться умными постороннему, не подозревающему об электронных процессах, происходящих внутри. Действительно, использование самого термина искажает наше восприятие того, что они делают.
Эту проблему заметил Джозеф Вейценбаум, создатель новаторского чат-бота ELIZA, который настолько убедительно воспроизводил ответы психотерапевта, что даже испытуемые, которые знали, что разговаривают с машиной, думали, что она проявляет эмоции и сочувствие.
«Чего я не осознавал, — писал Вейценбаум в 1976 году, — так это того, что чрезвычайно короткие воздействия относительно простой компьютерной программы могут вызвать сильное бредовое мышление у вполне нормальных людей». Вейценбаум предупредил, что «безрассудная антропоморфизация компьютера» — то есть обращение с ним как с своего рода мыслящим компаньоном — породила «простодушный взгляд… на интеллект».
Даже самые передовые компьютеры не могли получать информацию, кроме как «кормлением с ложки», писал Вейценбаум. Это относится и к сегодняшним чат-ботам, которые получают свои данные путем «скрапинга» текста, найденного в Интернете; просто благодаря экспоненциальному росту вычислительной мощности их способность поглощать данные сейчас гораздо выше, чем в 1976 году.
Чат-боты, вызывающие сегодня такой большой интерес, — это то, что исследователи искусственного интеллекта называют «генеративным» искусственным интеллектом, который использует статистические правила для ответов на запросы путем экстраполяции данных, которые они ранее получили.
По своей сути, по словам австралийского технолога Дэвида Джерарда, ChatGPT представляет собой «поразительно увеличенное автозаполнение», похожее на программу обработки текстов, предсказывающую конец слова или предложения, которое вы начали печатать. Программа «просто выдает словосочетания на основе огромного количества обучающего текста».
Профессиональный энтузиазм по поводу этих программ — прогнозы о том, что они приблизили нас на один шаг к настоящему искусственному интеллекту, или что они способны к обучению, или что они таят в себе потенциал уничтожить человеческую расу — могут показаться беспрецедентными.
Но это не так. Такие же самоуверенные прогнозы — то, что Вайценбаум назвал «грандиозными фантазиями» — были частью мира ИИ с момента его зарождения. В 1970 году Марвин Мински из Массачусетского технологического института, один из крестных отцов ИИ, сказал журналу Time, что «через три-восемь лет у нас будет машина с общим интеллектом среднего человека… машина, которая сможет читать Шекспира, смазывать машину, играть в офисную политику, рассказывать анекдоты и драться. … Через несколько месяцев он будет на уровне гения, а еще через несколько месяцев его силы будут неисчислимы».
Мински и его современники в конце концов должны были признать, что программы, которые, казалось, демонстрировали безграничный потенциал, были хороши только в узких рамках. Это все еще правда.
ChatGPT может сочинять вульгарную поэзию или сочинения первокурсников и второкурсников, сдавать тесты по некоторым техническим предметам, писать пресс-релизы, составлять юридические документы с видимым профессионализмом.
Но все это общие классы письма; образцы, созданные людьми в этих категориях, часто имеют бессодержательный, роботизированный характер. Когда чат-ботов просят создать что-то действительно оригинальное или креативное, они терпят неудачу или, как выяснили эти незадачливые юристы, фабрикуют. (Когда Чарли Брукер, создатель телесериала «Черное зеркало», попросил ChatGPT написать сценарий, продукт оказался того качества, которое он назвал нецензурным эпитетом.)
Это может дать паузу предприятиям, которые надеются нанять чат-ботов для сокращения заработной платы людей. Когда они узнают, что им, возможно, придется нанять рабочих для проверки выходных данных чата, чтобы избежать гнева клиентов или даже судебных исков, они могут не так сильно хотеть возлагать на ботов даже рутинные обязанности, не говоря уже о критически важных заданиях.
В свою очередь, это может указывать на судьбу нынешнего инвестиционного безумия. «Оптимистичная весна 1960-х и начала 1970-х годов, — пишет Мелани Митчелл из Института Санта-Фе, — сменилась «зимой ИИ», когда государственное финансирование и общественный энтузиазм рухнули.
Еще один бум, на этот раз вокруг «экспертных систем», возник в начале 1980-х, но к концу десятилетия угас. («Когда я получил докторскую степень в 1990 году, мне посоветовали не использовать термин «искусственный интеллект» в заявлениях о приеме на работу», — пишет Митчелл.) Каждое десятилетие, казалось, имело свой подъем и спад.
Действительно ли ИИ опасен? Даже ужасающие предупреждения об опасностях технологии и необходимости регулирования выглядят как замаскированные рекламные кампании. Их скрытый мотив, пишет Райан Кало из Вашингтонского университетазаключается в том, чтобы «привлечь внимание общественности к надуманным сценариям, которые не требуют значительных изменений в их бизнес-моделях» и убедить общественность в том, что ИИ обладает уникальной мощью (при ответственном использовании).
Интересно, что Сэм Альтман, генеральный директор OpenAI, лоббировал Европейский Союз, чтобы тот не «чрезмерно регулировал» его бизнес. Правила ЕС, как это бывает, будут сосредоточены на краткосрочных проблемах, связанных с потерей рабочих мест, нарушением конфиденциальности и нарушением авторских прав.
Некоторые из этих опасений связаны с мотивами забастовок писателей и актеров, продолжающихся сейчас в Голливуде — члены профсоюза серьезно обеспокоены тем, что они могут потерять работу из-за ИИ-ботов, эксплуатируемых скупердяями-продюсерами и руководителями студий, которые думают, что зрители слишком тупы, чтобы понять, что происходит. разница между человеческим и роботизированным творчеством.
Сегодняшние предприниматели, занимающиеся искусственным интеллектом, как и их предшественники, вряд ли осознают, насколько сложно будет перейти от нынешнего класса чат-ботов к подлинному машинному интеллекту.
Представление о человеческом интеллекте как о продукте сотен триллионов нейронных связей в человеческом мозгу — число непостижимое. к человеческий мозг — приводит некоторых исследователей ИИ к предположению, что как только их программы достигнут такого масштаба, их машины станут сознательными. Это последние сложные проблемы в достижении интеллекта, а тем более сознания, которые могут оказаться непреодолимыми: исследователи человечества даже не пришли к соглашению по определению интеллекта и не смогли определить местонахождение сознания.
Есть ли разумная роль в нашей жизни для чат-ботов? Ответ — да, если они рассматриваются как инструменты для улучшения обучения, а не для обмана; учителя беспокоятся о выявлении заданий, созданных в чате, но со временем они будут использовать те же методы, что и для выявления плагиата, — сравнивая продукт с тем, что им известно о способностях их ученика, и отбрасывая те, которые выглядят слишком отполированными (или имеют идентифицируемые ошибки).
ChatGPT может помочь студентам, писателям, юристам и врачам упорядочивать большие объемы информации или данных, чтобы помочь в изложении идей или творческих идей. Это может быть полезно так же, как умные учителя советуют учащимся использовать другие веб-ресурсы с очевидными ограничениями, такие как Википедия: они могут быть первым местом, к которому обращаются при подготовке задания, но лучше не последними.