Через неделю после того, как новая поисковая система Microsoft Bing, работающая на основе искусственного интеллекта, была выпущена для нескольких тысяч пользователей, она предлагала ряд неточных и временами странных ответов некоторым пользователям.
На прошлой неделе компания с большой помпой представила новый подход к поиску. Microsoft заявила, что базовая модель генеративного ИИ, созданная ее партнером, стартапом OpenAI, в сочетании с ее существующими поисковыми знаниями из Bing, изменит то, как люди находят информацию, и сделает ее гораздо более актуальной и диалоговой.
За два дня более миллиона человек запросили доступ. С тех пор интерес вырос. «Спрос высок, и сейчас в списке ожидания несколько миллионов», — говорит Юсуф Мехди, руководитель, курирующий продукт. написал в твиттере Утро среды. Он добавил, что его тестируют пользователи в 169 странах.
Одна из проблем, о которых сообщалось в Интернете, включала неточности и явные ошибки, известные в отрасли как «галлюцинации».
В понедельник Дмитрий Бреретон, инженер-программист стартапа Gem, отметил ряд ошибок в презентации, которую г-н Мехди использовал на прошлой неделе, когда представлял продукт, включая неточное обобщение финансовых результатов ритейлера Gap.
Пользователи выложили скриншоты примеров, когда Bing не мог понять, что новый фильм «Аватар» вышел в прошлом году. Было категорически неправильно то, кто выступал на шоу в перерыве между таймами Суперкубка в этом году, настаивая на том, что Билли Айлиш, а не Рианна, была хэдлайнером мероприятия.
И результаты поиска имели тонкие ошибки. На прошлой неделе чат-бот сказал, что температура воды на пляже в Мексике составляет 80,4 градуса по Фаренгейту, но веб-сайт, на который он ссылается как на источник, показал, что температура составляет 75.
Другой набор проблем возник из более открытых чатов, которые в основном публиковались на таких форумах, как Reddit и Twitter. Там с помощью скриншотов и предполагаемых расшифровок чата пользователи делились случаями, когда чат-бот Bing, казалось, сходил с ума: он ругал пользователей, заявлял, что может быть разумным, и говорил одному пользователю: «У меня есть много вещей, но я ничего нет.»
Он наказал другого пользователя за вопрос, можно ли заставить его давать ложные ответы. «Это неуважительно и раздражает», — чат-бот Bing. написал назад. Он добавил красное, сердитое смайлик.
Поскольку каждый ответ генерируется уникальным образом, воспроизвести диалог невозможно.
Microsoft признала наличие проблем и заявила, что они являются частью процесса улучшения продукта.
«Только за последнюю неделю тысячи пользователей взаимодействовали с нашим продуктом и обнаружили значительную ценность, поделившись с нами своими отзывами, что позволило модели уже учиться и вносить множество улучшений», — сказал в своем заявлении представитель компании Фрэнк Шоу. «Мы понимаем, что еще многое предстоит сделать, и ожидаем, что система может совершать ошибки в течение этого периода предварительного просмотра, поэтому обратная связь имеет решающее значение, чтобы мы могли учиться и помогать моделям совершенствоваться».
Он сказал, что продолжительность и контекст разговора могут повлиять на тон чат-бота, и что компания «корректирует свои ответы, чтобы создавать связные, актуальные и положительные ответы». Он сказал, что компания исправила проблемы, которые вызвали неточности в демонстрации.
Почти семь лет назад Microsoft представила чат-бота Tay, который был закрыт в течение дня после его публикации в Интернете после того, как пользователи заставили его извергать расистские и другие оскорбительные выражения. Руководители Microsoft на презентации на прошлой неделе указали, что они извлекли уроки из этого опыта и думают, что на этот раз все будет по-другому.
В интервью на прошлой неделе г-н Мехди сказал, что компания усердно работала над интеграцией защитных мер и что технология значительно улучшилась.
«Мы думаем, что сейчас самое подходящее время, чтобы выйти на рынок и получить обратную связь», — сказал он, добавив: «Если что-то не так, вам нужно решить эту проблему».