Более одной из трех компаний (36 процентов) сообщили, что они понесли убытки из-за предвзятости ИИ в одном или нескольких алгоритмах, отмечается в опросе DataRobot, в котором приняли участие более 350 технологов из США и Великобритании, включая ИТ-директоров, ИТ-директоров, ИТ-менеджеров, специалистов по обработке данных. ученые и ведущие разработчики, которые используют или планируют использовать ИИ.
Из компаний, пострадавших от предвзятости ИИ, более половины потеряли доход (62%) или клиентов (61%), почти половина потеряла сотрудников (43%) и более трети понесли судебные издержки в результате судебных разбирательств (35%). согласно исследованию, проведенному в сотрудничестве со Всемирным экономическим форумом и мировыми академическими лидерами.
Предвзятый ИИ может повлиять на доходы несколькими способами, говорит Кей Ферт-Баттерфилд, глава отдела ИИ и машинного обучения и член исполнительного комитета Всемирного экономического форума, международной неправительственной и лоббистской организации, базирующейся в Колони. , Швейцария.
«Если вы выберете не того человека с помощью предвзятого алгоритма управления персоналом, это может повлиять на доходы», — сказала она TechNewsWorld.
«Если вы даете деньги взаймы и у вас есть предвзятый алгоритм, вы не сможете развивать свой бизнес, потому что вы всегда будете давать взаймы небольшой группе людей, которым вы всегда давали деньги взаймы», — добавила она.
Непреднамеренный, но все же вредный
Участники опроса также показали, что алгоритмы, используемые их организациями, непреднамеренно способствовали предвзятому отношению к людям по полу (34 процента), возрасту (32 процента), расе (29 процентов), сексуальная ориентация (19 процентов) и религия (18 процентов).
«Дискриминация на основе ИИ — даже если она непреднамеренная — может иметь серьезные последствия для регулирования, репутации и доходов», — предупредил Forrester в недавнем отчете о справедливости ИИ.
«Хотя большинство организаций придерживаются справедливости в ИИ как принцип, внедрение процессов для его последовательного применения является сложной задачей», — продолжил он. «Существует несколько критериев для оценки справедливости систем ИИ, и определение правильного подхода зависит от варианта использования и его социального контекста». Мэтью Фини, директор проекта по новым технологиям в Институте Катона, аналитический центр в Вашингтоне, округ Колумбия, объяснил, что предвзятость ИИ сложна, но предвзятость, которую многие люди приписывают системам ИИ, является продуктом данных, используемых для обучения системы.
«Одним из самых известных применений ИИ в новостях в наши дни является распознавание лиц», — сказал он TechNewsWorld. «Было широко распространено документальное подтверждение расовой предвзятости при распознавании лиц.
“ пытаясь идентифицировать чернокожих», — пояснил он. «Это происходит, когда система обучается фотографиям, которые не представляют достаточное количество людей из определенной расовой группы, или фотографии этой группы не имеют хорошего качества».
со стороны инженеров и дизайнеров, но является продуктом данных, используемых для обучения системы», — сказал он.
«Люди, которые создают алгоритмы, привносят свои предубеждения в создание этих алгоритмов», — добавил Ферт-Баттерфилд. «Если алгоритм создается 30-летним белым мужчиной, предубеждения, которые он привносит, скорее всего, будут отличаться от предубеждений 30-летней афроамериканки». Против дискриминации
Дэниел Кастро, вице-президент Фонда информационных технологий и инноваций, исследовательской и общественной организации в Вашингтоне, округ Колумбия, утверждал, что люди играют быстро и свободно с термином предвзятость ИИ.
«Я бы определил предвзятость ИИ как постоянную ошибку в точности алгоритма, то есть разницу между оценкой и ее истинным значением», — сказал он TechNewsWorld.
«Большинство компаний имеют сильные рыночные стимулы для устранения предвзятости в системах ИИ, потому что они хотят, чтобы их алгоритмы были точными», — сказал он.
«Например, — продолжил он, — если алгоритм неправильно рекомендует покупателю оптимальный продукт, то компания оставляет деньги на столе для конкурента».
причины, по которым компании хотят устранить предвзятость ИИ, поскольку их продукты или услуги могут рассматриваться как некачественные», — добавил он.
Он объяснил, что иногда рыночные силы, направленные на устранение предвзятости, неэффективны.
«Например, если государственное учреждение использует алгоритм для оценки стоимости имущества для целей налогообложения, может не быть хорошего рыночного механизма для исправления предвзятости», — пояснил он. «В этих случаях правительство должно обеспечить альтернативный надзор, например, с помощью мер прозрачности». НЕ ХОРОШО «/>