По мнению Центра инновационных данных
политикам следует поощрять использование искусственного интеллекта при принятии кадровых решений, а не препятствовать ему.
В опубликованном в понедельник отчете глобальный аналитический центр призвал правительства поощрять внедрение ИИ и устанавливать ограждения для ограничения вреда.
«Доминирующим повествованием об ИИ является страх, поэтому директивным органам необходимо активно поддерживать развитие технологий», — говорится в заявлении автора отчета, политического аналитика Ходана Омара. «Законодателям крайне важно избегать вмешательства, которое является неэффективным, контрпродуктивным или вредным для инноваций».
В отчете поясняется, что инструменты с поддержкой ИИ могут поддерживать кадровые решения, помогая предприятиям управлять своими существующими сотрудниками, поскольку а также нанимать и нанимать новых.
Они также могут повысить производительность среди работодателей, например, за счет сокращения времени, необходимого для найма новых сотрудников, повышения уровня удержания и улучшения взаимодействия и командной динамики среди рабочих.
Кроме того, продолжает отчет, эти инструменты могут помочь работодателям уменьшить человеческие предубеждения при приеме на работу, принять решение о компенсации и другие решения, связанные с трудоустройством.
Содержание статьи
Проблемы ИИ, которые нужно решить
В отчете утверждается, что для успешного использования ИИ для принятия решений о кадровых ресурсах работодателям необходимо будет устранить потенциальные проблемы.
Некоторые из этих проблем включают обеспечение того, чтобы более широкое использование ИИ не усугубляло существующие предубеждения и неравенства, показатели, производимые инструментами ИИ, были справедливыми и точными, усиленный мониторинг сотрудников не был чрезмерно агрессивным, а обработка биометрических данных не раскрывала конфиденциальные личные данные. информация о сотрудниках, которую они могут пожелать сохранить в тайне, например данные об их эмоциях, здоровье или ограниченных возможностях.
Для решения этих проблем, говорится в отчете, несколько политиков и правозащитных групп призвали к новой государственной политике, которая применяет «принцип предосторожности» к ИИ, который гласит, что правительство должно ограничивать использование новых технологий до тех пор, пока они не будут признаны безопасными.
«Короче говоря, они выступают за ограничение использования ИИ, потому что считают, что лучше перестраховаться, чем сожалеть», — написал Омаар. . «Но эти политики приносят больше вреда, чем пользы, потому что они удорожают разработку ИИ, ограничивают тестирование и использование ИИ и даже запрещают некоторые приложения, тем самым снижая производительность, конкурентоспособность и инновации».
« Вместо этого, — отметила она, — директивным органам следует проложить путь к широкому внедрению ИИ на рабочих местах, возводя ограждения, где это необходимо, для ограничения вреда ».
Пособия для работодателей и сотрудников
Искусственный интеллект может принести пользу как работодателям, так и сотрудникам, — добавил Джулиан Санчес, старший научный сотрудник Института Катона, аналитического центра государственной политики в Вашингтоне, округ Колумбия
«В идеале ИИ может помочь предприятиям принимать как более эффективные решения — синтезируя и анализируя гораздо более детализированные данные, чем могут обработать человеческие менеджеры, — так и более справедливые решения, предоставляя единый механизм оценки сотрудников, который может помочь отфильтровать предубеждения отдельных менеджеров », — сказал он TechNewsWorld.
«Множество реальных приложений ИИ на рабочем месте также полезны для сотрудников — они помогают найти способы снизить производственные травмы или выгорание, а не просто повысить производительность», — добавил он.
Когда системы ИИ могут стать проблемой, люди становятся слишком зависимыми от них, — отметил Крейг Ле Клер, вице-президент и главный аналитик Forrester Research.
«Система становится черным ящиком для людей», — сказал он TechNewsWorld. «Они не могут объяснить, как было принято решение, поэтому не знают, было ли оно предвзятым или нет».
Смещение алгоритма
Санчес объяснил, что алгоритмы могут иметь предвзятость в ряде случаев. способами. Они могут воспроизвести предвзятость в данных, на которых они обучаются. Они также могут быть нечувствительны к обстоятельствам, о которых знают люди.
«В этом случае предвзятость распространяется на всю фирму или даже на весь сектор, если конкретный инструмент широко распространен — хотя при выявлении предубеждений их обычно легче исправить, чем их человеческие аналоги», — он сказал.
«Способность обрабатывать детализированные данные также может быть палкой о двух концах, потому что она обеспечивает уровень минутного мониторинга, который может казаться бесчеловечным», — продолжил Санчес.
«Может показаться, что важные решения, касающиеся вашей карьеры, зависят от непрозрачного алгоритма, который может быть непонятен сотруднику в том виде, в каком мы ожидаем от руководителей», — пояснил он.
Джон Кэри, управляющий директор технологической практики в глобальной консалтинговой компании AArete, добавил, что ИИ не может легко соответствовать опыт или инстинкт вокруг сотрудников, убедившись, что к ним относятся с сочувствием.
«Мы, люди, можем гораздо больше узнать о поведенческих проблемах из разговора, а не полагаться только на данные», — сказал он TechNewsWorld. «Поэтому важно, чтобы ИИ использовался как инструмент поддержки, а не полагался исключительно на него».
Важно качество данных
Джим МакГрегор, основатель и главный аналитик компании Tirias Research, занимающейся высокими технологиями. Исследовательская и консультационная фирма из Феникса, штат Аризона, объяснила, что работа инструмента искусственного интеллекта зависит от качества данных, которые он предоставляет, и предвзятости этой информации.
«Большая часть информации, поступающей в системы ИИ, будет поступать от сотрудников», — сказал он TechNewsWorld. «У всех, независимо от того, кто вы есть, есть предубеждения. Эти предубеждения трудно преодолеть ».
« ИИ — это инструмент, — сказал он. «Он не должен быть единственным инструментом, который работодатель использует для найма, увольнения или продвижения по службе».
«ИИ обладает потенциалом для улучшения кадровых решений, — добавил он, — но вы должны осознавать его положительные и отрицательные стороны при использовании его в качестве инструмента ».
Рекомендации для политиков
В своем отчете Омаар предложила восемь принципов, которыми руководствуются политики при принятии решений по ИИ:
- Сделать правительство одним из первых, кто применяет ИИ для принятия кадровых решений и делиться передовым опытом;
- Обеспечить, чтобы законы о защите данных поддерживали принятие ИИ для принятия кадровых решений;
- Обеспечить применение законов о недискриминации в сфере занятости независимо от того, применяются ли организация использует ИИ;
- Создание правил для защиты от новых рисков конфиденциальности в данных о персонале;
- Устранение проблем, связанных с системами ИИ для принятия решений о персонале на национальном уровне;
- Включить глобальное свободное плавание w данных о сотрудниках;
- Не регулируйте ввод систем ИИ, используемых для принятия кадровых решений; и
- Сосредоточьте внимание на работодателях, а не на поставщиках искусственного интеллекта.
Легкое прикосновение
Санчес поддержал легкое правительственное прикосновение, предложенное в рекомендациях Омара.
«Я склонен согласиться с отчетом CDI, что в большинстве случаев нам, вероятно, не нужны специальные правила ИИ, хотя может потребоваться некоторое время, чтобы выяснить, как применять существующие правила к решениям, принимаемым с помощью ИИ, — сказал он.
«Если есть что-то, что мы хотим потребовать или запретить работодателям делать, то на каком-то уровне не имеет значения, делают ли они эти вещи с помощью микропроцессоров или человеческого мозга — попытки напрямую регулировать дизайн программного обеспечения обычно являются ошибкой», — заметил он.
«Глупый всякий, кто думает, что может регулировать ИИ», — добавил МакГрегор.
«Если вы начнете навязывать ему правила, вы сделаете его неэффективным и ограничите инновации», — сказал он. «У вас будет больше минусов, чем плюсов».