Компании, которые нанимают «рабочих», должны будут обеспечить большую прозрачность в использовании алгоритмического управления и мониторинга в соответствии с правилами, предложенными Европейской Комиссией на прошлой неделе. По мнению экспертов по рабочим местам, правила, если они вступят в силу, должны быть распространены на всех работников, подлежащих управлению с помощью автоматизированных систем.
Как и в случае с другим законодательством Европейского Союза, правила повлияют на американские компании с рабочими местами на рабочем месте.
Директивные предложения Комиссии по алгоритмическому управлению были одним из трех наборов мер, объявленных на прошлой неделе, включая предоставление статуса сотрудника тем, кто работает с «цифровыми платформами труда». В эту группу входят фирмы, занимающиеся вызовом пассажиров, такие как Uber и Lyft, а также компании по доставке, такие как Deliveroo, и неформальные платформы для оказания домашних услуг, такие как TaskRabbit.
По оценкам Комиссии, в ЕС работает 28 миллионов гигантов. сказал, что их число вырастет до 43 миллионов в 2025 году.
Предложения по алгоритмическому управлению нацелены на обеспечение большей защиты работников от любых негативных эффектов автоматизированных систем, используемых для управления различными аспектами работы.
«Это шаг вперед в осознании рисков, которые порождаются алгоритмическим управлением, и более внимательный подход, чем то, что исходило от Комиссии до сих пор», — сказал Валерио Де Стефано, профессор трудового права в Бельгии. Левенский университет
Содержание статьи
Объяснение алгоритмического управления
Алгоритмическое управление — ключевой компонент цифровых рабочих платформ. Он включает в себя инструменты и методы, используемые для автоматизации аспектов координации работника, таких как распределение задач и отслеживание производительности, и полагается на сбор данных и наблюдение вместо человеческого надзора.
Однако использование алгоритмического управления вызвало озабоченность по поводу способность систем «черного ящика» контролировать и оценивать работников, с небольшой возможностью для работников оспаривать решения.
Пагубные последствия Алгоритмическое управление и мониторинг рабочих платформ были освещены в отчете парламента Великобритании в прошлом месяце. «В частности, повсеместные технологии мониторинга и постановки целей связаны с выраженным негативным воздействием на психическое и физическое благополучие, поскольку работники испытывают крайнее давление постоянного микроменеджмента в реальном времени и автоматизированной оценки», — заявили члены Всепартийного парламента. группа в своем отчете «Новые рубежи: искусственный интеллект в действии».
Автоматическое распределение задач и измерение производительности по своей сути не является проблематичным, сказала Хелен Пойтвин, вице-аналитик Gartner, но проблемы могут возникнуть из-за чрезмерного доверия на технологии и слишком мало человеческого взаимодействия. «Это когда у вас нет никакой системы поддержки, которая помогала бы [workers] расти и учиться, или у вас есть куда обратиться, если машины неисправны и вам нужно иметь возможность поднять флаг», — сказала она. «У вас должна быть поддержка».
Предложения Комиссии сосредоточены на большей прозрачности в отношении использования инструментов алгоритмического управления для рабочих групп. Это включает:
- Информирование рабочих о том, как автоматизированные системы используются для принятия решений и действий, которые «существенно влияют» на условия труда.
- Ограничения на сбор данных о работниках, которые не являются строго необходимыми, особенно в отношении личных разговоров или данных, касающихся здоровья или эмоционального состояния.
- Надзор за автоматизированными системами со стороны человека. Это включает в себя оценки, чтобы гарантировать, что работники не сталкиваются с психологическими рисками и рисками для здоровья, вызванными алгоритмическим принятием решений.
- Предоставление работникам возможности оспаривать автоматизированные решения, влияющие на их работу. Это было проблемой для рабочих, которые столкнулись с закрытием или приостановкой действия учетной записи, не объясняя причин.
- Требование к поставщикам платформ консультироваться с представителями рабочих по поводу серьезных изменений в системах принятия решений.
Предложения Комиссии основываются на действующем законодательстве ЕС о Общем регламенте защиты данных (GDPR), которое включает меры защиты работников при сборе данных. Однако GDPR не обеспечивает такой же ясности в отношении алгоритмического управления, как правила, предлагаемые для гиг-работников, сказал Де Стефано, и Комиссия отмечает трудности, с которыми сталкиваются гиг-работники при отстаивании своих индивидуальных прав в рамках GDPR.
Помимо просто рабочих мест?
Джеремиас Адамс-Прасл, профессор права Оксфордского университета в Великобритании, приветствовал предлагаемые правила, касающиеся автоматизированного принятия решений. «Много споров велось по поводу статуса занятости рабочих на платформе, и директива рассматривает это, но также выходит за рамки, — сказал Адамс-Прасл, назвав предложения« действительно важным первым шагом ».
Он утверждал, что сферу действия правил следует распространить на всех работников, которые сейчас управляются и контролируются автоматизированными системами, а не только на тех, кто работает в условиях гиг-экономики. «Гигантская экономика не обязательно является бункером на рынке труда: я бы посоветовал законодателям хорошенько подумать о распространении этих прав на всех работников, а не только на рабочих, работающих на платформе», — сказал он.
Алгоритмическое управление и Мониторинг был развернут компаниями в различных секторах в последние годы. Например, сотрудники складов часто сталкиваются с алгоритмическим контролем и мониторингом, многие из которых отслеживаются и управляются с помощью программного обеспечения. А в секторе розничной торговли работодатели иногда используют программное обеспечение для автоматизированного планирования смен.
В более широком смысле, те, кто выполняет более традиционные настольные рабочие места, также подвержены растущему уровню отслеживания производительности с появлением инструментов мониторинга во время пандемия COVID-19, полагаясь, например, на автоматические снимки экрана и регистрацию нажатия клавиш.
«Мы видим похожие проблемы на рабочих местах во всем социально-экономическом спектре, но гиг-экономика, безусловно, была колыбелью много этих технологий, что объясняет, почему мы начинаем видеть, как регулирующие органы реагируют на это именно в этом конкретном контексте », — сказал Адамс-Прассл.
Саид Де Стефано: «Теперь большая задача будет заключаться в том, чтобы распространить защиту [EC’s digital labor platform directive] на всех рабочих, в противном случае мы будем в основном [have] сегментированным рынком труда, на котором только рабочие платформы будут надежно защищены. ”
Создание условий для глобальной защиты?
Как и любой другой закон ЕС, новые правила алгоритмического управления могут иметь более широкий эффект за пределами 27 государств-членов.
Если предложения Европейской комиссии будут приняты, американским компаниям, занимающимся производством рабочих мест, и присутствующим в ЕС, необходимо будет соблюдать правила проведения работ в этом регионе. Адамс-Прассл подчеркнул «эффект Брюсселя», когда законодательство ЕС, такое как GDPR, оказывает влияние на другие регионы и страны. Это может оказаться правдой с правилами, касающимися алгоритмического управления гиг-работниками.
«Несмотря на то, что они не связаны GDPR, в США есть много компаний [that are affected by it]: как только вы создадите продукт в соответствии со стандартами GDPR, вы в конечном итоге будете использовать его по всему миру. Таким образом, мы можем увидеть сильный своего рода «эффект Брюсселя» [where the latest move]который станет новым ожидаемым стандартом для платформ ».
Предложения должны быть обсуждены в Европейском парламенте и Совете, прежде чем они вступят в силу. Не существует установленного графика реализации, и, поскольку правила должны быть согласованы между странами-членами, они могут быть введены не раньше 2024 года или позже.
Авторские права © 2021 IDG Communications, Inc.