Национальный статистический регулятор вмешивается, чтобы пересмотреть алгоритм, используемый Ofqual для определения оценок уровня A для студентов, которые не могут сдать экзамены.
Один эксперт сказал, что процесс был в основном ошибочен, а алгоритм, выбранный наблюдателем за экзаменами, по существу "обманут".
На фоне протестов общественности правительство решило не использовать полученные данные для определения оценок учащихся.
Это вызывает вопросы по поводу надзор за алгоритмами, используемыми в обществе.
Результаты, полученные с помощью алгоритма, оставили недовольство многих студентов, вызвали массовые протесты и в конечном итоге были отброшены b • Правительство в пользу оценок, проводимых учителями.
Управление статистического регулирования (OSR) заявило, что теперь оно проведет срочную проверку подхода, принятого Ofqual.
"Обзор будет стремиться выделить уроки из проблем, с которыми пришлось столкнуться в этих беспрецедентных обстоятельствах », — говорится в сообщении.
Том Хейнс, преподаватель машинного обучения в Университете Бата, изучил документацию, выпущенную Ofqual, в которой описывается, как алгоритм был разработан.
«Многие ошибки были сделаны на разных уровнях. Сюда входили технические ошибки, когда люди, реализующие концепции, не понимали, что означает введенная ими математика », — сказал он.
В рамках этого процесса Ofqual протестировал 11 различных алгоритмов, поставив перед ними задачу прогнозировать оценки за экзамены 2019 года и сравнивать
Но, по словам г-на Хейнса: «Они сделали это неправильно и фактически дали алгоритмам результаты 2019 года, поэтому алгоритм, который они в конечном итоге выбрали, был тем самым по сути, это лучший способ обмана ».
По его словам, существует потребность в гораздо более строгом надзоре за процессом, посредством которого алгоритмы принимают решения .
«Несколько сотен лет назад люди построили мост и просто надеялись, что он сработает. Мы этого больше не делаем, мы проверяем, проверяем. То же самое должно быть верно и для алгоритмов. Мы все еще вернулись к тому этапу, который был несколько сотен лет назад, и нам нужно понять, что эти алгоритмы — искусственные артефакты, и если мы не будем искать проблемы, будут последствия ».
'Запрещено говорить '
В ответ Офкуал сказал Би-би-си: «На протяжении всего процесса у нас была экспертная консультативная группа, первая встреча с которой состоялась в начале апреля.
» В состав группы входят независимые члены, привлеченные от статистических и оценочных сообществ. Консультативная группа предоставляла советы, рекомендации, идеи и знания по мере того, как мы детально разрабатывали наш подход к стандартизации ».
Королевское статистическое общество (RSS) предложило помощь двух из своих Старшие статистики Ofqual, председатель Стиан Вестлейк сказал BBC.
«Ofqual сказал, что они будут рассматривать их только в том случае, если они подпишут обременительное соглашение о неразглашении, которое фактически запретило бы им говорить обо всем, что они узнали. от процесса на срок до пяти лет », — сказал он.
« Учитывая прозрачность и открытость, которые являются основными ценностями для RSS, мы чувствовали, что не можем сказать «да».
Председатель Ofqual Роджер Тейлор также является председателем Британского Центра этики данных и инноваций, органа, созданного правительством для надзора за использованием государственных данных.
Он подтвердил BBC, что это было не приглашены для обзора алгоритма или процессов, которые привели к его созданию, заявив, что это не его работа «проверять алгоритмы организаций».
Г-н Хейнс сказал: «Такое ощущение, что эти органы созданы компаниями и правительства, потому что они считают, что они должны иметь их, но им не дают действовать
«Это символический жест, и мы должны понимать, что этика — это не то, что вы применяете в конце любого процесса, это то, что вы применяете повсюду».
RSS приветствовал обзор OSR и выразил надежду, что из этого фиаско будут извлечены уроки.
«Процесс и алгоритм потерпели неудачу», — сказал г-н Вестлейк.
«Были технические недостатки, но также выбор, сделанный при его проектировании, и конструкции, под которыми он работал.
«Он должен был уравновесить инфляцию оценок с индивидуальной несправедливостью, и хотя инфляция оценок была небольшой, было ужасно много разочарованных людей, и это создало явное чувство несправедливости.
» То есть не статистическая проблема, это выбор того, как вы построите алгоритм ».
Использование в будущем
Алгоритмы используются на всех уровнях общества, от самых простых до сложных примеров, использующих искусственный интеллект.
«Большинство алгоритмов совершенно разумны, просты и четко определены», — сказал г-н Хейнс, но предупредил, что по мере того, как они становятся более сложными в дизайне, обществу необходимо сделать паузу, чтобы подумать, чего оно от них хочет. .
«Как мы обрабатываем алгоритмы, которые принимают решения, а не принимают те, которые, как мы предполагаем, они будут делать? Как мы защитимся от этого? »
И некоторые вещи никогда не следует оставлять на усмотрение алгоритма, — сказал он.
« Ни одна другая страна не сделала того, что мы сделали с экзаменами. Они либо придумали, как проводить экзамены, либо составили эссе, за которое они брали средние значения. В конечном итоге цель экзаменов состоит в том, чтобы студенты сами определяли свое будущее, а этого нельзя достичь с помощью алгоритма.
«Для некоторых задач нужен только человек».