Джоном П. Мелло-младшим
22 февраля 2018 года 13:09 PT
. Как и в случае искусственного интеллекта, у него тоже есть темная сторона. Эта темная сторона находится в центре внимания 100-страничного отчета группы технологий, академических и общественных организаций, выпущенных во вторник.
AI будет использоваться акторами угроз для расширения масштабов и эффективности их атак, прогнозирует отчет. Они будут использовать его для компрометации физических систем, таких как беспилотные летательные аппараты и беспилотные автомобили, а также для расширения возможностей их защиты от вторжения и социальных манипуляций.
Ожидается, что новые атаки, которые позволят улучшить способность анализировать человеческое поведение, настроения и убеждения на основе имеющихся данных, следует ожидать, согласно исследователям.
«Нам нужно понять, что алгоритмы будут действительно хороши в манипулировании людьми», — сказал Питер Экерсли, главный компьютерный ученый из Electronic Frontier Foundation.
Нам нужно развить индивидуальные и общеобщественные иммунные системы против них », — сказал он в E-Commerce Times.
EFF является одним из спонсоров отчета вместе с Будущим Института гуманитарных наук, Центра изучения экзистенциального риска Университета Оксфорда, Кембриджского университета, Центра новой американской безопасности и OpenAI.
Содержание статьи
More Fake News
Управление человеческим поведением представляет собой наиболее значительную проблему в контексте авторитарных государств, но это также может подорвать способность демократий поддерживать честные публичные дебаты, отмечает отчет, «Злонамеренное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий»
«Мы собираемся увидеть поколение более убедительных синтетических или поддельных изображений и видео и коррупцию информационного пространства», — сказал Джек Кларк, директор по стратегии и коммуникациям в OpenAI, некоммерческой организации (19459007)
«Мы собираемся увидеть больше пропаганды и фальшивых новостей», — сказал Кларк в E-Commerce Times.
. критически важная связь между компьютерной безопасностью и эксплуатацией ИИ в злонамеренных целях, указал Eckersley EFF.
«Нам нужно помнить, что если компьютеры, на которых мы внедряем системы машинного обучения, небезопасны, все не так хорошо в долгосрочной перспективе, поэтому нам нужны огромные новые инвестиции в компьютерную безопасность », — сказал он.
« AI может сделать кибербезопасность лучше или хуже, — продолжил Экерсли, — и нам действительно нужно, чтобы она использовалась в обороне,
Hampering Innovation
. В ответ на изменение ландшафта угроз в кибербезопасности исследователи и инженеры, работающие в области развития искусственного интеллекта, должны использовать двойное использование характер их работы в докладе рекомендуется. Это означает, что соображения, связанные с неправильным использованием, должны влиять на приоритеты и нормы исследований.
В докладе содержится призыв к пересмотру норм и институтов в отношении открытости исследований, включая оценку риска превалирования в технических областях, вызывающих особую озабоченность, модели лицензирования доступа к центральному доступу и режимы совместного использования частот, которые обеспечивают безопасность и безопасность.
Однако эти рекомендации беспокоят Даниэля Кастро, директора Центра инноваций данных.
«Они могут замедлить развитие ИИ, они будут отходить от инновационной модели, которая была успешной для технологий», — сказал он в E-Commerce Times.
«AI может использоваться для разных целей», добавил Кастро. «ИИ может использоваться в плохих целях, но количество людей, пытающихся это сделать, довольно ограничено».
Прорывы и этика
Освободив этот отчет, исследователи надеются опередить кривую по политике ИИ.
«Во многих переговорах по политическим технологиям хорошо подождать, пока система будет широко развернута, прежде чем подробно рассказывать о том, как это может пойти не так или неправильно, — объяснил Ecks Eckersley, — но когда у вас радикально преобразуется системы, и вы знаете, что меры безопасности, которые вы хотите, потребуют много лет, чтобы начать, вы должны начать очень рано ».
Однако проблема с государственной политикой заключается в том, что она редко реагирует на проблемы на ранней стадии.
«Этот отчет является« канарейкой в угольной шахте », — сказал Росс Рустичи, старший директор разведывательных служб в Cybereason.
«Если бы мы могли заставить политическое сообщество двигаться дальше, если бы мы могли заставить исследователей сосредоточиться на этике внедрения своих технологий, а не на новинке и ее разработке, мы, вероятно, находимся в лучшем месте , — сказал он в E-Commerce Times. «Но если история показывает нам что-то, эти две вещи почти никогда не случаются. Очень редко мы видим, что научные прорывы имеют дело с их этическими последствиями до того, как это произойдет».