Отражая предупреждения, высказанные ранее, Apple в настоящее время входит в число растущего числа компаний, запрещающих сотрудникам использовать OpenAI ChatGPT и другие аналогичные облачные сервисы генеративного искусственного интеллекта в стремлении защитить конфиденциальность данных. Уолл Стрит Джорнал сообщает, что Apple также запретила сотрудникам использовать инструмент GitHub Copilot, который некоторые разработчики используют для написания программного обеспечения.
Недавний опрос показал, что 39% разработчиков Mac используют эту технологию.
Содержание статьи
Почему общий запрет имеет смысл
Хотя запрет может показаться чрезмерным, он показывает, что компания обращает внимание на поток предупреждений, исходящих от специалистов по безопасности относительно использования этих услуг. Беспокойство вызывает то, что их использование может привести к раскрытию секретных или конфиденциальных данных. Samsung запретила эти инструменты в начале этого года, когда обнаружила, что сотрудники загрузили конфиденциальный исходный код в ChatGPT.
Специалисты по безопасности прекрасно осведомлены об этой проблеме. Викус Росс, старший исследователь безопасности в Orange Cyberdefense, предупреждает:
«В то время как чат-боты на основе ИИ обучаются и совершенствуются их разработчиками, сотрудники не исключают доступа к вводимым в них данным. И, учитывая, что люди часто являются самым слабым элементом системы безопасности бизнеса, это открывает информацию для целого ряда угроз, даже если риск случайный».
Хотя OpenAI продает корпоративным клиентам более конфиденциальную (и дорогую в эксплуатации) самостоятельную версию сервиса, риск заключается в том, что в соответствии с соглашением об общественном использовании очень мало соблюдения конфиденциальности данных.
Это плохо с точки зрения конфиденциального кода и внутренней документации, но крайне опасно при работе с информацией из строго регулируемых отраслей, банковского дела, здравоохранения и других источников. Мы уже видели по крайней мере один инцидент, в котором запросы ChatGPT были раскрыты несвязанным пользователям.
Ваш вопрос становится данными — кому они принадлежат и можете ли вы им доверять?
Хотя решение Apple может показаться чрезмерной реакцией, предприятиям важно убедить сотрудников быть осторожными в отношении того, какими данными они делятся. Проблема в том, что при использовании облачной службы для обработки данных весьма вероятно, что информация будет сохранена службой для оценки, оценки или даже использования в будущем.
По сути, вопросы, которые вы задаете сервису такого рода, становятся точками данных для будущих ответов. Информация, предоставляемая облачной службе, может быть доступна людям либо внутри компании, либо путем внешней атаки. Мы уже видели, как это произошло. OpenAI пришлось отключить ChatGPT из-за утечки данных в начале этого года.
Рекомендации Национального исследовательского центра кибербезопасности Великобритании (NCSC) объясняют природу риска. В нем указано, что запросы будут видны поставщику услуг, сохранены и «почти наверняка» будут использованы для разработки службы в какой-то момент.
В этом контексте условия использования и политика конфиденциальности службы должны быть тщательно изучены, прежде чем кто-либо сделает деликатный запрос. Другая проблема заключается в том, что как только вопрос задан, он тоже становится данными.
Как поясняет NCSC: «Еще один риск, возрастающий по мере того, как все больше организаций выпускают LLM, заключается в том, что запросы, хранящиеся в сети, могут быть взломаны, просочились или, что более вероятно, случайно стали общедоступными. Это может включать потенциально идентифицирующую пользователя информацию».
А кто будет владеть вашими вопросами завтра?
Существует также еще один уровень риска, поскольку консолидация в отрасли ИИ ускоряется. Во вторник пользователь может задать деликатный вопрос о проверенной безопасной службе LLM, отвечающей всем требованиям протоколов безопасности предприятия, но на следующей неделе эта услуга может быть приобретена третьей стороной с более слабыми политиками.
Затем этот покупатель также завладеет конфиденциальными корпоративными данными, ранее предоставленными службе, но защитит их менее эффективно.
Эти опасения возникают не потому, что профессионалы в области безопасности видели их в какой-то форме лихорадочных снов; они отражают события, которые мы уже видели. Например, один недавний отчет показал, что более 10 миллионов конфиденциальных элементов, таких как ключи API и учетные данные, были выставлены в общедоступных репозиториях, таких как GitHub, в прошлом году.
В большинстве случаев такого рода конфиденциальные данные передаются через личные аккаунты с использованием подобных сервисов, что уже произошло с информацией от Toyota, Samsung и, предположительно, с учетом запрета на использование ChatGPT, Apple.
Имея это в виду, большинство специалистов по безопасности, за которыми я следую, единодушно предупреждают пользователей не включать конфиденциальную/конфиденциальную информацию в запросы к общедоступным службам, таким как ChatGPT.
Пользователи никогда не должны задавать вопросы, которые могут привести к проблемам, если они станут общедоступными, и в контексте любой крупной компании, пытающейся обезопасить свои данные, полный запрет на использование — безусловно, самое простое решение, по крайней мере, на данный момент.
Генератив пойдет на край
Так будет не всегда.
Наиболее логичный путь вперед — к небольшим системам LLM, которые можно разместить на пограничном устройстве. Мы знаем, что это возможно, так как Стэнфордский университет уже смог выполнить один запуск на телефоне Google Pixel. Это делает правдоподобным предположение, что в какой-то момент никто не будет использовать недавно представленное приложение ChatGPT на iPhone, потому что они будут использовать аналогичную технологию, поставляемую с самим телефоном.
Но суть для всех, кто использует облачные службы LLM, заключается в том, что безопасность не гарантируется, и вы никогда не должны делиться с ними конфиденциальными или конфиденциальными данными. Это свидетельство ценности периферийной обработки и защиты конфиденциальности в эпоху подключений.
Пожалуйста, следуйте за мной на Mastodon или присоединяйтесь ко мне в баре и гриле AppleHolic и Яблоко Обсуждения группы на MeWe.
Авторское право © 2023 IDG Communications, Inc.