
Руководитель Центра цифровой экспертизы Роскачества, Сергей Кузьменко, настоятельно рекомендует пользователям проявлять крайнюю осторожность при загрузке информации в нейросети, такие как ChatGPT. Несмотря на то, что убедительные доказательства масштабных утечек данных через искусственный интеллект пока отсутствуют, потенциальные риски остаются высокими, и лучше их предотвратить.
Кузьменко подчеркивает, что технологии постоянно развиваются, и то, что сегодня кажется безопасным, завтра может стать уязвимым. Передача личной информации чат-ботам создает долгосрочную угрозу ее неправомерного использования и раскрытия.
Эксперт категорически запрещает загружать в нейросети следующие типы данных, которые могут поставить под удар как самого пользователя, так и других лиц:
- Паспортные данные и другие документы, удостоверяющие личность;
- Сетевые идентификаторы и прочие уникальные цифровые признаки;
- Платежные реквизиты банковских карт и другие финансовые сведения;
- Медицинские записи и информация о состоянии здоровья;
- Логины и пароли от различных онлайн-сервисов и аккаунтов;
- Любые другие сведения, позволяющие идентифицировать конкретного человека и потенциально использовать их во вред.
Наиболее безопасный подход к взаимодействию с искусственным интеллектом, по мнению Кузьменко, заключается в работе с обезличенными данными. Это означает, что перед отправкой любой информации в нейросеть необходимо тщательно удалить все персональные идентификаторы. Если существует малейший риск, что сведения могут быть использованы против кого-либо, эксперт советует отказаться от использования ИИ и решить задачу собственными силами, чтобы избежать компрометации.
Несмотря на упомянутые риски, стоит отметить, что в некоторых случаях искусственный интеллект может приносить пользу. Например, ранее сообщалось, как ChatGPT помог жительнице Уэльса своевременно обнаружить признаки опасного заболевания, предупредив ее о подозрительной родинке.