Скопировано

В ОЭСР предложили новые подходы к защите личных данных при использовании ИИ

26.08.2025
Дата публикации
ИИ-ассистенты всё чаще становятся «цифровыми доверенными лицами», которым пользователи рассказывают о здоровье, работе, финансах и личной жизни. Такой объём откровенной информации формирует детализированные цифровые портреты людей.

В отличие от поисковиков, ассистенты непрерывно запоминают контекст и соединяют разрозненные сведения в цельную картину. Это создаёт новые риски для приватности и контроля над персональными данными.

Как отмечает автор анализа для Организации экономического сотрудничества и развития (ОЭСР), основатель Совета по управлению ИИ Вар Шанкар, значительная часть этих данных является конфиденциальной и хранится в облаке, нередко проходя через сторонние сервисы. Каждая «передача» информации увеличивает риск утечки.

Недавнее исследование 300 инструментов чатботов и SaaS-приложений с поддержкой ИИ, показало, что более 4% запросов (prompts) и около 20% загруженных файлов содержали чувствительную информацию. Это подчёркивает масштабы проблемы и уязвимость систем.

Шанкар предлагает закрепить на законодательном уровне стандарты защиты: сквозное шифрование истории чатов, автоматическое удаление данных через установленный срок, запрет на несанкционированный доступ сотрудников платформ.

Он также поднимает вопрос о прозрачности: компании должны публиковать отчёты о внутренних обращениях к данным пользователей и внешних запросах госорганов, чтобы люди понимали, кому и как доступна их переписка.

Отдельная правовая коллизия связана с «цифровым наследием»: кому и на каких условиях могут передаваться данные ассистента после смерти или утраты дееспособности пользователя.

Автор подчёркивает, что ответственность за защиту не должна перекладываться на пользователей, вынужденных читать сложные соглашения. Необходимы единые обязательные стандарты для всех поставщиков ИИ-ассистентов.

В качестве ориентира он указывает на Принципы ОЭСР по ИИ (впервые приняты в 2019 году и обновлены в 2024‑м, чтобы учесть технологические и политические изменения), предусматривающие прозрачность, безопасность и приоритет интересов человека. Это позволит сохранить пользу технологий, минимизируя угрозы.

Такой подход должен создать баланс между инновациями и защитой прав, чтобы ИИ-ассистенты оставались полезными инструментами, а не источником потенциальной опасности.