15.12.2025
Дата публикации
Правозащитная организация Electronic Frontier Foundation (EFF) выступила
с обращением к компаниям, разрабатывающим ИИ-чатботы, призвав их активнее защищать переписку пользователей от необоснованного доступа или утечек. По мнению EFF, разговоры с чатботами по уровню чувствительности давно сравнялись с личной перепиской в мессенджере или по почте и должны охраняться теми же правовыми гарантиями.
Миллионы людей используют ИИ для обсуждения идей, поиска советов и помощи в ситуациях, которые они не готовы выносить в публичное пространство.
Такие диалоги могут содержать приватные запросы о здоровье, финансовых трудностях, личной безопасности или семейных проблемах. Один такой чат способен раскрыть больше интимных деталей, чем когда-то бумажный дневник.
Подчёркивается: без надёжных гарантий конфиденциальности пользователи начнут избегать ИИ-сервисов для обучения, самовыражения и поиска поддержки. Вот некоторые технические и организационные меры которые могли бы повысить доверие к чат-ботам:
▪️Сквозное шифрование (End-to-End Encryption);
▪️Контроль доступа: ограничение прав доступа только для авторизованного персонала и регулярный мониторинг активности, запросов со стороны частных лиц и государственных органов;
▪️Принцип минимизации сбора данных и внедрение конфиденциального режима, при котором переписка не сохраняется и не используется для обучения модели.
Если любая компания хранит много данных о своих пользователях, частные лица (например запросы нарушения авторских прав) и правоохранительные органы в конечном итоге начнут запрашивать их раскрытия.
По мнению EFF, ИИ-компании должны заранее готовиться к подобному и открыто встать на сторону пользователей. Минимальный набор обязательств включает сопротивление массовым запросам о раскрытии данных, предварительное уведомление пользователей о требованиях на раскрытие их информации и публикацию регулярных отчётов о числе полученных запросов.
Миллионы людей используют ИИ для обсуждения идей, поиска советов и помощи в ситуациях, которые они не готовы выносить в публичное пространство.
Такие диалоги могут содержать приватные запросы о здоровье, финансовых трудностях, личной безопасности или семейных проблемах. Один такой чат способен раскрыть больше интимных деталей, чем когда-то бумажный дневник.
Подчёркивается: без надёжных гарантий конфиденциальности пользователи начнут избегать ИИ-сервисов для обучения, самовыражения и поиска поддержки. Вот некоторые технические и организационные меры которые могли бы повысить доверие к чат-ботам:
▪️Сквозное шифрование (End-to-End Encryption);
▪️Контроль доступа: ограничение прав доступа только для авторизованного персонала и регулярный мониторинг активности, запросов со стороны частных лиц и государственных органов;
▪️Принцип минимизации сбора данных и внедрение конфиденциального режима, при котором переписка не сохраняется и не используется для обучения модели.
Если любая компания хранит много данных о своих пользователях, частные лица (например запросы нарушения авторских прав) и правоохранительные органы в конечном итоге начнут запрашивать их раскрытия.
По мнению EFF, ИИ-компании должны заранее готовиться к подобному и открыто встать на сторону пользователей. Минимальный набор обязательств включает сопротивление массовым запросам о раскрытии данных, предварительное уведомление пользователей о требованиях на раскрытие их информации и публикацию регулярных отчётов о числе полученных запросов.