17.09.2025
Дата публикации
Как сообщает Arstechnica, VaultGemma — первая в мире языковая модель, обученная с нуля с учётом приватности. Это означает, что она не запоминает личные данные пользователей и не может случайно их выдать.
Модель создана на базе архитектуры Gemma 2, но с ключевым отличием: в неё встроена технология дифференциальной приватности. Это математический способ защиты, при котором в данные добавляется «шум», делающий невозможным восстановление исходной информации.
VaultGemma содержит 1 миллиард параметров и способна выполнять сложные задачи, как и другие модели, но при этом не нарушает конфиденциальности. Она не запоминает тексты, на которых обучалась, даже если её специально «попросить» об этом.
Google подчёркивает, что модель подходит для отраслей с повышенными требованиями к безопасности — например, для медицины, финансов и госуслуг. Это особенно важно в эпоху, когда ИИ всё чаще используется в чувствительных сферах.
В отличие от коммерческих моделей, VaultGemma полностью открыта: её код и параметры доступны на платформах Hugging Face и Kaggle. Это даёт разработчикам возможность использовать её без риска для данных.
Модель обучалась с нуля — не на готовых наборах, а по специально адаптированным протоколам, которые позволяют использовать большие объёмы данных без потери приватности. Это делает её устойчивой и эффективной.
В тестах VaultGemma показала результаты, сопоставимые с обычными ИИ-моделями, но при этом не допустила ни одного случая «утечки» обучающих данных.
Google также внедрил так называемые «законы масштабирования приватности» — формулы, которые помогают сбалансировать производительность, объём вычислений и уровень защиты.
По словам команды Google Research и DeepMind, VaultGemma — это не просто продукт, а попытка задать новый стандарт: ИИ должен быть мощным, но безопасным. И это возможно уже сегодня.
С открытым доступом и встроенной защитой VaultGemma может стать основой для этичного ИИ в самых разных сферах, считают в Google.
Модель создана на базе архитектуры Gemma 2, но с ключевым отличием: в неё встроена технология дифференциальной приватности. Это математический способ защиты, при котором в данные добавляется «шум», делающий невозможным восстановление исходной информации.
VaultGemma содержит 1 миллиард параметров и способна выполнять сложные задачи, как и другие модели, но при этом не нарушает конфиденциальности. Она не запоминает тексты, на которых обучалась, даже если её специально «попросить» об этом.
Google подчёркивает, что модель подходит для отраслей с повышенными требованиями к безопасности — например, для медицины, финансов и госуслуг. Это особенно важно в эпоху, когда ИИ всё чаще используется в чувствительных сферах.
В отличие от коммерческих моделей, VaultGemma полностью открыта: её код и параметры доступны на платформах Hugging Face и Kaggle. Это даёт разработчикам возможность использовать её без риска для данных.
Модель обучалась с нуля — не на готовых наборах, а по специально адаптированным протоколам, которые позволяют использовать большие объёмы данных без потери приватности. Это делает её устойчивой и эффективной.
В тестах VaultGemma показала результаты, сопоставимые с обычными ИИ-моделями, но при этом не допустила ни одного случая «утечки» обучающих данных.
Google также внедрил так называемые «законы масштабирования приватности» — формулы, которые помогают сбалансировать производительность, объём вычислений и уровень защиты.
По словам команды Google Research и DeepMind, VaultGemma — это не просто продукт, а попытка задать новый стандарт: ИИ должен быть мощным, но безопасным. И это возможно уже сегодня.
С открытым доступом и встроенной защитой VaultGemma может стать основой для этичного ИИ в самых разных сферах, считают в Google.