17.07.2025
Дата публикации
Еврокомиссия опубликовала
отчёт Центра европейских политических исследований (CEPS), обобщающий мнения участников двух публичных консультаций по ключевым статьям AI Act. Исследование рассматривает 88 вопросов о том, как определить ИИ-системы и какие практики запрещены.
Консультации стартовали в феврале 2025 и охватили больше 390 откликов. Бóльшая часть (47,2%) пришлась на представителей индустрии, тогда как граждане дали лишь 5,7% ответов. Такая диспропорция подчёркивает преобладание технического и коммерческого взгляда.
Участники согласны: базовые технические термины требуют проработки. Под «автономностью», «адаптивностью» и «инференцией» (способностью делать выводы из входных данных) понимают слишком разные вещи, и без чётких критериев под определение ИИ могут попасть обычные программы — например, Excel с формулами.
В ответах звучит предложение ввести «порог сложности»: отделить системы с обучением и самообучением от классических детерминистских алгоритмов. Чтобы никто не путался, предлагают публиковать список примеров «не-ИИ».
По запретам эксперты больше всего опасаются распознавания эмоций в HR и образовании, непрозрачных манипуляций, социального скоринга и удалённого биометрического мониторинга. Им нужны чёткие кейсы «что разрешено, а что нет».
Важные моменты остались неясны. Как определить «существенный вред»? Где граница между законным влиянием и манипуляцией? Как разграничить оценку рисков от незаконного предсказания преступности?
Значительное число ответов в опросе подчеркивали необходимость разграничения допустимого использования биометрических данных, особенно в контексте правоохранительных органов, и использования, которое может привести к дискриминации. Респонденты призвали к представлению конкретных примеров приемлемой практики, особенно в отношении маркировки и фильтрации законно полученных наборов биометрических данных.
Особо обсуждается разделение ответственности: кто отвечает — разработчик или пользователь? Так, малые компании предупреждают о рисках чрезмерной нагрузки и просят практические гайды, шаблоны и государственную поддержку.
На основе этих отзывов комиссия готовит первые рекомендации. Они помогут поставщикам и стейкхолдерам применять AI Act на практике, но учтут новые кейсы и накопленный опыт. Публикация разъяснений запланирована на 2025 год.
Считаем, что подобные экспертные обсуждения по регулированию ИИ крайне важны, учитывая широкую распространенность технологии.
Также напомним, что в законопроект «Об искусственном интеллекте», призванный заложить основы правового регулирования в этой сфере в Казахстане, был включён ряд положений, разработанных при участии экспертов EDF. В частности, норм, направленных на запрет рискованных практик использования ИИ при аналитике биометрических данных граждан.
Тоже касается и необходимости ограничения использования ИИ в чувствительных сценариях — при распознавании лиц в общественных местах, при эксплуатации уязвимостей человека и влиянии на поведение без осознанного согласия.
Консультации стартовали в феврале 2025 и охватили больше 390 откликов. Бóльшая часть (47,2%) пришлась на представителей индустрии, тогда как граждане дали лишь 5,7% ответов. Такая диспропорция подчёркивает преобладание технического и коммерческого взгляда.
Участники согласны: базовые технические термины требуют проработки. Под «автономностью», «адаптивностью» и «инференцией» (способностью делать выводы из входных данных) понимают слишком разные вещи, и без чётких критериев под определение ИИ могут попасть обычные программы — например, Excel с формулами.
В ответах звучит предложение ввести «порог сложности»: отделить системы с обучением и самообучением от классических детерминистских алгоритмов. Чтобы никто не путался, предлагают публиковать список примеров «не-ИИ».
По запретам эксперты больше всего опасаются распознавания эмоций в HR и образовании, непрозрачных манипуляций, социального скоринга и удалённого биометрического мониторинга. Им нужны чёткие кейсы «что разрешено, а что нет».
Важные моменты остались неясны. Как определить «существенный вред»? Где граница между законным влиянием и манипуляцией? Как разграничить оценку рисков от незаконного предсказания преступности?
Значительное число ответов в опросе подчеркивали необходимость разграничения допустимого использования биометрических данных, особенно в контексте правоохранительных органов, и использования, которое может привести к дискриминации. Респонденты призвали к представлению конкретных примеров приемлемой практики, особенно в отношении маркировки и фильтрации законно полученных наборов биометрических данных.
Особо обсуждается разделение ответственности: кто отвечает — разработчик или пользователь? Так, малые компании предупреждают о рисках чрезмерной нагрузки и просят практические гайды, шаблоны и государственную поддержку.
На основе этих отзывов комиссия готовит первые рекомендации. Они помогут поставщикам и стейкхолдерам применять AI Act на практике, но учтут новые кейсы и накопленный опыт. Публикация разъяснений запланирована на 2025 год.
Считаем, что подобные экспертные обсуждения по регулированию ИИ крайне важны, учитывая широкую распространенность технологии.
Также напомним, что в законопроект «Об искусственном интеллекте», призванный заложить основы правового регулирования в этой сфере в Казахстане, был включён ряд положений, разработанных при участии экспертов EDF. В частности, норм, направленных на запрет рискованных практик использования ИИ при аналитике биометрических данных граждан.
Тоже касается и необходимости ограничения использования ИИ в чувствительных сценариях — при распознавании лиц в общественных местах, при эксплуатации уязвимостей человека и влиянии на поведение без осознанного согласия.