Скопировано

Европа настаивает на чётких правилах и запретах по вопросам ИИ

17.07.2025
Дата публикации
Еврокомиссия опубликовала отчёт Центра европейских политических исследований (CEPS), обобщающий мнения участников двух публичных консультаций по ключевым статьям AI Act. Исследование рассматривает 88 вопросов о том, как определить ИИ-системы и какие практики запрещены.

Консультации стартовали в феврале 2025 и охватили больше 390 откликов. Бóльшая часть (47,2%) пришлась на представителей индустрии, тогда как граждане дали лишь 5,7% ответов. Такая диспропорция подчёркивает преобладание технического и коммерческого взгляда.

Участники согласны: базовые технические термины требуют проработки. Под «автономностью», «адаптивностью» и «инференцией» (способностью делать выводы из входных данных) понимают слишком разные вещи, и без чётких критериев под определение ИИ могут попасть обычные программы — например, Excel с формулами.

В ответах звучит предложение ввести «порог сложности»: отделить системы с обучением и самообучением от классических детерминистских алгоритмов. Чтобы никто не путался, предлагают публиковать список примеров «не-ИИ».

По запретам эксперты больше всего опасаются распознавания эмоций в HR и образовании, непрозрачных манипуляций, социального скоринга и удалённого биометрического мониторинга. Им нужны чёткие кейсы «что разрешено, а что нет».

Важные моменты остались неясны. Как определить «существенный вред»? Где граница между законным влиянием и манипуляцией? Как разграничить оценку рисков от незаконного предсказания преступности?

Значительное число ответов в опросе подчеркивали необходимость разграничения допустимого использования биометрических данных, особенно в контексте правоохранительных органов, и использования, которое может привести к дискриминации. Респонденты призвали к представлению конкретных примеров приемлемой практики, особенно в отношении маркировки и фильтрации законно полученных наборов биометрических данных.

Особо обсуждается разделение ответственности: кто отвечает — разработчик или пользователь? Так, малые компании предупреждают о рисках чрезмерной нагрузки и просят практические гайды, шаблоны и государственную поддержку.

На основе этих отзывов комиссия готовит первые рекомендации. Они помогут поставщикам и стейкхолдерам применять AI Act на практике, но учтут новые кейсы и накопленный опыт. Публикация разъяснений запланирована на 2025 год.

Считаем, что подобные экспертные обсуждения по регулированию ИИ крайне важны, учитывая широкую распространенность технологии.

Также напомним, что в законопроект «Об искусственном интеллекте», призванный заложить основы правового регулирования в этой сфере в Казахстане, был включён ряд положений, разработанных при участии экспертов EDF. В частности, норм, направленных на запрет рискованных практик использования ИИ при аналитике биометрических данных граждан.

Тоже касается и необходимости ограничения использования ИИ в чувствительных сценариях — при распознавании лиц в общественных местах, при эксплуатации уязвимостей человека и влиянии на поведение без осознанного согласия.