Скопировано

Компаниям предложили страховать риски от ошибок искусственного интеллекта

14.05.2025
Дата публикации
На страховом рынке появился новый продукт, адаптированный под вызовы цифровой эпохи. Британские страховые компании предложил бизнесу полисы, покрывающие убытки от ошибок, связанных с использованием искусственного интеллекта — от сбоев чат-ботов до последствий «галлюцинаций» LLM-моделей.

Такая страховка рассчитана на случаи, когда компания становится ответчиком по искам от клиентов или третьих лиц, пострадавших от действий или бездействия ИИ-продуктов. Речь идет не только о репутационных, но и о прямых финансовых потерях, включая судебные расходы, штрафы и компенсации.

Инициатива возникла на фоне ряда громких случаев. Так, Air Canada в 2024 году обязали выплатить компенсацию за вымышленную скидку, придуманную их чат-ботом.

А британский банк Virgin Money публично извинялся после того, как ИИ-консультант отчитал клиента за использование слова «virgin» — при том, что оно входит в название самой компании.

Важно, что страхование не будет автоматическим. Перед оформлением полиса модель ИИ будет оцениваться на предмет устойчивости к деградации и прогнозируемости поведения. Полис оформят только в случае, если риск признан приемлемым — «как и с любым другим сложным активом», поясняют страховщики.

Также подчеркивается, что полис не покрывает системы с высокой долей ошибок или нестабильности — как и в обычной практике, рискованным активам страховая защита не предоставляется. Это должно мотивировать компании вкладываться в доработку и тестирование ИИ-решений.

Аналитики отмечают, что такие полисы могут привести не только к росту доверия к ИИ, но и к дополнительным расходам компаний. Ведь теперь страховые взносы станут новой строкой в бюджете на внедрение ИИ, особенно в высокорисковых отраслях.

Эксперты подчеркивают: одной страховки недостаточно. Необходимо внедрять процедуры внутреннего контроля, ограничивать влияние ИИ на критические бизнес-решения и обеспечивать присутствие человека на этапах высокой юридической значимости.

Кроме того, всё чаще звучат вопросы об ответственности: кто именно должен отвечать за ошибку ИИ — программист, компания, пользователь или сам алгоритм? Пока таких прецедентов немного, но тенденция к ужесточению регулирования очевидна.

Новый страховой продукт отражает запрос бизнеса на защиту от непредсказуемости алгоритмов. По мере распространения ИИ в праве, здравоохранении, образовании и финансовом секторе подобные механизмы могут стать стандартом — как в своё время это произошло с киберстрахованием.