Скопировано

Когда приходится извиняться за «подсказки» ИИ

19.05.2025
Дата публикации
В США адвокату ИИ-компании Anthropic пришлось публично извиниться за ошибочные ссылки на несуществующие статьи, сгенерированные чат-ботом Claude. Инцидент произошёл в рамках судебного процесса, в котором технологическую компанию обвиняют в нарушении авторских прав.

Суть конфликта — иск со стороны Universal Music Group и других музыкальных издательств. Они считают, что Claude, обученный на песнях и текстах, нарушает их права. В числе доказательств стороны обвинения оказалась экспертиза, составленная сотрудницей Anthropic, Оливией Чен.

Позже выяснилось, что в своём заключении Чен использовала данные, предоставленные Claude — в том числе ссылки на несуществующие научные публикации. При этом названия и авторы статей были вымышленными, что суд воспринял как серьёзное нарушение.

Федеральный судья Сьюзан ван Кеулен потребовала объяснений. В своём письменном ответе адвокаты компании признали, что допустили ошибку и не заметили «галлюцинации» Claude при проверке. Также в документе подчёркивается, что речь идёт не о подлоге, а о «честной ошибке в цитировании».

Тем не менее, это не первый случай, когда ИИ подводит юристов. Неделей ранее другой суд в Калифорнии резко раскритиковал два адвокатских бюро за «фальшивые AI-ссылки» в своих документах. А в январе австралийский юрист попался на использовании ChatGPT с недостоверной юридической информацией.

Параллельно с этим стартапы, специализирующиеся на ИИ для юристов, продолжают привлекать инвестиции. Например, платформа Harvey, помогающая юристам с помощью генеративных моделей, ведёт переговоры на сумму $250 млн.

Этот случай с Anthropic вновь поднимает вопрос: можно ли полагаться на ИИ в столь чувствительных и юридически значимых сферах? И где проходит граница между удобством и ответственностью?

Очевидно, что даже самые продвинутые ИИ-модели могут допустить ошибку — особенно в такой специфической области, как право.

В условиях продолжающейся в судах борьбы между разработчиками ИИ и владельцами контента, подобные инциденты становятся весомым аргументом в пользу более строгих регуляций и стандартов.