
Британский судья впервые признал использование ИИ при подготовке решения
Дело касалось раскрытия документов Налогового управления Великобритании, связанных с доходами от офшорных трастов в Новой Зеландии и Маврикии. Макналл отметил, что прибег к ИИ исключительно для обработки большого объема документов без проведения устных слушаний, а не для самостоятельного юридического исследования. Инструмент был доступен через защищенную платформу eJudiciary, что гарантировало приватность данных и недопустимость их утечки или публичного использования.
Решение судьи вызвало бурный отклик в юридическом сообществе: одни эксперты приветствуют открытость и прозрачность в применении новых технологий, другие напоминают о недавних случаях, когда неосторожное использование ИИ приводило к выдуманным ссылкам на несуществующие прецеденты. При этом налоговая служба Великобритании уже активно внедряет программы цифровой трансформации, включая ИИ-инструменты, призывая расширять применение технологий в судебной практике.
Параллельно с этим российские суды пока относят ИИ лишь к вспомогательным инструментам и не допускают его участия в принятии решения. По данным Совета судей РФ, каждый третий российский суд уже использует нейросети для распознавания речи при составлении протоколов, подготовки проектов судебных приказов и приговоров, анализа и краткого изложения документов. Так, в 2021 году в Белгородской области прошёл пилотный проект: ИИ готовил проекты судебных приказов по имущественным, транспортным и земельным налогам, при этом окончательное решение оставалось за мировым судьёй.
Прецедент Макналла и подобные ему в других странах могут послужить отправной точкой для разработки единых правил «ответственного ИИ» в судах, где машина выступает вспомогательным ресурсом, а контроль и окончательное суждение остаются за человеком. Только судья способен учитывать неформальные и качественные аспекты дела, включая моральные, социальные и гуманитарные факторы, которые невозможно чётко формализовать в правилах и данных. Оценка правовой доброй совести, степень вины, смягчающие обстоятельства, эмоциональное состояние сторон и возможные общественные последствия — всё это требует человеческого понимания, которыми ИИ в текущем виде не обладает.