[Все ссылки в тексте — на английском языке, если не указано иное.]
Искусственный интеллект (ИИ) невиданными темпами захватывает судебную систему Индии. С помощью ИИ можно создавать стенограммы в режиме реального времени на заседаниях Конституционной коллегии Верховного суда; автоматизированное программное обеспечение записывает показания свидетелей в судах первой инстанции. Судьи даже тестируют инструменты ИИ для правовых исследований и перевода, чтобы ориентироваться в материалах дел, содержащих информацию на нескольких языках. Однако эти практики ведутся в условиях перенапряжённой судебной системы, что ставит перед нами важнейший вопрос: могут ли алгоритмы ускорить правосудие, не нарушая при этом справедливость, прозрачность и свободу решений?
На рассмотрении индийских судов находятся миллионы дел: в незавершённом производстве — десятки миллионов. Для решения этой проблемы правительство под руководством Верховного суда и Министерства юстиции реализует третью фазу проекта «Электронные суды», направленного на модернизацию процессов подачи документов, управления делами и документооборота с помощью технологий машинного обучения и языков. Значительная часть бюджета выделена на технологии будущего — ИИ и блокчейн, — что демонстрирует политическую ставку на то, что цифровые инструменты помогут сократить задержки, сохраняя при этом принцип: решения выносят только судьи. Однако по мере хаотичного внедрения ИИ суды вынуждены устанавливать новые правила — об ответственности, конфиденциальности и границах автоматизации.
Обещание: ускорить работу с зависшими делами
Внедрение ИИ стало следующим шагом после цифровизации судов. На программу e-Courts, созданную в 2007 году, возложили электронную подачу документов, цифровые списки дел и онлайн-решения. Третий этап — использование накопленных цифровых данных судебной системы для их анализа посредством методов обработки естественного языка и машинного обучения.
Главное нововведение — портал Верховного суда по повышению эффективности работы судов (SUPACE) — платформа на базе ИИ, которая упрощает судьям и прочему персоналу принятие обоснованных решений по обработке больших объемов материалов дел. Система SUPACE не может принимать решения, но помогает выявить факты, найти прецеденты, составить планы, сокращая время ручного поиска информации и оставляя судьям больше времени для юридического обоснования.
Один из ключевых вопросов — доступ к языковым ресурсам. Верховный суд разработал программное обеспечение Vidhik Anuvaad (SUVAS), которое конвертирует судебные решения с английского на другие индийские языки, в то время как некоторые высшие суды тестируют инструменты для конвертации судебных решений с местных языков на английский. Транскрибация с использованием ИИ также меняет подход к ведению документации. Верховный суд принял автоматизированную расшифровку конституционных дел, и с 2023 года текст, доступный для поиска, создаётся системой практически в режиме реального времени.
Знаковое распоряжение сделал Верховный суд штата Керала в 2025 году: с 1 ноября 2025 года все нижестоящие суды обязаны использовать инструмент преобразования речи в текст на основе ИИ Adalat.AI для записи показаний свидетелей. ИИ Adalat.AI разрабатывал стартап, сотрудничавший с такими университетами, как Гарвард и Массачусетский технологический институт. Система заменяет медленные заметки от руки мгновенными цифровыми расшифровками, появляющимися в системе окружных судов. В распоряжении указано, что в случае сбоя системы судьи могут использовать только альтернативные платформы, проверенные ИТ-директоратом Верховного суда. Так контролируется обработка конфиденциальных аудиозаписей.
Чиновники считают эти реформы шагом к более эффективной и прозрачной судебной системе. В политических документах подчёркивается потенциал ИИ для снижения человеческого фактора при расшифровке документов, автоматического выявления основных ошибок в процессе электронной подачи документов и помощи перегруженным судьям в расстановке приоритетов по рассмотрению срочных дел. Эксперты по судебной реформе утверждают, что при грамотном внедрении такие системы могут сократить продолжительность слушаний, повысить точность расшифровок и переводов, а также предоставить сторонам, особенно в отдалённых районах с ограниченными юридическими ресурсами, более полную картину хода рассмотрения их дел.
Проблемы: когда алгоритмы мешают человеку
Но в атмосфере всеобщего оптимизма звучат и критические голоса судей и учёных. В 2023 году Высокий суд Дели отказался рассматривать аргументы в деле о товарных знаках, где использовался ChatGPT [рус]. Суд заявил, что большие языковые модели могут менять цитаты и факты по делу, а потому необходима независимая проверка информации.
В другом примере тот же Высокий суд Дели разрешил покупателям жилья отозвать ходатайство, когда было обнаружено, что некоторые его части, включая ссылки на дела, были сгенерированы ChatGPT. Жалобы, приведённые в сформированном таким образом документе, включали несуществующие дела и неверно процитированные заявления. Судья раскритиковал использование непроверенного генеративного ИИ, заявив, что такая практика может запутать суд. Этот инцидент иллюстрирует профессиональные риски, связанные с использованием «скоростного и точного» ИИ в судебной системе.
Проблема «чёрного ящика» выходит далеко за эти рамки. Инструменты ИИ, используемые для поиска, подведения итогов или транскрибирования, могут базироваться на непрозрачных моделях. Когда SUPACE обращает внимание на определённые прецеденты, судьи и стороны не могут знать, как именно расставлялись приоритеты по этим делам. Учёные предупреждают, что такой уровень непрозрачности затрудняет выявление ошибок и может незаметно повлиять на ход судебного разбирательства, если алгоритмические рекомендации «воспринимаются как нейтральные».
Другая опасность — предвзятость. В индийской судебной практике, как и обществе в целом, нет равенства, а потому наборы данных для обучения ИИ также могли использовать дискриминационные шаблоны по признаку касты, пола, класса или религии. Аналитики предупреждают, что ИИ может усилить эту предвзятость в целях повышения эффективности. Высокопоставленные судьи, включая главного судью Индии, соглашаются, что ИИ может «усугубить дискриминацию» в ситуациях, если система обучается на нерепрезентативных данных или непрозрачна.
Растёт тревога и в вопросах конфиденциальности и безопасности. В судебных записях содержится масштабный объём конфиденциальных персональных данных: уголовные обвинения, финансовая и медицинская информация. Высшие суды, включая Верховный суд Кералы, не рекомендуют загружать такие данные в общедоступные облачные сервисы. Закон о защите цифровых персональных данных 2023 года распространяется на автоматизированную обработку, которая охватывает многие инструменты ИИ, используемые в судах. В отсутствие специального закона об ИИ судам и разработчикам приходится разбираться в сложном комплексе норм конфиденциальности и защиты данных.
Есть и другая опасность, влияющая на перспективы развития: «эффект автоматизации», когда человек бессознательно начинает слишком доверять компьютерным данным. Учёные указывают, что если ИИ подсказывает судье подходящий прецедент или задаёт приоритетность дела, то в условиях повышенной нагрузки судья может — иногда неосознанно — изменить свою позицию. И так как системы работают всё более плавно и незаметно, только строгая судебная дисциплина сможет остановить превращение ИИ из инструмента в молчаливого соавтора решений.
В поисках золотой середины: надзор без капитуляции
Судебная система пытается найти баланс между требованиями к рабочей нагрузке и этическими гарантиями. В итоге инициативу взял на себя штат Керала, где введено обязательное использование Adalat.AI и разработана комплексная политика в отношении ИИ для нижестоящих судов. Эта политика рассматривает ИИ как административный инструмент для транскрипции и перевода, запрещает генеративному ИИ составлять решения или прогнозировать результаты, рекомендует судьям тщательно оценивать результаты работы ИИ и запрещает внешние платформы, требующие загрузки конфиденциальной информации.
На национальном уровне Верховный суд создал Комитет по ИИ для оценки инструментов и их интеграции во все судебные ИТ-системы. Комитет партнёрствует с такими учреждениями, как Индийский технологический институт Мадраса [рус]. В заявлениях правительства говорится о разработке единой политики использования ИИ в судах, которая будет соответствовать этическим нормам и принципам конфиденциальности. Власти подчёркивают, что ИИ будет применяться только под «человеческим контролем, этическим надзором и защитой конфиденциальности», при этом только судьи будут иметь право подписывать постановления.
Тем не менее в Индии нет единого закона об ИИ. Некоторые общие правила можно найти в судебных циркулярах, законах о защите данных и общих политиках в отношении технологий. В докладах об исследованиях, посвящённых честности судебных органов, предлагается проводить периодические проверки на предвзятость, обязательное раскрытие информации в случаях, когда ИИ влияет на подачу документов или принятие решений, а также предоставлять сторонам возможность опротестовать работу инструментов ИИ, влияющих на ход рассмотрения их дел. Эксперты подчёркивают необходимость улучшения технологической инфраструктуры в судах первой инстанции, обучения судей грамотной оценке результатов ИИ и информирования общественности о том, что эти инструменты могут делать, а что нет.
Главная проблема сегодня — не внедрение ИИ, а возможность с ним уживаться. Ряд реальных проблем — задержку рассмотрения дел, языковые барьеры и неравенство доступа к правовой информации, — можно решить с помощью инструментов ИИ. Однако использование непрозрачных алгоритмов в повседневных судебных процессах может привести к катастрофе. На данный момент индийские судьи настроены на то, чтобы у руля стояли люди, тогда как ИИ достанется роль помощника, не оракула. Как долго сохранится этот баланс, определит не только скорость отправления правосудия, но и уровень доверия общественности к этому процессу.








