Фундаментальные ограничения ИИ в юридической работе

20.01.2026


Большие языковые модели, казалось бы, уже умеют писать письма, резюмировать многотомные дела и помогать с ресерчем. На этом месте можно сделать прекрасный, но опасный вывод: «Отдадим ИИ всё рутинное, а юристов сократим».

В материале Софья Смирнова, советник M&A и корпоративной практики, директор по цифровой трансформации O2 Consulting, разбирает фундаментальные ограничения LLM в юридической работе:

  • почему галлюцинации заложены в саму архитектуру и процессы обучения моделей, а не лечатся «волшебным промптом»;
  • как «чёрный ящик» ИИ конфликтует с требованиями прозрачности и почему он не должен иметь доверия;
  • где проходят реальные пределы длинных контекстных окон и почему многошаговое юридическое мышление по‑прежнему остаётся слабым местом моделей;
  • почему даже «юридический» ИИ с доступом к базам данных продолжает ошибаться, а RAG снижает, но не устраняет риски;
  • какие экономические, технические и даже этические барьеры стоят между идеей и устойчивым использованием ИИ в практике.

Получился этакий протокол «презумпции недостоверности».

Полную версию материала можно скачать и прочитать по ссылке.


Автор подкаста
0:00 / 0:00

Пожалуйста, поверните ваше устройство в вертикальное положение