Большие языковые модели, казалось бы, уже умеют писать письма, резюмировать многотомные дела и помогать с ресерчем. На этом месте можно сделать прекрасный, но опасный вывод: «Отдадим ИИ всё рутинное, а юристов сократим».
В материале Софья Смирнова, советник M&A и корпоративной практики, директор по цифровой трансформации O2 Consulting, разбирает фундаментальные ограничения LLM в юридической работе:
- почему галлюцинации заложены в саму архитектуру и процессы обучения моделей, а не лечатся «волшебным промптом»;
- как «чёрный ящик» ИИ конфликтует с требованиями прозрачности и почему он не должен иметь доверия;
- где проходят реальные пределы длинных контекстных окон и почему многошаговое юридическое мышление по‑прежнему остаётся слабым местом моделей;
- почему даже «юридический» ИИ с доступом к базам данных продолжает ошибаться, а RAG снижает, но не устраняет риски;
- какие экономические, технические и даже этические барьеры стоят между идеей и устойчивым использованием ИИ в практике.
Получился этакий протокол «презумпции недостоверности».
Полную версию материала можно скачать и прочитать по ссылке.