25 feb. 2026
Eva Bruch
Hace tres semanas escribí sobre el día que la IA dejó de ser un asistente para convertirse en compañero de trabajo autónomo. Fue el 5 de febrero. Hoy, 25 de febrero, veo exactamente lo que eso significa para el sector legal.
Thomson Reuters ha anunciado que la próxima generación de CoCounsel se construye sobre el Agent SDK de Claude. No es un plugin. Es la arquitectura completa: Anthropic pone el framework de agentes, Thomson Reuters pone Westlaw, Practical Law, las capas de verificación y los controles de workflow.
Para presentarlo, han publicado un vídeo que, aunque es una simulación, resulta sencillamente alucinante. Dale un vistazo. Apuesto a que en menos de dos meses lo tienen en producción.
Harvey conecta con Intapp para ethical walls automatizados.
LegalZoom conecta con Antrophic.
La avalancha
La avalancha viene por dos lados.
Desde abajo: el ciudadano con apps que generan reclamaciones, recursos y solicitudes en segundos. Coste cero. Volumen masivo. Y una parte significativa con referencias jurisprudenciales inventadas y apariencia formal impecable. Si a los abogados profesionales les sigue pasando que citan jurisprudencia generada por IA sin verificar, qué no les va a pasar a los ciudadanos que carecen de formación y criterio jurídicos para comprobar lo que la máquina les entrega.
Desde arriba: los agentes legales profesionales. Lo que Thomson Reuters y LexisNexis acaban de anunciar no es un asistente de búsqueda. Es un sistema que ejecuta flujos completos — investigación, análisis, redacción, verificación, formato — con mínima intervención humana. El despacho que integre agentes va a litigar más, reclamar más, producir más. Las empresas van a perseguir reclamaciones que antes no merecían el coste. Van a presentar recursos que antes dejaban pasar. Van a multiplicar solicitudes administrativas que antes ni se planteaban.
Las dos olas convergen sobre el mismo punto: la administración de justicia.
El cuello de botella
Del otro, un sistema judicial con recursos estructuralmente limitados.
Y en medio, la Instrucción del CGPJ, recientemente aprobada, que establece que los jueces podrán usar borradores de resoluciones generados por IA, pero exige una “revisión y validación personal completa y crítica” de cada resolución. Cada una. El juez mantiene la “exclusiva responsabilidad”. La IA no puede operar de forma autónoma para la toma de decisiones judiciales, la valoración de hechos o pruebas ni la interpretación y aplicación del Derecho.
Es una respuesta necesaria y prudente. Pero si hacemos las cuentas, no salen. Pero de largo…
Como dice Pep: si la entrada es IA, la salida tendrá que ser IA. Pero la Instrucción dice que la salida pasa, obligatoriamente, por validación humana individual. Las dos premisas no pueden convivir con el volumen que viene.
No es un problema de la Instrucción. Es un problema del sistema. La Instrucción protege algo fundamental: que un ser humano sea responsable de cada decisión judicial. Pero la realidad que se acerca va a poner esa exigencia bajo una presión que el sistema actual no está diseñado para soportar.
Como siempre últimamente: el debate es urgente, las soluciones lentas y los riesgos, enormes.
Artículo original publicado en Legal Loom
Miembro Fundador de Inkietos
Recibe mensualmente información relevante de nuestra actividad.