La IA ya quiere ser pasante de abogado: Microsof integra asistente legal en Copilot mientras OpenAI enfrenta otra demanda

La IA ya quiere ser pasante de abogado: Microsof integra asistente legal en Copilot mientras OpenAI enfrenta otra demanda

Por un lado, Microsoft presentó en América Latina su Agente Legal en Word, una herramienta de Copilot pensada para apoyar tareas como revisar documentos, comparar versiones, analizar cambios propuestos por una contraparte y ayudar a los equipos jurídicos a trabajar dentro de archivos legales. La compañía lo presenta como una función para profesionales del derecho, no como un sustituto del abogado. De hecho, en su propia documentación advierte que el agente no proporciona asesoría legal ni determinaciones profesionales, y que no reemplaza el juicio de un profesional calificado.

El Agente Legal de Microsoft funciona dentro de Word y está pensado para tareas muy concretas del trabajo jurídico: revisar contratos, identificar cambios entre versiones, analizar comentarios de una contraparte y ayudar a preparar respuestas dentro del mismo documento. No se presenta como un abogado autónomo, sino como una herramienta de apoyo para equipos legales que ya trabajan con Microsoft 365 Copilot. Su despliegue, además, sigue siendo limitado: Microsoft lo ubica dentro del programa Frontier y lo describe como una función para usuarios empresariales, con la advertencia de que no sustituye el criterio profesional ni debe tomarse como asesoría legal por sí misma.

A pesar de los blindaje que la industria tecnológica está intentando desplegar para no cometer errores, en la práctica, el terreno aún no es firme. Las mismas compañías desarrolladoras de los modelos de IA enfrentan demandas por uso negligente en el entrno jurídico.

OpenAI enfrenta una demanda en Estados Unidos por un caso que muestra el lado más delicado del asunto. Nippon Life Insurance Company of America demandó a OpenAI en una corte federal de Chicago, acusando a ChatGPT de haber incurrido en práctica legal no autorizada al ayudar a una exbeneficiaria de un seguro de discapacidad a intentar reabrir un caso que ya había sido resuelto. Según la demanda, el chatbot habría ayudado a redactar documentos, mociones y argumentos legales para continuar un litigio.

Nippon Life Insurance Company of America demanda a OpenAI por 10 millones de dólares en una corte federal de Chicago. La aseguradora acusa a ChatGPT de haber actuado como un abogado sin licencia al ayudar a una exbeneficiaria de un seguro de discapacidad a intentar reabrir un caso que ya había sido resuelto y desechado. Según la acusación, el chatbot habría apoyado la redacción de una nueva demanda, mociones y otros documentos judiciales, lo que para Nippon habría generado una cadena de gestiones sin base legal suficiente y costos adicionales para defenderse. El caso todavía es una acusación, no una resolución judicial, pero sirve para mostrar el problema central: cuando una IA redacta documentos legales y sugiere pasos procesales, la frontera entre “herramienta de escritura” y “asesoría jurídica” se vuelve muy difícil de sostener.

El avance de Microsoft no ocurre en el vacío. Harvey, una de las startups más visibles de IA legal, ya construyó un negocio alrededor de herramientas para despachos y departamentos jurídicos corporativos. La empresa fue fundada por Winston Weinberg, exabogado, y Gabe Pereyra, investigador de IA que trabajó en Google Brain, DeepMind y Meta; su plataforma se usa para tareas como análisis de contratos, due diligence, cumplimiento normativo, investigación legal y apoyo en litigios. OpenAI ha presentado a Harvey como uno de sus casos relevantes de personalización de modelos para profesionales legales.

La IA no necesita “ponerse toga” para cruzar una línea delicada. Basta con que redacte con tono jurídico, cite normas, proponga pasos a seguir o sugiera estrategias para que muchos usuarios empiecen a tratarla como una autoridad. Y si además el sistema responde con seguridad, aunque esté equivocado, el riesgo aumenta: una mala orientación legal puede costar dinero, tiempo, derechos, procesos completos o decisiones irreversibles.

Un expediente legal no es un documento cualquiera. Puede contener datos personales, información patrimonial, conflictos laborales, familiares, penales o corporativos; además de estrategias de defensa, comunicaciones sensibles y materiales protegidos por deberes de confidencialidad. Si esa información se sube a una herramienta de IA sin controles claros, sin anonimización y sin entender cómo se procesa, el problema deja de ser tecnológico y se vuelve ético, profesional y posiblemente jurídico.

OpenAI, por ejemplo, mantiene políticas que restringen el uso de sus servicios para ofrecer asesoría legal, médica o financiera personalizada cuando se requiere una licencia profesional, salvo que exista intervención apropiada de una persona calificada. La frontera no está en “hablar de derecho”, sino en usar la IA para producir orientación individualizada que pueda afectar derechos o decisiones concretas.

Por eso, el debate no es si los abogados deben usar inteligencia artificial. Probablemente muchos ya la están usando. La pregunta es si saben usarla sin convertir los expedientes de sus clientes en material vulnerable, sin delegar criterio profesional y sin tratar al modelo como si fuera un pasante invisible dentro del despacho.

La IA legal puede servir para resumir, ordenar, buscar inconsistencias, comparar versiones o preparar borradores. Pero no debería convertirse en un atajo para desplazar la responsabilidad humana. Si un abogado sube un expediente sensible a un chatbot sin controles, no está “innovando”: está trasladando una obligación profesional a una máquina que no responde ante el cliente, ante el juez ni ante el colegio de abogados.

Microsoft intenta llevar la IA legal hacia el escritorio corporativo, con agentes integrados en herramientas de trabajo. OpenAI enfrenta el otro extremo: qué pasa cuando un chatbot de consumo es usado como si fuera abogado. En medio quedan los despachos, los clientes y una pregunta incómoda:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *