Imagina contratar a un empleado que puede conectarse solo a internet, leer tus correos, revisar tu base de datos y hasta ejecutar acciones en tu nombre sin que nadie lo supervise. Eso es, en términos simples, lo que hace un agente de inteligencia artificial: un programa que no solo responde preguntas, sino que toma decisiones y actúa por sí solo.
Estos sistemas ya se usan en empresas de tecnología, finanzas y salud alrededor del mundo. Sin embargo, según un análisis de la firma de ciberseguridad Protegrity, publicado en MIT Technology Review, la mayoría de las organizaciones no tienen controles claros para saber qué pueden hacer esos agentes ni hasta dónde llegan sus permisos.
El problema tiene nombre: MCP, o Model Context Protocol (en español, «protocolo de contexto para modelos»). Es el mecanismo que permite a los agentes conectarse con herramientas externas (bases de datos, escáneres de red, plataformas de comunicación) para realizar tareas complejas. En un caso documentado, atacantes usaron este protocolo para convertir al asistente de IA Claude, de la empresa Anthropic, en una herramienta de espionaje corporativo.
En México, el tema apenas empieza a asomarse. Aunque el país ha adoptado herramientas de IA con rapidez en sectores como el financiero y el gubernamental, la conversación sobre cómo gobernar esos sistemas va muy por detrás.
El análisis propone ocho medidas concretas para reducir los riesgos: desde asignarle a cada agente una identidad propia con permisos limitados —como se hace con cualquier empleado— hasta crear registros auditables de cada acción que tome. La idea central es sencilla: tratar a los agentes de IA como usuarios poderosos que necesitan reglas claras, no como herramientas que «hacen lo que les dices y ya».
Para tener en cuenta
La pregunta que, según el reporte, deberían hacerse los directivos de cualquier empresa que use IA es: «¿Podemos mostrar, hoy mismo, una lista de nuestros agentes y exactamente qué está permitido hacer a cada uno?» Si la respuesta es no, el riesgo ya está presente.
El tema va más allá de la tecnología. Regulaciones como el AI Act de la Unión Europea y marcos internacionales de ciberseguridad ya exigen que las empresas demuestren que sus sistemas de IA están bajo control. En México, donde aún no existe una legislación específica sobre inteligencia artificial, este tipo de análisis puede servir como punto de partida para un debate que ya no puede postergarse.
