El EU AI Act ya no es una propuesta. Es ley. Y si gestionas proyectos que implican sistemas de inteligencia artificial en Europa, necesitas entender qué te afecta, cuándo y cómo prepararte. Sin tecnicismos legales.
La buena noticia: si ya gestionas proyectos con rigor metodológico, estás más cerca del cumplimiento de lo que crees. La mala noticia: ignorarlo tiene consecuencias reales — sanciones de hasta el 3% de la facturación global anual de la empresa.
El EU AI Act no es un obstáculo para implementar IA. Es el marco que hace que la IA sea confiable. Para tus clientes, para tu equipo y para ti.
Los cuatro niveles de riesgo que debes conocer
Riesgo inaceptable (prohibido): Sistemas de puntuación social, manipulación subliminal, biometría en tiempo real en espacios públicos. Si tu proyecto incluye alguno de estos, para. No hay matices.
Alto riesgo (requisitos estrictos): IA en infraestructuras críticas, educación, empleo, servicios esenciales, aplicación de ley, migración, justicia. Estos sistemas requieren evaluación de conformidad, documentación técnica, supervisión humana y registro en la base de datos de la UE.
Riesgo limitado (obligaciones de transparencia): Chatbots, sistemas que generan contenido. Deben informar al usuario de que está interactuando con IA.
Riesgo mínimo: La mayoría de los sistemas de IA empresarial — herramientas de productividad, análisis de datos, automatización de procesos. Sin obligaciones específicas adicionales, aunque se recomienda buenas prácticas.
Para la mayoría de PMOs: Los sistemas de gestión de proyectos con IA, dashboards predictivos y agentes de automatización caen en riesgo mínimo o limitado. No requieren certificación, pero sí documentación básica y transparencia con los usuarios.
Lo que el EU AI Act significa para tu proyecto concreto
Como Project Manager, tu responsabilidad práctica se resume en cuatro preguntas que debes poder responder para cualquier sistema de IA en tu proyecto:
1. ¿Qué tipo de sistema de IA es? Clasifica el riesgo. Si no sabes cómo clasificarlo, ese es el primer problema a resolver.
2. ¿Hay un humano que puede supervisar y anular las decisiones del sistema? La supervisión humana no es opcional para sistemas de alto riesgo — es un requisito de diseño.
3. ¿Existe documentación técnica del sistema? Datos de entrenamiento, capacidades, limitaciones conocidas, casos de uso previstos. Si el proveedor no puede facilitarla, es una señal de alarma.
4. ¿Los usuarios saben que están interactuando con IA? La transparencia no solo es un requisito legal — es la base de la confianza.
Checklist EU AI Act para tu próximo proyecto
- ¿He clasificado el nivel de riesgo de cada sistema de IA del proyecto?
- ¿Existe supervisión humana para las decisiones de alto impacto?
- ¿Tengo documentación técnica del proveedor del sistema de IA?
- ¿Los usuarios finales saben que interactúan con IA?
- ¿Hay un proceso para reportar incidentes relacionados con el sistema de IA?
- ¿El sistema tiene capacidad de explicar sus decisiones (explicabilidad)?
¿Tienes dudas sobre el cumplimiento de tu proyecto?
En una sesión de diagnóstico revisamos el estado de cumplimiento EU AI Act de tu PMO e identificamos las acciones prioritarias.
Solicitar sesión gratuita