La buena noticia: si ya gestionas proyectos con rigor metodológico, estás más cerca del cumplimiento de lo que crees. La mala: ignorarlo tiene consecuencias reales — sanciones de hasta el 3% de la facturación global anual.
Los cuatro niveles de riesgo que debes conocer
Riesgo inaceptable (prohibido): Sistemas de puntuación social, manipulación subliminal, biometría en tiempo real en espacios públicos. Si tu proyecto incluye alguno de estos, para. Sin matices.
Alto riesgo (requisitos estrictos): IA en infraestructuras críticas, educación, empleo, servicios esenciales, justicia. Requieren evaluación de conformidad, documentación técnica, supervisión humana y registro en la base de datos de la UE.
Riesgo limitado (obligaciones de transparencia): Chatbots, sistemas que generan contenido. Deben informar al usuario de que interactúa con IA.
Riesgo mínimo: La mayoría de los sistemas de IA empresarial — herramientas de productividad, análisis de datos, automatización de procesos. Sin obligaciones específicas adicionales.
Lo que el EU AI Act significa para tu proyecto concreto
Para la mayoría de PMOs, los sistemas de gestión de proyectos con IA, dashboards predictivos y agentes de automatización caen en riesgo mínimo o limitado. No requieren certificación, pero sí documentación básica y transparencia con los usuarios.
Como PM, tu responsabilidad práctica se resume en cuatro preguntas que debes poder responder para cualquier sistema de IA en tu proyecto:
1. ¿Qué tipo de sistema de IA es? Clasifica el riesgo. Si no sabes cómo clasificarlo, ese es el primer problema a resolver.
2. ¿Hay un humano que puede supervisar y anular las decisiones del sistema? La supervisión humana no es opcional para sistemas de alto riesgo.
3. ¿Existe documentación técnica del sistema? Datos de entrenamiento, capacidades, limitaciones conocidas. Si el proveedor no puede facilitarla, es una señal de alarma.
4. ¿Los usuarios saben que están interactuando con IA? La transparencia no solo es un requisito legal — es la base de la confianza.
Checklist EU AI Act para tu próximo proyecto
- He clasificado el nivel de riesgo de cada sistema de IA del proyecto
- Existe supervisión humana para las decisiones de alto impacto
- Tengo documentación técnica del proveedor del sistema de IA
- Los usuarios finales saben que interactúan con IA
- Hay un proceso para reportar incidentes relacionados con el sistema de IA
- El sistema tiene capacidad de explicar sus decisiones (explicabilidad)
¿Tienes dudas sobre el cumplimiento de tu proyecto?
En una sesión de diagnóstico revisamos el estado de cumplimiento EU AI Act de tu PMO e identificamos las acciones prioritarias.
Solicitar sesión gratuita