Guía en lenguaje claro

El Reglamento de IA de la UE: Lo que las pymes realmente necesitan saber

Sin jerga jurídica. Sin PDFs de 200 páginas. Solo una explicación clara de qué es el Reglamento de IA de la UE, a quién afecta y qué debe hacer su empresa antes de agosto de 2026.

Descubrir su nivel de riesgo →

¿Qué es el Reglamento de IA de la UE?

El Reglamento de IA de la UE (Reglamento 2024/1689) es la primera ley integral del mundo que regula específicamente la inteligencia artificial. Fue adoptado por la Unión Europea en 2024 y comenzó a entrar en vigor en 2025, con el plazo principal para la mayoría de las empresas el 2 de agosto de 2026.

La regulación adopta un enfoque basado en riesgos: cuanto mayor sea el daño potencial de un sistema de IA, más estrictos son los requisitos. Una IA de contratación que ayuda a decidir quién es contratado tiene más reglas que una IA que sugiere su próxima lista de reproducción. La ley cubre cualquier empresa que opere en la UE o proporcione servicios a clientes de la UE — independientemente de dónde esté ubicada la empresa.

Para la mayoría de las pequeñas y medianas empresas, el impacto práctico es sencillo: dígales a las personas cuándo interactúan con IA, mantenga registros básicos de la IA que utiliza y tenga una política simple que cubra cómo la usa de manera responsable. Para las empresas que usan IA en contratación, decisiones de crédito o sanidad, hay más trabajo involucrado — pero es manejable con la orientación correcta.

Plazos clave

El Reglamento de IA de la UE se implementa por fases. Aquí está lo que importa y cuándo.

2 feb 2025
En vigor

Disposiciones sobre IA prohibida

Entraron en vigor las normas que prohíben los sistemas de IA prohibidos — incluidos la puntuación social, la manipulación subliminal y la mayoría de las vigilancias biométricas en tiempo real.

2 ago 2025
En vigor

Normas para modelos GPAI

Entraron en vigor las normas para los modelos de IA de propósito general (GPAI) — como GPT-4, Gemini, Claude. Los proveedores de estos modelos deben cumplir; las empresas que los utilizan enfrentan nuevas normas de transparencia.

2 ago 2026
Plazo principal

Transparencia y disposiciones generales ⭐

EL plazo principal para la mayoría de las empresas. Obligaciones de transparencia para los sistemas de IA (divulgar cuándo los clientes interactúan con IA), requisitos generales de gobernanza y normas GPAI completas del lado del usuario.

2 ago 2027
2027

Sistemas de alto riesgo (Anexo I)

Requisitos de cumplimiento ampliados para los sistemas de IA de alto riesgo listados en el Anexo I — que cubren sectores como componentes de seguridad en productos regulados por el derecho de la UE.

2 ago 2030
2030

Sistemas de alto riesgo (Anexo III)

Cumplimiento completo para todos los sistemas de IA de alto riesgo restantes listados en el Anexo III — incluidos los sistemas de IA existentes ya en servicio antes de 2024.

¿A quién se aplica?

El Reglamento de IA de la UE clasifica el uso de IA en cuatro niveles de riesgo. Sus obligaciones dependen de dónde se sitúe su uso de IA.

🚫 Prohibido

Estos usos de IA están totalmente prohibidos bajo el Reglamento de IA de la UE.

Sistemas de puntuación social (calificación de personas basada en comportamiento)
Manipulación subliminal del comportamiento
Vigilancia biométrica en tiempo real en espacios públicos (con excepciones limitadas)
IA que explota vulnerabilidades de grupos específicos
Reconocimiento de emociones en lugares de trabajo y escuelas (en la mayoría de los casos)
⚠️ Alto riesgo

Estos usos de IA están permitidos pero requieren un trabajo significativo de cumplimiento antes del despliegue.

IA en contratación y selección de personal
IA en puntuación crediticia y decisiones financieras
IA en diagnóstico médico
IA en infraestructuras críticas (energía, agua, transporte)
IA en educación para evaluar a estudiantes
Sistemas de identificación biométrica
⚡ Riesgo limitado

Estos usos de IA están permitidos pero requieren divulgaciones de transparencia específicas.

Chatbots de atención al cliente (deben divulgar la interacción con IA)
Contenido generado por IA (debe etiquetarse como creado por IA)
Deepfakes y medios sintéticos
Sistemas de reconocimiento de emociones (fuera de zonas prohibidas)
✅ Riesgo mínimo

La mayoría de los usos de IA están aquí. Sin requisitos específicos del Reglamento de IA — pero las buenas prácticas siguen aplicándose.

Filtros de spam impulsados por IA
IA en juegos y entretenimiento
IA para productividad interna (resúmenes, borradores de correos)
Motores de recomendación (estilo Netflix, Spotify)
Herramientas de optimización de marketing

Lo que las pymes necesitan hacer

Priorizado por nivel de esfuerzo. Empiece con las victorias rápidas.

🟢 Poco esfuerzoVictorias rápidas
  • Añadir avisos de divulgación de IA a cualquier chatbot ('Este chat usa IA')
  • Etiquetar el contenido generado por IA en su sitio web
  • Informar a su equipo sobre la IA que utilizan
🟡 Esfuerzo medioBases de documentación
  • Redactar una breve política de IA (qué IA usa, cómo y las reglas de gobernanza)
  • Crear un registro de sistemas de IA (listar todas las herramientas de IA y su propósito)
  • Revisar sus avisos de privacidad para incluir el tratamiento de datos de IA
  • Asegurar el cumplimiento del RGPD para cualquier IA que trate datos personales
🔴 Alto esfuerzo (solo alto riesgo)Requisitos de alto riesgo
  • Realizar una evaluación de conformidad para cada sistema de IA de alto riesgo
  • Implementar y documentar procesos de supervisión humana
  • Registrar sistemas de alto riesgo ante las autoridades nacionales
  • Mantener documentación técnica según lo exigido por la ley

Glosario

Términos clave del Reglamento de IA de la UE, explicados con claridad.

GPAI (IA de propósito general)
Modelos de IA entrenados con grandes conjuntos de datos que pueden usarse para muchas tareas diferentes — como ChatGPT, Claude o Gemini. El Reglamento de IA tiene normas específicas para las empresas que proporcionan modelos GPAI.
Sistema de IA de alto riesgo
Un sistema de IA utilizado en un contexto donde los errores podrían dañar significativamente a las personas — como contratación, decisiones de crédito, sanidad o infraestructuras críticas. Estos requieren el mayor trabajo de cumplimiento.
Evaluación de conformidad
Un proceso obligatorio para sistemas de IA de alto riesgo donde documenta cómo funciona el sistema, lo prueba y verifica que cumple con los requisitos del Reglamento de IA — antes de desplegarlo.
Obligación de transparencia
El requisito de decirle a las personas cuándo interactúan con IA. Por ejemplo: divulgar que un chatbot es IA, o que el contenido fue generado por IA. Se aplica a la mayoría de los usos de IA de riesgo limitado.
Registro de sistemas de IA
Un documento que enumera todos los sistemas de IA que utiliza su empresa — incluido qué hacen, qué datos procesan y cómo se toman las decisiones. Obligatorio para sistemas de alto riesgo; buena práctica para todos.
IA prohibida
Usos de IA totalmente prohibidos bajo el Reglamento de IA de la UE, incluidos los sistemas de puntuación social, la manipulación subliminal y la mayoría de las vigilancias biométricas en tiempo real.
EIPD (Evaluación de Impacto de Protección de Datos)
Un requisito del RGPD para el tratamiento de datos de alto riesgo. Si su IA trata datos personales de una manera que podría afectar los derechos de las personas, probablemente necesite una EIPD.
Documentación técnica
Registros detallados requeridos para sistemas de IA de alto riesgo: qué hace el sistema, cómo fue entrenado, sus limitaciones, resultados de pruebas y cómo toma decisiones.
Responsable del despliegue (Deployer)
Según el Reglamento de IA de la UE, cualquier empresa que utilice un sistema de IA en un contexto profesional es un 'responsable del despliegue' — aunque no lo haya construido. La mayoría de las pymes son responsables del despliegue.
Proveedor (Provider)
Una empresa que construye o vende un sistema de IA. Si ha desarrollado IA propia, puede ser tanto proveedor como responsable del despliegue, con obligaciones adicionales.

Descubra su nivel de riesgo en 5 minutos

Realice la auditoría gratuita. Responda 5 preguntas sobre su uso de IA y obtenga una evaluación de riesgo personalizada y un plan de acción.

Iniciar auditoría gratuita →

⚠️ Esta guía es solo con fines educativos — no es asesoramiento jurídico.