Inteligencia Artificial y legislación: ¿quién pone las reglas del juego?

Javier Escalante Macías 

Delegación Territorial de  Córdoba

Consejeria de Sostenibilidad, Medio Ambiente y Economía Azul

Inteligencia Artificial y legislación: ¿quién pone las reglas del juego?

La inteligencia artificial (IA) ya no es una promesa futurista, es una realidad que influye en decisiones de contratación, diagnósticos médicos, campañas políticas y hasta en lo que vemos en nuestras redes sociales. Sin embargo, esta omnipresencia tecnológica plantea una pregunta urgente:

¿cómo se regula la inteligencia artificial?”  

A medida que la IA se integra en nuestras vidas, también crecen los riesgos asociados: sesgos algorítmicos, pérdida de privacidad, decisiones automatizadas sin supervisión humana o el uso malintencionado de tecnologías como el reconocimiento facial o los deepfakes. Sin una regulación clara, estas amenazas pueden erosionar derechos fundamentales y generar desconfianza en la tecnología. 

La Unión Europea ha dado un paso histórico con la aprobación en 2024 de la Ley de Inteligencia Artificial (en adelante AI Act). Esta normativa es pionera en el mundo y se basa en un enfoque de gestión del riesgo. Inspirada en el principio de precaución y, en la lógica del Reglamento General de Protección de Datos (RGPD), la ley clasifica los sistemas de IA en función del nivel de riesgo que suponen para los derechos y libertades fundamentales: 

      • Riesgo inaceptable: Quedan expresamente prohibidos sistemas que empleen técnicas subliminales para manipular el comportamiento, aquellos que permitan la puntuación social por parte de autoridades públicas, y la vigilancia biométrica masiva sin autorización. 
      • Riesgo alto: Se consideran así los sistemas utilizados en contextos sensibles (por ejemplo, evaluaciones escolares, decisiones judiciales, selección de personal, servicios públicos o dispositivos médicos). Estos sistemas deberán someterse a estrictos requisitos de transparencia, documentación técnica, supervisión humana y evaluaciones de impacto. 
      • Riesgo limitado: Implica la obligación de transparencia, como informar al usuario cuando interactúa con una IA, por ejemplo, en el caso de chatbots o asistentes virtuales. 
      • Riesgo mínimo: Incluye la mayoría de sistemas cotidianos (como motores de recomendación) que no requieren medidas adicionales. 

El AI Act refuerza la protección de los ciudadanos europeos mediante el derecho a la información, la posibilidad de impugnar decisiones automatizadas y la obligación de supervisión humana en sistemas críticos. Además, prevé mecanismos de vigilancia y sanciones administrativas que pueden alcanzar hasta 35 millones de euros o el 7% de la facturación global de la empresa infractora. 

Uno de los grandes retos de la legislación reside en su equilibrio entre la protección de derechos y la promoción de la innovación. Las empresas tecnológicas deberán incorporar mecanismos de cumplimiento regulatorio (compliance) desde el diseño, lo que podría suponer barreras de entrada para pequeñas y medianas empresas. Sin embargo, también se abre la puerta a la certificación de “IA confiable” como ventaja competitiva. 

La ley propone además la creación de sandboxes regulatorios (entornos de prueba supervisados) para facilitar el desarrollo de proyectos innovadores bajo criterios éticos y legales. 

La norma ha sido objeto de críticas tanto por parte de la industria, que teme una ralentización de la competitividad tecnológica europea, como por parte de organizaciones de derechos digitales, que consideran que ciertos aspectos, como la vigilancia en espacios públicos, siguen siendo permisivos.

A pesar de ello, el AI Act representa un hito regulatorio con potencial para convertirse en estándar internacional, como ya ocurrió con el RGPD en materia de protección de datos. Países como Brasil, Canadá o Japón observan de cerca este modelo, mientras que en Estados Unidos el enfoque continúa siendo más sectorial y voluntario. 

España ha tomado iniciativas propias mientras se adapta al marco europeo. En 2023 se creó la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), con sede en A Coruña, encargada de vigilar el uso responsable de estas tecnologías. Además, se han publicado códigos éticos, guías de buenas prácticas y se impulsa la formación en IA desde las universidades y administraciones públicas. 

En definitiva, la Ley de Inteligencia Artificial de la Unión Europea constituye un esfuerzo normativo pionero para encauzar el desarrollo de tecnologías complejas bajo un marco de responsabilidad, ética y garantía de derechos. Su eficacia dependerá, no obstante, de su aplicación práctica, del compromiso institucional y de la cooperación internacional en la gobernanza de la inteligencia artificial. 

Mientras, Europa impone límites, otros países como Estados Unidos o China adoptan enfoques más laxos o estratégicos, priorizando la competitividad sobre la ética. Esta disparidad plantea desafíos:

¿cómo evitar que las empresas trasladen sus operaciones a países sin regulación?

¿Cómo garantizar una gobernanza global para una tecnología sin fronteras? 

Regular la inteligencia artificial no significa frenar su desarrollo, sino encauzarlo para que respete derechos, valores democráticos y el interés común. La legislación es una pieza clave, pero no la única: “la educación, la transparencia, la participación ciudadana y la responsabilidad empresarial son igualmente necesarias para que la IA sea una herramienta de progreso, no de exclusión”. 

Como sociedad, estamos escribiendo las reglas del futuro. Que esas reglas protejan lo humano es quizás la mayor inteligencia de todas.

Si te ha gustado este artículo, encontrarás más contenidos interesantes en nuestra sección “CRÓNICAS JURÍDICAS”.

Y te invitamos a ver nuestros anteriores números de EnRed@2.0.