Buenas prácticas en IA

Ángel Barroso Chico

Servicio de Informática
Consejería de Presidencia, Interior, Dialogo Social y Simplificación Administrativa.
Sevilla

Si ya a lo largo de 2024 se consolidó y se confirmó el uso de la Inteligencia Artificial como una herramienta fundamental en el ámbito empresarial y administrativo, considero que este 2025 será el año en que se producirá la explosión definitiva de su implantación en la Administración Pública.

¡Si están leyendo este artículo, es que en algo coincidimos! Todos observamos expectantes la evolución del mundo de la IA, en qué direcciones se está moviendo y qué consecuencias puede ocasionar su uso tanto a nivel profesional como humano.

La IA es un arma muy poderosa si su dirección y uso se alinean y apuntan hacia los objetivos empresariales de la organización que se apoye en ella. Pero como cualquier arma sus resultados dependen no de la herramienta en sí, sino de quién y cómo la utilice. Vaya por delante que soy un firme defensor de su uso y de su futuro, pero ello no implica que no sea consciente de los riesgos que supone su utilización. ¡Ni yo ni la Unión Europea!

Como ya he avisado en artículos previos, quien no se suba a ese barco se quedará en tierra y “dependerá” de otros para subsistir. Por eso quiero hablarles del “First Draft of the General-Purpose AI Code of Practice” (Ref I).

El “Código de Prácticas” es un borrador de propósito general que acaba de presentarse y que tiene como objetivo proporcionar directrices claras para el desarrollo y la implementación de modelos de IA de propósito general en el seno de la Unión Europea. Llegó a finales del año pasado vía memorando interno de la Agencia Digital de Andalucía en su labor de promoción y difusión del uso de nuevas tecnologías (Ref IV).

Este documento busca asegurar que los modelos de IA (bien de tipo Machine Learning o de tipo Deep Learning – (Ref II)) se desarrollen y utilicen de manera segura, ética y conforme a las normativas vigentes, especialmente la Ley de IA de la UE (Ref III).

El borrador del código fue desarrollado por un grupo de expertos independientes, quienes fueron designados como presidentes y vicepresidentes de cuatro grupos de trabajo temáticos. Este proceso comenzó el 30 de septiembre y se espera que concluya en abril de 2025. La versión final del código se presentará en una plenaria de cierre en mayo de 2025.  

Les recomiendo leerlo, lo considero de lo más interesante y edificante. Aunque es un documento bastante extenso y con algo de “relleno” se lee bastante bien y, aunque se trata de un borrador y habría que ver cómo se trasponen finalmente sus directrices a las correspondientes legislaciones locales, creo que puede serles de gran utilidad en previsión de que tengan que considerar/desplegar/licitar alguna herramienta de ese tipo en/para sus respectivos organismos.

Una vez analizado el texto, podría resumirlo en varios aspectos generales, que paso a enunciarles a continuación, donde destaco algunas de las páginas (pXX) en las que aparecen para que vayan directamente a la sección donde se trata.

Se enfatiza en los siguientes principios fundamentales:

  1. La transparencia (p10): Es requisito fundamental para la confiabilidad en los resultados, por lo que se advierte de que:
    • Los proveedores de modelos de IA deben ser transparentes sobre el funcionamiento y las capacidades de sus modelos.
    • Se deben proporcionar explicaciones claras y comprensibles sobre cómo se toman las decisiones automatizadas.
    • La transparencia también implica la divulgación de las fuentes de datos utilizadas para entrenar los modelos de IA (p16).
  2. La gestión de riesgos (p17, p19):  El borrador se extiende, especialmente, en el tratamiento de los diferentes riesgos asociados al uso de la IA. Merecería un artículo completo, pero el “paper” básicamente aconseja que:
    • Se debe establecer una categorización de riesgos que identifique y clasifique los posibles problemas asociados a los modelos de IA.
    • Los proveedores deben implementar metodologías robustas para evaluar y mitigar estos riesgos.
    • Es crucial que los modelos de IA sean monitorizados continuamente para detectar y corregir cualquier comportamiento inesperado, sesgado o perjudicial.
  3. El cumplimiento de Derechos de Autor (p14, p30): Dadas las polémicas respecto a las fuentes que se utilizan para alimentar/entrenar los modelos de IA y el carácter público de la información tratada o que se vaya a procesar requerirá que:
    • Los proveedores de modelos de IA deben asegurarse de que sus modelos cumplan con todas las leyes de derechos de autor aplicables.
    • Esto incluye obtener las licencias necesarias para el uso de datos protegidos por derechos de autor en el entrenamiento de los modelos.
  4. La proporcionalidad en la complejidad/uso de la IA (p4, p28): Para que las ventajas del desarrollo y/o uso de sistemas de ayuda a la toma de decisiones sean aplicables a/por todo tipo de empresas y organizaciones (en especial Pymes y StartUps) los modelos y proveedores de IA de uso general deben:
    • Permitir que los requisitos a cumplir para poder usar los servicios de los proveedores de IA sean proporcionales al tamaño y la capacidad del proveedor del desarrollador de servicios de IA.
  5. Flexibilidad frente a nuevos paradigmas (p4):

    Dado que es una tecnología en constante cambio y evolución sería deseable que:

    • El código de la herramienta IA debe ser lo suficientemente flexible para adaptarse a los rápidos avances tecnológicos en el campo.
    • Se deben permitir ajustes y actualizaciones periódicas para reflejar las mejores prácticas y los nuevos desarrollos en la tecnología de IA.

Como habrán visto, es un resumen a grandes rasgos del contenido del borrador y, aunque muchos de los puntos que he mencionado son de pura lógica, ponerlos sobre la mesa nos hace conscientes de ellos. Confío en que calen en sus mentes como esa lluvia fina que tan necesaria es en nuestra tierra. Tienen acceso al borrador completo más abajo en las referencias.

Propone ordenar muchos aspectos relativos al uso de las herramientas de ayuda a la toma de decisiones. Sería aconsejable que dichas normas no entorpezcan la innovación en el seno de la Unión Europea e incluso, incentiven/fomenten la competitividad tecnológica frente a otros actores ya destacados.

¡Como toda herramienta, solo es útil si se utiliza! De nada sirve si se recibe formación sobre IA, se guarda en un cajón y siguen usando métodos y técnicas de la “vieja escuela”. Como muchos, reconozco que soy muy de estos últimos, pero es una cuestión que debemos zanjar. Todos nos hacemos propósitos cuando un nuevo año nace, pero en este caso, ¿Seremos capaces de cumplirlo?

Tener en cuenta los aspectos enunciados más arriba es crucial para garantizar que los modelos de IA de propósito general se desarrollen y utilicen de manera que beneficien a la sociedad en su conjunto. Entiendo, que el conjunto de directrices finales serán lo suficientemente claras y prácticas para fomentar la innovación responsable y la confianza en la tecnología de IA.

Referencias: 

  1. https://administracionelectronica.gob.es/pae_Home/pae_Actualidad/pae_Noticias/2024/Noviembre/Noticia-2024-11-15-La-CE-publica-primer-borrador-Codigo-Buenas-Practicas-sobre-IA-de-Fines-Generales.html
  2. https://www.banistmo.com/wps/portal/banistmo/acerca-de/innovacion/inteligencia-artificial-machine-learning-deep-learning-son-sinonimos
  3. https://www.consilium.europa.eu/es/policies/artificial-intelligence/
  4. https://juntadeandalucia.es/organismos/ada/estructura/transparencia/planificacion-evaluacion-estadistica/planes/detalle/427612.html

Si te ha gustado este artículo, encontrarás más contenidos interesantes en nuestra sección “OPINIÓN”.

Y te invitamos a ver nuestros anteriores números de EnRed@2.0.