La fábrica de inteligencia: Entrevista a Javier Martínez Aldanondo

La fábrica de inteligencia:
Entrevista a Javier Martínez Aldanondo

Por J. Enrique Martín Martín.
Embajador del Conocimiento 2025

Buenos días, Javier acabas de publicar en tu blog un articulo muy interesante titulado “La fabrica de inteligencia” donde expones que “La inteligencia es la responsable de lo que somos y tenemos. La inteligencia fabrica todo lo que nos rodea, … vamos a perder el monopolio de la producción de inteligencia para compartirlo con una creación nuestra: la Inteligencia Artificial que será mejor que nosotros en muchas cosas” y, por ello, “El supuesto sobre el que se basa nuestra civilización se desmorona… La IA redefinirá radicalmente qué significa ser humano en el siglo XXI”.

Estamos, por tanto, ante un reto mayúsculo en lo técnico pero también en lo social que, al igual que en películas de ciencia ficción como “Los Sustitutos” (2009), nos obliga a replantearnos como va a ser la convivencia social y como vamos a gestionar que haya máquinas que hagan las cosas mejor y más rápido que los humanos.

En este contexto tan apasionante como apocalíptico, en esta noche (como diría Jesús Quintero) donde la luz de la razón se encuentra con la sombra de la incertidumbre, ¿cómo definirías, en esencia, esta criatura llamada Inteligencia Artificial?

A mí me gusta mucho una definición que hace de Demis Hassabis es el CEO de Deep Mind pertenece a Google y que fue premio Nobel de Química en 2024 que dice que la IA es un sistema que convierte datos e información en conocimiento. Hablando de manera más coloquial, para mí la inteligencia artificial es una inteligencia que es capaz de ejecutar las mismas tareas, tomar las mismas decisiones y obtener resultados similares a los humanos pero que sigue un camino distinto.

Nosotros somos un ente biológico y por lo tanto somos inteligentes de una manera muy concreta y la IA lo que hace es procesar información, es un software que se basa en datos y en el procesamiento de esa información previa para poder predecir y ejecutar y por tanto es una  inteligencia de un tipo diferente.

Hasta ahora solamente conocíamos nuestra inteligencia y la utilizamos para hacer todo lo que hacemos y ahora hemos descubierto otro tipo de inteligencia que nos debiera permitir llegar a resultados similares (todavía no iguales, en algunas cosas sí e incluso en algunos ámbitos mejor que nosotros y en otros todavía no) pero nos ofrece un camino diferente para lograr los mismos objetivos sin depender de nuestra intervención.

¿Es un eco de nuestra propia mente, o algo que ya escapa a nuestra comprensión?

Lo primero es que hay muchas preguntas para las que yo no tengo respuesta y para las que dudo incluso que existan respuestas o yo al menos dudaría de las respuestas que existan porque se trata de algo que no tiene precedentes, nunca hemos conocido una inteligencia que fuera capaz de rivalizar con la nuestra, capaz de hacer las cosas que nosotros hacemos y por tanto yo creo que estamos en proceso de entenderla porque todavía la estamos construyendo y no somos capaces de anticipar los efectos que va a tener.

¿Es un eco de nuestra propia mente? Sí porque la IA es una creación nuestra, todavía depende de nosotros, no procede de la naturaleza ni que sepamos procede de otro planeta, sino que es un proceso de evolución porque la IA no es un hecho reciente sino que lleva 80 años desarrollándose pero además es un anhelo  histórico del ser humano (primero dominamos a los animales para que nos hagan el trabajo y después sustituimos músculos por máquinas y ahora le toca el turno al cerebro). Entonces es un eco porque refleja nuestro concepto del mundo, nuestros modelos mentales y nuestra percepción de la inteligencia (está hecha a nuestra imagen y semejanza aunque usando otros mecanismos).

La IA escapa a nuestra comprensión sí, porque nunca habíamos conocido nada que hiciera lo mismo que hacemos nosotros y que lo hiciera mejor y que lo hiciera más rápido, e incluso lo que está ocurriendo es que empieza a hacer cosas que nosotros no podemos hacer o que no imaginábamos que se podían hacer (que tiene que ver con la discusión respecto de la creatividad, la conciencia, etc). El asunto es que todavía no entendemos muy bien cómo hace lo que hace, el caso es que lo hace y tarde o temprano lo entenderemos.

Vivimos en un mundo donde los algoritmos susurran al oído de nuestras decisiones y donde vamos a tener que reconfigurar nuestro sistema de producción y de gestión del conocimiento.

¿Cuáles son, en este preciso instante, los usos más extendidos de la IA que, quizás sin darnos cuenta, están moldeando nuestra realidad cotidiana y van a incidir en la gestión del conocimiento y en la distribución del trabajo?

Seguramente hay gente que conoce mucho mejor que yo, desde el punto de vista de la tecnología, de qué manera la IA está ya incorporada en usos cotidianos y habituales. Cada vez que utilizas Waze on Google Maps, Netflix, Amazon o cualquier sistema de recomendación y en general la mayoría de cálculos que se realizan hoy para todo, electricidad, banca, medicina, etc y desde luego en las apps que utilizas en el teléfono, trabajan por debajo con procesamiento estadístico de datos para hacer cálculos y predicciones.

Eso significa que la IA está bastante más incorporada de lo que de lo que creemos en nuestra vida cotidiana. Sobre el vínculo con la gestión de conocimiento y con la distribución del trabajo, yo parto de la base de que todo es gestión de conocimiento porque todo aquello que tú haces requiere conocimiento y por lo tanto requiere que antes ese conocimiento exista y sea creado y aprendido. Tú no puedes hacer nada para lo que no tienes conocimiento y, por tanto, todo lo que hacemos todo el rato sin darnos cuenta es gestión de conocimiento que hasta ahora requería la intervención de un ser humano porque el conocimiento estaba, básicamente, en el cerebro.

A medida que somos capaces de delegar o automatizar ese conocimiento, podemos lograr que se consigan resultados y ejecuten tareas sin nuestra participación. En el pasado, para determinadas tareas logramos que los animales las hicieran y por tanto se ejecutaba la tarea que antes teníamos que hacer nosotros. Después logramos que las máquinas las hagan (un tractor ara el campo, una excavadora hace agujeros para colocar cimientos…) porque requieren esfuerzo físico y ahora ese ejercicio lo estamos consiguiendo con las tareas intelectuales.

Y este escenario en el que logramos desligar la ejecución y por tanto la obtención de resultados de nuestra participación directa, yo creo que va a cambiar drásticamente no solamente la distribución del trabajo (qué trabajos se hacen, quien los hace, cómo se hacen), sino toda la economía y, como resultado, toda nuestra sociedad y nuestra manera de relacionarnos y convivir.

Partiendo de que no podemos obviar esta realidad de cambio que se esta extendiendo con la implantación progresiva de la IA, por mucho que tengamos miedo al cambio tan drástico que esta suponiendo en campos tan diversos como la medicina, el arte, la industria…

¿Cuál consideras que es el sector donde su impacto ha sido más profundo y transformador hasta la fecha?

Por lo que veo, más que sectores que seguramente habrá estadísticas que muestren en qué sectores la IA está penetrando con más fuerza, lo que estoy viendo sobre todo son organizaciones y por tanto personas que están más abiertas, más valientes y más arriesgadas a experimentar.

Diría que todos aquellos sectores u organizaciones que han avanzado en la digitalización tienen una pequeña ventaja porque la IA se alimenta de datos e información es decir, todo aquello que no está sistematizado ni documentado (introducido en un sistema tecnológico) la IA no lo puede leer y todos los que hayan sido disciplinados en la identificación y captura de los datos o del conocimiento tienen una ventaja, están mejor preparados.

Es como si vas a jugar un partido o a correr una carrera y has entrenado previamente y compites con otro que no ha hecho nunca nada de ejercicio.

Me cuesta pronunciarme respecto de sectores porque yo lo que veo sobre todo es que en el mismo sector conviven empresas que están mucho más sensibilizadas, mucho más abiertas y están probando y experimentando y no tienen menos miedo o al menos tienen claro que no si no se meten en la IA el futuro puede ser muy difícil y al mismo tiempo hay empresas que compiten en ese mercado que se resisten o que todavía no entienden la IA o que tienen miedo.

Seguramente los sectores más digitalizados tienen una ventaja en cuanto a que les resultará más fácil explotar toda aquella información de la que ya disponen.

¿Cómo esta afectando a las Administraciones Publicas en su relación con los ciudadanos y en su organización misma?

Yo creo que en las Administraciones Públicas influyen en 3 o 4 elementos.

Uno la cantidad y la calidad de los datos / información con que cuentan para poder alimentar, entrenar y sacar partido de la IA. Recuerdo un responsable de tecnología de un ayuntamiento que me decía que su problema no era conseguirse las licencias de los LLMs (n.ed. Large Language Models – Modelos Lingüísticos de Gran Tamaño) porque a priori no se trataba de un problema económico (hay muchas opciones de trabajar con sistemas que no deberían ser tan costosos al menos para probarlos en pilotos) sino que el obstáculo era la calidad de los datos, me decía que tenían hacer un esfuerzo enorme para poner en orden la información que tenían y eso incluye pensar en cuál sería la información más útil que quizás no es la que tienen actualmente (yo sostengo que gestionamos los datos que son más fáciles de gestionar, no necesariamente los más importantes porque los más importantes suelen ser mucho más difícil obtenerlos y con la IA existe una posibilidad de capturar los datos importantes).

Por otro lado está la resistencia a hacer cosas distintas (eso es igual en el sector privado). Yo he conversado con algunas instituciones públicas y me comentan la oposición por parte de los propios funcionarios y colaboradores para hacer las cosas de una manera distinta, dejar de hacerlas o que las haga a una máquina por diferentes motivos: desde el miedo a perder un empleo hasta la dificultad que tenemos de que algo nos diga cómo tenemos que hacer lo que siempre hemos hecho.

Hay temas también legales y éticos relacionados con la confidencialidad de los datos y restricciones normativas ya que la IA trabaja con los datos y si esos datos por lo que sea no van a estar disponibles nos quedamos sin el combustible que se requiere, pero, en general, es lo que yo veo es eso, es cierta reticencia y no una dificultad de de formación en línea porque tampoco es compleja, es un tema sobre todo de visión.

Si cerramos los ojos e intentamos vislumbrar el mañana, ese tsunami del que hablas en tu articulo, ¿qué escenarios futuros nos dibuja la IA en la Administración Publica y, en particular, en la gestión del conocimiento?

Difícil vaticinar los escenarios futuros porque hay mucha convulsión a todos los niveles. Yo estoy vinculado de manera indirecta a la inteligencia artificial desde finales de los años 90 y he seguido siempre muy atentamente el desarrollo de las muchas promesas que se hacían y las muchas expectativas que se generaban.

De hecho, por carriles paralelos avanzaba la neurociencia intentando entender cómo funciona nuestro cerebro y por tanto cómo funciona la inteligencia y la inteligencia artificial intentando hacer que las máquinas hicieran lo que hacíamos los seres humanos con las restricciones tecnológicas que existía entonces. Durante 30 años no se podía cumplir esa promesa que todo el mundo deseaba y entendía, pero que técnicamente no era fácil de resolver hasta que en estos últimos años se ha producido esa esa eclosión, empieza a ver datos, empieza a haber capacidad de cómputo y de almacenamiento empieza a haber algoritmos que son capaces de procesar todos esos datos y computarlos. Entonces, se juntan todas las piezas y el escenario futuro es difícil de anticipar porque vamos a tener acceso a algo a lo que, hasta ahora, nunca habíamos podido tener y, por tanto, no  sabemos muy bien cómo va a funcionar. La primera tentación es  dejar de hacer cosas que hasta ahora requerían de nuestra intervención. Yo creo que el segundo paso será incluso intentar imaginar cosas que no sabíamos que se podían hacer o tratar de hacer lo que siempre quisimos y no se podía o ya directamente van a aparecer escenarios que, ni siquiera, somos capaces de imaginar. Por eso, yo siempre hablo de que la inteligencia artificial es la nueva gestión del conocimiento, es la promesa que siempre quisimos obtener pero que nunca teníamos los medios para lograrla, que se basa por un lado en reutilizar el conocimiento colectivo, no solo individual, de una manera muchísimo más inteligente y eficiente. Y, segundo, crear nuevo conocimiento a un ritmo que nuestras limitaciones biológicas humanas nos condicionan y no nos permiten.

¿Estamos a las puertas de una nueva revolución industrial/social, o de algo mucho más trascendental?

El tiempo lo dirá. Yo creo que se viene un cambio de época, una revolución y un cambio de paradigma, casi como cuando estaban los dinosaurios y llega un meteorito y los borra de la faz de la tierra y surge otro escenario.

Se nos viene potencialmente esa posibilidad. Otra cosa es si va a ocurrir y cómo lo vamos a administrar, incluso si lo vamos a frenar. Este escenario tendría muchos efectos colaterales que no somos capaces de anticipar, pero el rango de los cambios que se podrían producir es gigantesco porque nuestra sociedad se basa en la inteligencia, en el conocimiento: todo lo que hay que no es creado por la naturaleza es el resultado la inteligencia.

Todo lo que somos profesionalmente es el resultado del conocimiento que tenemos y toda la estructura económica se basa en el trabajo y es el conocimiento el que permite hacer tareas y fabricar productos o entregar servicios, generar ingresos, etc. Entonces, todo nuestro entramado social, toda esa estructura, habrá que revisarla porque estaba diseñada para requerir de nuestra participación y nuestra vida se basaba en eso y dependía de eso.

Ahora se presenta una alternativa para que eso ya no sea así y podría tener un impacto enorme.

Se habla de la IA como la gran aliada para que “vivamos todos como reyes”, para resolver todos los problemas que los humanos no hemos resuelto hasta la fecha: pobreza, lucha contra el cambio climático, la cura de enfermedades, etc.

¿Son estas esperanzas meras quimeras, o existe un fundamento sólido para el optimismo?

Yo creo que el potencial teórico existe: pasamos de que algo como la inteligencia ha sido considerado un recurso escaso y se ha gestionado como tal, lo que ha producido competencia y eso ha desembocado en una manera concreta de organizarnos como sociedad y de convivir.

Ahora esa dificultad para gestionar algo escaso pasaría a un mundo donde el recurso inteligencia es abundante (al menos en teoría) y tendremos que comprobar cómo respondemos a esa situación, porque nuestra civilización siempre ha sido consecuencia de nuestras decisiones, nuestros valores, nuestros principios y nuestros comportamientos.

Mi duda es si seremos capaces de cambiar nuestro modelo mental histórico que nos ha traído hasta aquí basado en esa escasez y por tanto en esa competencia, en la lucha por los recursos, y virar hacia un modelo donde podamos compartir y colaborar. La historia diría que no porque somos una especie que, aunque ha sido capaz de colaborar mejor que ninguna otra, tiene dificultades para evitar la competencia y a la hora de la verdad, cuando hay que sobrevivir, triunfa siempre el interés personal el individualismo.

Quizás ante un incremento tan evidente de la cantidad de inteligencia disponible, se pueda producir el cambio, lo que creo es que vamos a tener la posibilidad frente a nosotros y tendremos que comprobar si somos capaces de administrarlo.

Más que optimista, tiendo a ser más bien realista pero no se puede desconocer un factor que juega a nuestro favor: cada vez tenemos más conocimiento y por tanto más capacidad de resolver los problemas.

Es verdad que cada vez los problemas son más complejos y muchos de ellos requieren no tanto conocimiento técnico (del que cada día tenemos más y con las máquinas haremos crecer hasta el infinito), sino conocimiento relacional, de ser capaz de ponernos de acuerdo y consensuar y limar diferencias y en esto último la historia no habla favorablemente…

Pero no todo es luz en el camino de la IA y se están levantando voces que hablan de poner limites a su utilización y desarrollo.

¿Cuáles son las sombras que aún oscurecen su desarrollo?

Bueno las sombras ni siquiera están cien por cien claras.

Dos aspectos a tener en cuenta, 1. Nunca antes ha existido una tecnología capaz de hacer las cosas que hacemos nosotros y 2. Tampoco hemos conocido una tecnología que tuviera autonomía para poder tomar decisiones. Todo siempre he dependido de nosotros: por muy potente o peligrosa o sofisticada que fuese la tecnología que creábamos. la decisión era nuestra.

A partir de la IA puede existir un ámbito donde la tecnología pueda decidir incluso mejor que nosotros, con mucho más conocimiento que nosotros, de hecho de forma que ni siquiera podamos entender, puede existir IA con conciencia.

Hoy en día, la inteligencia artificial no tiene necesariamente intención (ni objetivos propios ni tampoco tiene un propósito ni una conciencia) pero en el momento que pudiera tener esas características humanas (lo que resulta potencialmente factible) tendríamos que convivir con una entidad que es muy superior a nosotros porque su capacidad de procesar y crear conocimiento estaría a años luz de nosotros.

Las sombras entonces pasan por dilucidar si seremos capaces de gobernar algo que será más inteligente que nosotros y si seremos capaces de gobernarlo para que juegue a nuestro favor. La tecnología aunque siempre tiene una intención (la diseñamos para lograr un objetivo) no deja de ser neutra porque el uso de esa tecnología depende de la intención que ponemos los seres humanos y eso depende a su vez de nuestros valores.

La conclusión es que la sombra, más allá de la potencia de la herramienta como tal, es la intención que tengamos sobre qué uso darle, qué limitaciones colocarle y cómo lo vamos a “controlar” y sobre todo, cómo nos vamos a controlar a nosotros mismos…

Por eso digo que la IA nos muestra como somos realmente y deja en evidencia el miedo que tenemos de nosotros mismos porque somos capaces de lo mejor y de lo peor, lo que ocurre es que si usamos la IA para lo peor, el daño podría ser irreparable.

Por eso me pregunto si tendrá sentido introducirle a la IA también esos elementos que son intrínsecamente humanos, que provienen de nuestra biología, de la necesidad de sobrevivir, del cerebro reptilianos o si mantenemos a la IA alejada de esos valores humanos y nos guardamos esas “emociones” solo para nosotros.

¿Qué limitaciones técnicas, éticas o incluso filosóficas debemos enfrentar?

Las limitaciones también están por descubrirse y definirse porque de nuevo, no tenemos precedentes de algo como esto. Con la IA estamos continuamente empujando los límites respecto de todo lo que puede hacer o no puede hacer y su impacto. Sabemos que hay muchos inventos que se piensan para una cosa pero luego se aplican para otra.

La regulación, como pasa muchas veces, va por detrás de la realidad y creo que a todos los niveles, técnico-ético-filosófico, vamos a tener que jugar para empezar con los límites que tenemos ya colocados para el resto de herramientas e instrumentos que forman nuestra convivencia (tenemos legislación para armas nucleares o clonación) y no sé si, además, habrá que crear leyes especiales sin antes aplicar las reglas que hemos venido aplicando para el resto de ámbitos de nuestra vida.

A partir de ahí imagino que tendremos que crear otra serie de regulaciones porque esto es inédito e imagino que lo vamos a tener que ir haciendo a medida que avanzamos porque no sé cuánto podemos anticipar.

Lo que sí creo es que habrá mantener un equilibrio entre la prudencia y también dejar el espacio para la experimentación, asumiendo que el impacto que puede tener la IA puede ser muy alto y por ahora desconocido.

No me lo plantearía desde el miedo pero sí con prudencia porque algo que sea muchísimo más inteligente que nosotros es algo que potencialmente se nos podría escapar y podría resultar difícil de controlar.

¿Podrán llegar a controlar toda la gestión del conocimiento hasta el punto de que decidan lo que es cierto y lo que no al modelo de la película “Matrix” (1999)?

Yo creo que para responder esta pregunta previamente hay que tener claridad respecto de qué se entiende por gestión de conocimiento y luego hay otra sub-pregunta que es lo que es cierto y lo que no.

Creo que es muy difícil acordar que es cierto o que es verdad. Hay hechos objetivamente aceptados y luego hay opiniones y puntos de vista y miradas. Lo que es verdad y podemos considerar cierto es un ámbito no tan amplio. Por ejemplo, hoy es cierto que en España es miércoles, pero el número de cosas que estamos de acuerdo que son de una manera no es tan grande (fíjate en los terraplanistas y demás teorías conspirativas). Sobre el resto hay muchísima opinión, siempre ha sido así porque las personas somos seres subjetivos que interpretamos la realidad desde nuestra experiencia y con la IA va a ser difícil de controlar porque el volumen de información solo va a aumentar.

Respecto de la gestión de conocimiento, yo separaría por ahora una gestión del conocimiento documentada que incluye todo aquello que podemos haber trasladado del cerebro a documentos y que antes era un ejercicio un poco pobre porque la capacidad de traducir el conocimiento humano (que es una experiencia) en un documento era muy limitada y con la IA lo estamos enriqueciendo a través de procesos de reflexión a los que podemos añadir “capas” que incluyen vídeos, audios, imágenes infografías (que existen hace tiempo pero que no eran fáciles de incluir) y luego una capa extra que considera no solo el qué hacemos sino el cómo y el por qué.

Entonces todo lo que sea documentable efectivamente una máquina ya hace mucho tiempo que tiene mucha más capacidad que nosotros de procesar, de almacenar, de relacionar, de combinar y de buscar patrones y esa es una carrera en la que no podemos competir a base de fuerza bruta. Todavía podríamos competir y no estoy seguro de ello, en originalidad, en creatividad pero no se por cuanto tiempo.

La otra parte de la gestión de conocimiento que es la no documentable es la que está en la cabeza de las personas y que se gestiona mediante instancias para transferir y compartir que permiten a las personas conversar, comunicarse, ayudarse, preguntar y reflexionar en conjunto. En esa parte la IA debería tener menos protagonismo pero también va a participar siendo un apoyo.

Yo no tengo miedo de que la IA controle porque esa capacidad de controlar por ahora se la tendríamos que entregar nosotros y vuelvo a insistir la IA todavía no tiene intención ni tampoco tiene conciencia de que de lo que hace o de si lo hace bien o no, o por qué lo hace o para qué lo hace.

Sin embargo podría tenerlo pero para eso se lo tenemos que introducir nosotros y en ese caso podría controlar no solamente la gestión del conocimiento sino potencialmente controlarlo todo.

La clave radica en si le queremos entregar esas capacidades o si los desarrollará por su cuenta y eso es algo que en 2025 todavía es difícil de anticipar.

La IA aprende de los datos, y los datos, a menudo, reflejan nuestras propias imperfecciones y son susceptibles de manipulación como en las “fake news”.

¿Cómo podemos evitar que la IA perpetúe o incluso amplifique las fake news o, más allá, los sesgos y desigualdades presentes en nuestra sociedad?

Aquí hay dos tipos de respuesta, una es lo que le podemos pedir a la IA o a cualquier tecnología y la otra es lo que nos podemos pedir a nosotros mismos.

Yo puedo poner limitaciones o controles al uso de la tecnología y podemos establecer mecanismos de seguridad para la propia tecnología de forma que nos aseguremos un uso acorde con su objetivo. Hoy en día las IAs tienen guardarraíles que son limitaciones impuestas a los modelos sobre las cosas que pueden responder o no y los usos que en principio están permitidos o no. Para el tema de las fake news, entiendo que hay un movimiento que insiste en que todo contenido generado con IA debería incluir una manifestación explicita (por ejemplo una marca de agua en el caso de las imágenes o una confirmación si es texto) para saber que aquello que tú tienes en tus manos ha sido creado por una IA. Creo que por ahí se está avanzando.

La otra parte es el uso que los humanos les damos a las herramientas y eso es tiene mucho que ver con educación, cultura, valores de las personas, de los usuarios y eso está separado de la herramienta como tal. Es verdad que la IA podría tener un alcance potencialmente muy grande y peligroso pero el uso de la IA es una decisión nuestra y por eso ahí entra el tema de la educación. Pedirle a la idea que no tenga sesgos es injusto porque los sesgos se los colocamos nosotros y llevamos viviendo sesgados desde el principio de los tiempos.

Lo primero que tenemos que ser es conscientes de nuestros sesgos porque son inherentes: toda experiencia que tienes, todo contexto y cultura en el que vives y te educas influyen en tus creencias y nunca van a poder ser neutras. Otra cosa es el impacto que puedan tener esos sesgos y sus consecuencias (cómo afecte a derechos de otras personas o a los acuerdos y reglas que hayamos establecido) pero el sesgo es inherente a nosotros y por eso creo que hay que ser justos respecto de lo que le tenemos que pedir a la IA pero sobre todo ser justos de que es lo que nosotros tenemos que aprender es para que después la IA se comporte como queremos que se comporte.

No creo posible des-sesgarnos como seres humanos pero si hacerlos conscientes y trabajarlos.

Comentas en tu artículo que “La inteligencia es la capacidad de predecir el futuro para mantenerte vivo”, pero el miedo a la singularidad, a que la IA supere nuestra inteligencia y se convierta en una amenaza que lleve a la humanidad a su extinción como ocurría en “Terminator” (1984), resuena en el imaginario colectivo.

¿Es este un temor fundado, o una simple fantasía apocalíptica?

Sobre este tema hay discusión hace mucho tiempo, hay mucha literatura de ciencia ficción y mucho cine fantástico cuyo objetivo es entretener y para ello necesita provocar emociones y para lograrlo necesita plantear escenarios apocalípticos.

Nadie sabe lo que va a pasar, insisto en que cuando la cantidad de inteligencia se siga multiplicando nos vamos a enfrentar a algo que siendo tantas veces más inteligente que nosotros potencialmente podría lograr cualquier cosa y eso no podemos negar que podría ocurrir. Ahora bien los aspectos más delicados del comportamiento, los que más miedo nos producen y más nos preocupan tienen que ver con respuestas emocionales: con la capacidad de ser injustos, de ser violentos y agresivos, de ser poco tolerantes, racistas o xenófobos.

Las grandes desgracias que han ocurrido en la historia de la humanidad, de genocidios, maltrato a otros seres humanos, de discriminación se han producir como consecuencia de nuestro actuar que no puede evitar depender de un organismo biológico y un cerebro reptiliano y límbico (emocional) que pririza nuestra supervivencia y no tiene tanto que ver con una inteligencia “racional” que tiene una maquina aparentemente. Para que esas emociones las tengan las máquinas se las tendríamos que introducir. Lo que dicen los expertos en IA no va por la posibilidad de que la IA se rebele y nos quieran aniquilar y hacerse con el poder porque todavía no tiene intención ni tiene conciencia.

El riesgo más claro pasa por el impacto que generaría el desequilibrio social que se va a producir en el momento en que desaparezca el trabajo porque las personas hemos creado nuestra identidad muy vinculada al trabajo desplazar el trabajo de las personas hacia las máquinas que hacen el trabajo de personas sin que demos una respuesta a esas personas para que sigan viviendo manteniendo su cuota de bienestar si podría crear una situación de caos social.

Más allá de esos miedos, como indicas en tu artículo, la “IA es el invento mas importante de la historia de la humanidad” por las posibilidades de avanzar años luz en la gestión del conocimiento y la información de la que disponemos hasta la fecha.

¿Qué nos ofrece la IA en términos de autoconocimiento? ¿Podría ayudarnos a comprender mejor nuestra propia inteligencia, nuestra propia conciencia?

Yo pienso que eso ya está ocurriendo.

La inteligencia artificial provoca entre otras cosas la obligación de entender qué significa ser inteligente y por tanto potencia toda la investigación relacionada con el cerebro porque no conocemos ningún órgano que produzca más y mejor inteligencia que el cerebro humano, entonces nos está obligando a pensar con mucho más detalle qué es ser inteligente cómo funciona el cerebro y por otro lado nos obliga a desarrollar tecnología que trate de imitar ese proceso y por eso todo el progreso de la inteligencia artificial va en paralelo al progreso de la neurociencia.

Creo que tiene otra serie de ramificaciones porque nos obliga a pensar que significa ser humano ya que en ese proceso de descubrir qué es la inteligencia y cómo hacer máquinas inteligentes, nos empezamos a dar cuenta de que cosas son más inherentes a nosotros y más difíciles de transferir a una IA y al revés qué cosas que creíamos para nuestra sorpresa que eran exclusivas de las personas y que sin embargo una máquina es capaz de hacerlo fácilmente.

Y por último, la IA nos ayuda a entender que la nuestra nos es la única manera de ser inteligente (porque no podemos dejar de mirar el mundo desde nuestra perspectiva) y nos obliga a aceptar que hay otras maneras de ser inteligente o hay otras formas de inteligencia y que por el hecho de que nos sigan el mismo proceso que seguimos nosotros (que está basado en la experiencia, en el ensayo y error en recordar, en la memoria, en las neuronas, etc) no significa que no puedan lograr los mismos resultados por caminos distintos.

Es lo mismo que pasó cuando diseñamos los aviones, que los primeros intentos fueron tratar de copiar y replicar el proceso que seguía un pájaro para volar. Luego nos damos cuenta de que podemos cumplir el mismo objetivo y no necesariamente hay que batir las alas sino que se pueden usar otros mecanismos para lograr el mismo fin y creo que ese es un ejercicio de humildad interesante para el ser humano porque vamos a descubrir otras muchas maneras de ser inteligente lo que de nuevo nos vuelve a obligar a repensar o redefinir qué significa la inteligencia.

¿Y podría también contribuir a que el conocimiento no se pierda en las Administraciones Publicas, a que seamos objetivos y se elimine la arbitrariedad en nuestras decisiones a las demandas de los ciudadanos?

A que no se pierda el conocimiento desde luego que la IA puede ayudar en las Administraciones Públicas y en las empresas porque en el momento que consideras el conocimiento como un activo que hay que gestionar y te propones que permanezca como parte del patrimonio de la organización, puedes desarrollar procesos para asegurarte de que por un lado el conocimiento fluye y circula y por otro lado no se pierde cuando la gente se va y la IA va a jugar un papel fundamental en todo ese proceso, más como decía antes con el conocimiento documentado y en el caso del conocimiento tácito que está en la cabeza habrá que buscar la manera de apoyarnos en la IA también para capturarlo y sistematizarlo.

Lo de la arbitrariedad es más delicado porque insisto de nuevo en que los juicios todavía son humanos y por tanto parciales. Es verdad que cuántos más elementos tienes para tratar de obtener objetivizar lo subjetivo entonces tienes más argumentos para respaldar una decisión y en ese caso cuando contar con muchos precedentes y mucha capacidad de utilizar, procesar, relacionar esos precedentes y traerlos como argumento te debiese dar más posibilidades de ser menos arbitrario pero somos personas y dependemos de personas…

Para concluir Javier, como experto en la gestión del conocimiento, ¿cuál es tu mayor esperanza y tu mayor temor con respecto al futuro de la Inteligencia Artificial? ¿Qué legado vamos a dejar a las generaciones venideras en esta era de la IA?

Mi mayor esperanza es que podamos decidir si queremos trabajar porque es algo que nunca hemos podido decidir.

De hecho nadie piensa en el trabajo como una opción sino que el trabajo es algo que no se discute: es como si hubiéramos venido al mundo a trabajar y no es así, es verdad que el trabajo es el mecanismo que hemos diseñado para sobrevivir y mantenernos vivos con un cierto nivel de bienestar y de consenso colectivo pero el precio que pagamos es que tenemos que dedicar nuestra vida a ello porque para sobrevivir hay que alimentarse y vestirse y tener una vivienda etcétera y para eso hay que generar todo un ecosistema de tareas y que luego exige tener empresas y dinero y estructuras sociales…

Todo eso podría quedar en cuestión o se nos abre la posibilidad de inventar una manera de lograr el mismo resultado de sobrevivir sin que la estructura intermedia sea la manera en la que lo hemos hecho ahora (trabajo, empresas, mercado, etc.). Ahora bien, que eso sea posible es una cosa y el camino que habría que recorrer es otra.

La capacidad de ponernos de acuerdo para hacer esa transición y abandonar lo que tenemos para ir a ese otro escenario donde no sabemos muy bien cómo vamos a quedar es imprevisible, el temor es que no seamos capaces de aprovecharlo o que esa transición sea muy dolorosa porque seguramente hasta que logremos distribuir la inteligencia a la escala y el coste que se va a poder seguramente por el camino vamos a sufrir una transición complicada.

Javier, sólo nos queda agradecerte tu disposición y, como siempre, colaboración con la Junta de Andalucía para hacer de esta una organización mejor en cuanto a la gestión del conocimiento y, por ende, en el servicio prestado al ciudadano.

Nota.- Las preguntas realizadas han sido propuestas por la IA a la que he solicitado que me ayudara a concretar el alcance de esta entrevista.

Si te ha gustado este artículo, encontrarás más contenidos interesantes en nuestra sección “OPINION”.

Y te invitamos a ver nuestros anteriores números de EnRed@2.0.