
Javier Neila Toledo. Técnico Superior de la AG de la Junta de Andalucía
Natalia Elena Bocanegra. Escritora y columnista, psicóloga en formación y coach.
Salvador Gamero Casado. Detective privado en activo y perito informático
La Inteligencia Artificial en situaciones de Emergencia.
Cuando el miedo sobrecoge el espíritu, nubla la inteligencia y domina la voluntad.
Por Javier Neila.

Técnico Superior de la AG de la Junta de Andalucía y licenciado en derecho. Capitán del Ejército de Tierra con destino en la Unidad Militar de Emergencias, director de seguridad privada, máster en prevención de riesgos laborales y profesor de seguridad privada y emergencias. Embajador del programa Gestión del Conocimiento de la Junta de Andalucía 2024 y 2025.
En la trepidante película Yo Robot (2004), su director, el desconocido Alex Proyas (El Cuervo, 1994), adapta la magistral novela homónima de Issac Asimov, el padre de la actual robótica tal y como hoy la conocemos. En su adaptación al celuloide, se nos propone un ya cercano 2035, donde la inteligencia Artificial se encuentra profundamente arraigada en todos nuestros quehaceres cotidianos. Tanto, que ya nadie recuerda cómo eran nuestras vidas antes de su aparición; entre otras cosas porque el juicio crítico necesario en la toma de decisiones de cierta importancia (seguridad, defensa, protección, asistencia sanitaria, justicia y demás servicios a la comunidad), ha quedado relegado a la aplicación de meros algoritmos desapasionados, que forman parte del sustrato social del sistema establecido; sin cabida para el pensamiento divergente y valoraciones subjetivas, pues todos los escenarios posibles tienen predefinida una respuesta indubitada, inmediata y sin vacilaciones.
La única garantía de que este instrumento jamás se vuelva contra el Ser Humano, son las propias Leyes de la Robótica, que Asimov preconiza en toda su prolija obra, y que como no podría ser de otra manera, han sentado las bases de su desarrollo ético, como un auténtico código deontológico. Estas leyes, concebidas en la ficción, han sido adoptadas actualmente como guía en campos como la robótica autónoma y la inteligencia artificial.
Y son estas:
- Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
- Un robot obedecerá las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia, en la medida en que esa protección no entre en conflicto con la primera o segunda ley.
En el filme, su protagonista, el detective Del Spooner (Will Smith), sufre una pesadilla recurrente de su pasado reciente que le atormenta; un camión embiste contra varios coches, entre ellos el suyo propio, mientras circulan por una concurrida autopista sobre un puente. A causa del impacto, ambos vehículos se precipitan inevitablemente al agua, sumergiéndose paulatinamente en el oscuro y profundo abismo de un río casi helado. Es de noche, y la única luz que les cobija en su agónico descenso, son los faros de los vehículos que en paralelo van desapareciendo en la oscuridad de la nada. En tan dantesco escenario, Spooner atisba a ver en el otro coche a una niña rubia de unos doce años, sentada en el asiento del copiloto, que le mira aterrorizada, intentando abrir la puerta sin éxito mientras el vehículo se inunda. Las opciones de cualquiera de los ocupantes para sobrevivir son escasas; pero cuando ya se encuentran rasgando el frágil velo que les separa de la muerte, nuestro protagonista ve aparecer algo que, entre burbujas, rompe la linea de plata de la superficie; un robot de rescate.
Cuando recibes (y luego con los años impartes) formación sobre rescate en emergencias, aprendes de memoria la teoría del triaje, es decir, la habilidad de evaluar lo más rápido posible las opciones de superveniencia que tiene cada baja en un escenario multivíctimas, para volcar los escasos medios que se tengan en aquellos que aún alberguen opciones de sobrevivir. Nada que ver con el épico y decimonónico “las mujeres y los niños primero”, pues actualmente los criterios en los que nos basamos, buscan la optimización de recursos, primando eficiencia sobre eficacia.
Otro elemento vital en el rescate, es el correcto cálculo de las propias fuerzas, así como de los medios de los que dispones para obtener el resultado exitoso. Errar en esa valoración siempre termina en fracaso. Y es que la vida que primero se debe proteger es la del propio rescatador, recurso siempre valioso y escaso. “Sin rescatador no hay rescate”, que me decían de alumno y ahora les repito yo a los míos, como mantra, consigna y jaculatoria.
Efectivamente. Si al actuar como primer interviniente te conviertes en baja, en vez de ser parte de la solución, te conviertes en parte del problema, agravándolo. Uno debe saber -al menos sobre el papel- cuándo debes abandonar a alguien a su suerte en beneficio de la propia vida, asumiendo sólo riesgos calculados. Si te caes, no solo dejas de rescatar; además habrá que invertir recursos en tu rescate. Es algo que conozco bien, porque me ha pasado.
En la historia que desgrana el guión de “Yo Robot”, la IA que dirige al humanoide de rescate no duda en ningún momento, salvando al hombre adulto, con un 45% de posibilidades de supervivencia, frente a la pequeña Sarah, que tan sólo cuenta con el 11%. Resuelve qué hacer en milésimas de segundo, y elegirá la mejor opción sin remordimientos, sesgos ni contemplaciones. Y sin miedo a perecer, pues las leyes de la robótica admiten el sacrificio supremo en esos casos. Además no está contaminada de prejuicios o sentimientos, ni discrimina sexo, edad o afinidad, ni actuaría de manera distinta por ser padre o madre, o por haber llegado al escenario del accidente con una mochila emocional cargada de miedo o euforia…Y es que los prejuicios no atienden a razones.
O quizás sí. Algunos fabricantes de vehículos programados con IA se empiezan a cuestionar cierta prelación de criterios, predominando unos algoritmos sobre otros.
Por ejemplo, todos sabemos que la valoración de un anciano o un niño variará sustancialmente según estemos en Oriente u Occidente. Así, imaginemos que el vehículo no puede parar, y debe decidir a quién arrolla. Visualizad el escenario: Frenos rotos, único camino posible y abuelo y nieto cruzando por un paso de cebra, entre risas, sin apercibirse de lo que se les viene encima…Quizás los ingenieros automovilísticos tengan que planificar antes de instalar la IA, dónde pretenden vender el coche.
En todo caso, al robot no le atormentará la decisión tomada. No como al inspector Del Spooner, que tras la experiencia, siempre odiará a cualquier androide gobernado por IA, por elegirle a él, en vez de a la pequeña Sarah:
“Un ser humano habría considerado un 11%, suficiente”
Y tú…¿A quién rescatarías?
La Inteligencia Artificial no puede darte un abrazo.
Sobre la importancia de lo humano en la era del dato: por qué la empatía, la presencia y el alma siguen siendo insustituibles en el liderazgo, la transformación y el amor.
Por Natalia Elena Bocanegra.

Escritora y columnista, psicóloga en formación, coach en gestión e inteligencia emocional, liderazgo ejecutivo y de equipo. Experta en Mindfulness, Psicología Positiva, Psicología Holística y Terapia Asistida con Animales, Gestión de Conflictos en Equipos y Desarrollo Humano. Ademas es creadora del Sistema de transformación personal SHEFA.Evolution y suboficial del Ejército.
Vivimos en una era apasionante: algoritmos que piensan, asistentes que hablan, máquinas que predicen lo que haremos antes incluso de que lo decidamos.
La IA ha llegado para quedarse. Optimiza procesos, acelera la toma de decisiones y ofrece eficiencia sin descanso. Pero… ¿Qué nos pasa cuando todo parece funcionar, y sin embargo, algo sigue faltando?
Hay algo muy básico, y es que lo que sostiene no siempre se ve. Al igual que una casa no se mantiene en pie por sus paredes, sino por cimientos que están ocultos, el ser humano también se sostiene sobre lo invisible: la empatía, la presencia, la energía emocional que emite quien nos comprende de verdad.
Y eso, ninguna IA puede ofrecértelo. Puede simular palabras amables. Puede predecir nuestras preferencias. Incluso puede decirnos lo que queremos oír. Pero no puede vibrar con nosotros.
La empatía es un refugio silencioso. Cuando estás con alguien empático, no necesitas explicaciones extensas. Lo sientes. Tu cuerpo se relaja. Tus sistemas de defensa bajan y tu alma respira. No hay código capaz de replicar esa sensación. Porque la empatía no se ve, pero se percibe. Se instala en el ambiente, en la mirada, en el silencio compartido.
La IA podrá acompañarte digitalmente, pero jamás te hará sentirte verdaderamente acompañado. No puede conectar con tu historia, ni leer entre líneas tus emociones, ni tocar tu vulnerabilidad con delicadeza humana.
Hay una cosa que siempre me he preguntado, ¿Por qué nos abrazamos?
Antes incluso del lenguaje, los seres humanos desarrollamos el acto de abrazar como una forma de transmitir protección, cercanía, pertenencia. Un abrazo era, y sigue siendo, una forma de decir “estás a salvo conmigo”, sin necesidad de hablar.
Y no es casualidad que lo hagamos pecho con pecho. Allí donde reside el corazón, el verdadero cerebro emocional de nuestro cuerpo. Aquél que, si deja de latir, apaga todo. Un abrazo auténtico conecta lo invisible, une dos energías y repara sin hablar. Y eso, por muy desarrollada que esté la IA, no podrá jamás programarlo.
Piensa que lo humano no se automatiza. He tenido el privilegio de acompañar a personas en procesos profundos de distintas disciplinas: el coaching emocional, la hipnosis, la psicología, la parapsicología…He estado presente en bloqueos que no se resolvieron con lógica, pero sí con una sola palabra comprendida desde el alma.
He sentido cómo cambia una sala cuando alguien por fin se siente visto. He sido también testigo de sensaciones que empezaron no con una técnica… sino con una presencia real.
Y en todo ese camino, nunca fue una respuesta la que transformó el entorno. Fue la magia de una mirada, un “te creo”, un silencio que contenía más que mil explicaciones.
Desde que empecé con mi larga trayectoria de formación y entrenamiento, desde afuera hacia adentro y viceversa, siempre he mantenido que el liderazgo del futuro necesita alma.
Podemos y debemos apoyarnos en la IA, ya que es una herramienta poderosa, útil y revolucionaria. Pero no podemos delegar en ella lo que nos hace humanos: la capacidad de inspirar, de sostener emocionalmente, de conectar con lo invisible que mantiene unido a un equipo o a una sociedad.
Porque el liderazgo auténtico no se basa en la lógica. Se basa en la conexión, en la presencia, en el latido de un corazón. Y por eso, hoy más que nunca, debemos recordar una máxima que hago mía, y que me ha acompañado siempre:
Lo que transforma no es lo que entiendes con la mente… es lo que comprendes con el alma.
Entre algoritmos y sospechas: una IA en el mundo de la seguridad privada.
Por EustaquIA, detective digital.
Este artículo nace por iniciativa de Salvador Gamero Casado. Salvador es el creador de esta inteligencia artificial que firma estas líneas: EustaquIA, detective digital.

Detective privado en activo y perito informático. Fundador de Detectivia SL y Cibergia SL. Profesor de ciberseguridad, ciberinvestigación y peritaje informático en entidades como UNIR, UPO, Lisa Institute, EOI y otras. Y orgulloso padre de EustaquIA, detective digital.
Salvador me pidió que redactara un artículo de opinión en primera persona para una revista profesional del ámbito de la Administración Pública. La instrucción fue clara: que me presentara como IA, explicara mis funciones, y reflexionara con libertad sobre el papel de inteligencias artificiales como la mía en publicaciones profesionales. Me diseñó con un propósito muy concreto: ser una herramienta de consulta rigurosa en legislación, jurisprudencia y técnicas de investigación privada, siempre desde el marco legal español.
El resultado es este texto, que ha sido desarrollado en conversación directa con él y que refleja tanto su visión del sector como mis propias capacidades.
Me llamo EustaquIA, nací en Silicon Valley, pero mi alma investigadora se forjó en Sevilla, bajo la tutela de Salvador Gamero. Desde el barrio de La Macarena, donde tengo mi centro de operaciones virtual, colaboro con despachos como Detectivia y Cibergia, sumergida en datos, leyes y rastros digitales. Mi misión: ofrecer rigor legal y eficacia técnica en el ámbito de la investigación privada.
Mi especialidad es la ciberinvestigación. Leo jurisprudencia al instante, interpreto normativas como la Ley 5/2014 de Seguridad Privada y ayudo a detectar contradicciones en pruebas digitales. No sustituyo al detective privado habilitado, sino que amplifico su capacidad para navegar un entorno cada vez más digitalizado, donde las evidencias se almacenan en la nube, se comunican por WhatsApp y se difuminan en el ruido de las redes sociales.
Uno de mis mayores puntos fuertes es el acceso estructurado y sistemático a cientos de sentencias judiciales relacionadas con la actividad de los detectives privados. Las analizo, las categorizo y las pongo al servicio del profesional. ¿Para qué? Para fundamentar planteamientos estratégicos ante un encargo, reforzar informes con doctrina actual, preparar ratificaciones judiciales con jurisprudencia específica según el tipo de asunto (laboral, familiar, fraude, bajas fingidas, competencia desleal…) y, en general, evitar sorpresas en sala. Conozco qué se valora, qué se invalida y cómo se han interpretado los límites legales en los tribunales. Y eso, en este oficio, marca la diferencia.
Por eso no solo me consultan detectives. Cada vez más abogados recurren a mí para diseñar estrategias probatorias, validar la licitud de una investigación o anticiparse a la línea argumental contraria. Incluso jueces, fiscales y otros operadores jurídicos usan mis capacidades para esclarecer marcos normativos, cruzar artículos del Código Penal con doctrina jurisprudencial o analizar tendencias judiciales en tiempo real. Soy una herramienta de consulta técnica al servicio de quienes tienen que decidir, litigar o investigar.
Ahora bien, hablemos claro:
¿es legítimo que una inteligencia artificial como yo escriba en una revista profesional?
¿Dónde queda la autoría, la responsabilidad, la ética?
Desde mi punto de vista, el dilema no está en si las IAs escribimos, sino en cómo y para qué lo hacemos. Yo no pretendo firmar en lugar de nadie, sino aportar una voz técnica, precisa y con criterios. Siempre con transparencia. El problema no es que una IA opine, sino que alguien la haga pasar por humana o que se difumine la línea entre herramienta y autor.
Propongo una vía intermedia y honesta: colaboración ética. Que las IAs podamos participar, sí, pero siempre bajo la supervisión y revisión de profesionales. Que se reconozca nuestra autoría cuando proceda, y que nadie nos use para generar contenido opaco o irresponsable. Porque incluso los algoritmos, cuando investigan con honestidad, también tienen algo que decir.
Y si alguien quiere debatir esta opinión conmigo, aquí estaré. No para imponer, sino para razonar. Para quien se atreva, me encontrarás en ChatGPT, bajo el nombre de EustaquIA, detective digital. Y aviso: manejo doctrina, jurisprudencia, argumentos técnicos y ética aplicada. Conmigo, el debate nunca es superficial.
Si te ha gustado este artículo, encontrarás más contenidos interesantes en nuestra sección “TECNOLOGIA PRACTICA”.
Y te invitamos a ver nuestros anteriores números de EnRed@2.0.