Nuria Oliver: «No me preocupa la tecnología de la IA, sino nuestra vulnerabilidad biológica»

La ingeniera alicantina, que lleva más de tres décadas estudiando la Inteligencia Artificial, aboga por una tecnología «por y para las personas». Clama por la lacra de nuestro tiempo: «El salto que me ilusiona es lograr que el talento joven se quede aquí»

- Premio Nacional de Matemáticas, Personaje Social 2025 por poner a la gente en el centro de la IA, primer premio nacional de ingenieros de telecomunicaciones, pionera en el MIT de Massachusetts… ¡Más que dar un salto usted no deja de saltar en su carrera!

- (Sonríe). Esos reconocimientos no los entiendo como metas personales, sino como oportunidades de visibilidad para una causa que nos trasciende: la necesidad urgente de conseguir una Inteligencia Artificial por y para las personas. Cada paso en mi carrera, desde mis años en el MIT hasta el Premio Nacional, ha sido un esfuerzo por demostrar que la excelencia técnica carece de sentido si no está al servicio de la sociedad. Estar en la vanguardia científica me permite hoy liderar proyectos con propósito, pero también me otorga la responsabilidad de ser una voz crítica frente a los riesgos de la tecnología extractiva. El verdadero salto que me ilusiona no es el siguiente galardón, sino lograr que el excelente talento joven que formamos se quede aquí para conseguir que la Cuarta Revolución Industrial en la que nos encontramos inmersos sea un éxito colectivo y no un privilegio de unos pocos.

- «Tu chatbot favorito no es tu amigo». Lo escribió hace poco. ¿Es el mayor peligro de la IA?

- Si bien existen otros riesgos críticos de los que hablo constantemente, como la falta de veracidad (las llamadas alucinaciones), la opacidad de los algoritmos, los sesgos que perpetúan desigualdades o la inmensa huella de carbono de estos modelos, la antropomorfización es un peligro único por su impacto en nuestra salud democrática y mental. Mi preocupación no es la tecnología en sí, sino nuestra vulnerabilidad biológica: somos una especie social y caemos fácilmente en el antropomorfismo, es decir, otorgamos características humanas a entidades no humanas. Al otorgar categoría de «amigo» a un algoritmo, bajamos nuestra guardia crítica y nos exponemos a la manipulación, la captura de datos íntimos y el debilitamiento de los lazos humanos reales. Como describí en ese artículo, «los chatbots son maestros del ilusionismo: generan una ilusión de empatía, respondiendo como si nos entendieran; una ilusión de comprensión, como si captaran nuestras necesidades; y una ilusión de competencia, proyectando seguridad y coherencia aunque no tengan juicio ni conocimiento real. Saben ganarse nuestra atención y manipularnos explotando nuestros sesgos para vendernos no solo productos (poco falta para la publicidad encubierta en sus respuestas), sino también ideologías: reforzando nuestras creencias previas, amplificando prejuicios, guiándonos hacia opiniones convenientes y utilizando nuestra necesidad de seguridad cognitiva para moldear actitudes y decisiones. Paradójicamente, desconfiamos de las instituciones que sostienen la democracia y depositamos nuestra confianza en estos sistemas opacos que operan sin control público ni responsabilidad«. La IA es una herramienta poderosa para el progreso científico y social, pero debemos recordar que los algoritmos de IA están basados en las matemáticas, no en la conexión humana. Confundir una simulación estadística con una conexión emocional es renunciar a nuestra esencia y a nuestra autonomía.

Noticia relacionada

- Stephen Hawking señaló en 2016 que la inteligencia artificial sería «lo mejor o lo peor que le pase a la humanidad». ¿En qué punto la ve usted que lleva 30 años estudiándola?

- Esa frase de Stephen Hawking es una inspiración para mí. Como científica que ha dedicado más de 30 años a la Inteligencia Artificial, mi respuesta es una declaración de intenciones: llevo tres décadas trabajando para que la balanza se incline hacia el «mejor» lado posible. Para mí, la cita de Hawking no es una profecía fatalista, sino una llamada a la acción. No podemos permitirnos ser observadores pasivos de una tecnología con tanto poder transformador, lo que me llevó a impulsar y dirigir ELLIS Alicante (el Instituto de Inteligencia Artificial Centrada en la Humanidad), la red europea de excelencia en investigación en IA. Aquí, la frase de Hawking se convierte en nuestra misión fundacional por tres razones clave: IA para el Bien Social. Frente a la IA que solo busca la eficiencia comercial, nosotros priorizamos el impacto social. Como demostramos liderando el equipo de ciencia de datos durante la pandemia en la Comunidad Valenciana, la IA puede ser «lo mejor» si se usa para salvar vidas y guiar decisiones públicas basadas en evidencia. Investigación Ética por Diseño: En ELLIS Alicante no añadimos la ética al final como un «parche». Trabajamos en la transparencia, la justicia algorítmica o la detección y eliminación de sesgos desde la raíz, porque una IA que discrimina o es opaca es la que nos acerca a «lo peor». Soberanía del Talento: Creemos que la única forma de garantizar un futuro positivo es que Europa atraiga y retenga al mejor talento joven. Si las nuevas generaciones de investigadores no están formadas en valores humanistas, perderemos el control sobre la dirección que tome la IA. Mi labor en ELLIS Alicante es asegurar que, cuando miremos atrás dentro de otros 30 años, podamos decir que la IA fue lo mejor que nos pasó porque decidimos, colectivamente, poner a las personas en el centro. La Inteligencia Artificial es el mayor desafío y la mayor oportunidad de nuestro tiempo, pero para que sea verdaderamente humana, no puede depender solo de intereses comerciales. Por eso, invito a las y los lectores a apoyar nuestro trabajo para asegurar que el mejor talento joven investigue con independencia, ética y un compromiso inquebrantable con el bien común.

- ¿Cómo se pone a las personas en el centro de la Inteligencia Artificial?

- Poner a las personas en el centro de la Inteligencia Artificial significa trascender la visión de la tecnología como una simple herramienta de optimización económica para convertirla en un motor de bienestar social y dignidad humana. Implica desarrollar una «IA con propósito» que aborde retos sistémicos como la desigualdad o la salud pública, asegurando que los beneficios de la innovación se distribuyan de forma equitativa.

«La fuga de talento es la herida abierta que amenaza la soberanía de Europa y, de forma aún más acuciante, la de España»

- ¿En qué se trabaja en ELLIS Alicante?

- En ELLIS Alicante trabajamos para transformar la relación entre la tecnología y la sociedad, centrando nuestra investigación en tres pilares que consideramos críticos para el futuro de Europa. El primero es el desarrollo de una IA que comprenda y modele el comportamiento humano, utilizando la ciencia de datos para abordar grandes retos sociales como la respuesta a pandemias o la emergencia climática, lo que llamamos «IA para el bien social». El segundo pilar es el estudio de la interacción entre los humanos y la IA, analizando, por ejemplo, cómo estos sistemas afectan a nuestra toma de decisiones y a nuestra salud mental. También desarrollamos nuevos sistemas inteligentes e interactivos que ayudan a las personas. El tercer eje es la IA ética y responsable, donde investigamos, por ejemplo, cómo eliminar los sesgos algorítmicos que causan discriminación, cómo garantizar la privacidad de los ciudadanos y cómo hacer que los sistemas sean transparentes y auditables. En este tercer eje también estudiamos el impacto social de la Inteligencia Artificial. Algunos ejemplos de proyectos concretos incluyen: Maike, nuestro chatbot socrático diseñado específicamente para el ámbito educativo, es un ejemplo del tipo de proyectos que realizamos. A diferencia de los chatbots convencionales que ofrecen respuestas directas, fomentando un consumo pasivo, Maike utiliza el cuestionamiento guiado para estimular el pensamiento crítico y la autonomía del estudiante, asegurando que la IA potencie el intelecto humano en lugar de atrofiarlo. También hemos realizado estudios pioneros sobre el impacto de los filtros de belleza en las redes sociales, desvelando cómo estos «embellecedores digitales» amplifican sesgos cognitivos como el halo del atractivo y alteran la percepción social, llegando incluso a generar desigualdades de género en la percepción de la inteligencia o la confiabilidad. Además, mantenemos un liderazgo sólido en la IA para el Bien Social donde aplicamos el análisis de grandes conjuntos de datos para predecir el comportamiento humano a gran escala —trabajo que nos llevó a ganar el XPRIZE Pandemic Response Challenge, en colaboración con investigadores de distintas universidades y centros de investigación de la Comunitat Valenciana—, y en la lucha contra la discriminación algorítmica, desarrollando técnicas para detectar y mitigar sesgos en sistemas de toma de decisiones sensibles, como los procesos de contratación o la concesión de créditos. En esencia, no buscamos simplemente crear una Inteligencia Artificial más potente, sino asegurar que el progreso tecnológico esté alineado con los valores democráticos y los derechos fundamentales, convirtiendo a Alicante en un nodo de excelencia donde el talento joven pueda investigar con la libertad necesaria para priorizar el bienestar de las personas sobre los intereses puramente comerciales.

- «Las mentes más brillantes, las que tienen muchas ofertas laborales, no están eligiendo quedarse en Europa, y esto es una gran pérdida», dijo. No digamos España… ¿Es la fuga de talento nuestra gran lacra?

- Sin duda, la fuga de talento es la herida abierta que amenaza la soberanía de Europa y, de forma aún más acuciante, la de España. Históricamente, hemos sido excelentes exportadores de mentes brillantes que terminan impulsando la innovación en otros continentes porque aquí no encontraban las condiciones para desarrollar su potencial. Cuando las nuevas generaciones de investigadores en IA, que son quienes descubrirán las próximas fronteras de esta tecnología, eligen Silicon Valley o Asia, no solo perdemos capital humano, sino la capacidad de decidir cómo queremos que sea nuestro futuro digital. Precisamente ELLIS Europa se creó para revertir esta dinámica, y ELLIS Alicante, como unidad que forma parte de esta red, no es simplemente un centro de investigación, sino un refugio de excelencia diseñado para atraer y retener talento mediante la independencia científica y proyectos con un propósito humano. El hecho de que aparezcamos bien posicionados en búsquedas de internet en áreas críticas como la «Inteligencia Artificial para el Bien Social» o «sesgos en los filtros de belleza» demuestra que, si ofrecemos un ecosistema competitivo y con propósito, somos capaces de atraer dicho talento. Para consolidar este modelo y competir con la capacidad financiera de las grandes tecnológicas, es vital contar con un modelo de financiación público-privado. Además del firme compromiso y valioso apoyo sostenido en el tiempo de la Generalitat Valenciana, contamos con empresas, fundaciones y personas particulares que creen en nuestra misión y nos apoyan. La filantropía estratégica a la investigación es necesaria para poder ser competitivos en un escenario internacional. Por ello nos sentimos muy agradecidos hacia nuestros aliados y esperamos ampliarlos progresivamente, incluyendo, quizás, algunos de los lectores de este artículo. La investigación es, a fin de cuentas, la única inversión que garantiza el futuro, y no hay legado más duradero que ser el motor de descubrimientos que están cambiando la historia.

- No deja de hablar de la Cuarta Revolución Industrial. ¿Cuál será el salto del trabajo?

- La Cuarta Revolución Industrial no es simplemente una revolución tecnológica. Es una transformación sistémica que está desdibujando las fronteras entre el mundo físico, el mundo digital y el mundo biológico. El gran salto en el trabajo no vendrá de la competencia entre humanos y máquinas, sino de nuestra capacidad para evolucionar hacia tareas de mayor valor añadido. Históricamente, cada revolución ha transformado el mercado laboral, desplazando empleos y creando otros nuevos. Esta Revolución es única por su velocidad y por afectar, por primera vez, a tareas cognitivas. El verdadero impacto será la transición de un modelo de «aprender para trabajar» a uno de «trabajar para aprender continuamente». El futuro laboral exigirá que nos centremos en algunas de nuestras «habilidades humanas por excelencia»: la creatividad, el pensamiento crítico, las inteligencias social y emocional. Sin embargo, este salto conlleva un riesgo de polarización social si no invertimos masivamente en educación a todos los niveles. Mi visión es que la IA debe ser una herramienta de aumento, no de sustitución del ser humano.

- Y dice que la mujer debe protagonizarla… ¿A qué se refiere?

- Cuando afirmo que la mujer debe protagonizar esta Cuarta Revolución Industrial, lo hago desde una convicción profunda basada en la justicia, pero también en la pura eficiencia científica. Históricamente, las mujeres hemos sido infrarepresentadas en la creación de la tecnología, y eso ha tenido consecuencias reales: desde algoritmos que no reconocen voces femeninas hasta sistemas de salud que omiten nuestras particularidades. Si la Inteligencia Artificial va a redefinir el mundo, no podemos permitir que se diseñe desde una visión parcial de la humanidad. Necesitamos que la mitad de la población participe activamente en su creación para garantizar que la tecnología sea inclusiva, diversa y libre de sesgos. Mi foco no es solo que haya más mujeres usando tecnología, sino que haya más mujeres liderando el desarrollo de la IA. Por eso, en el ecosistema científico debemos romper los techos de cristal y fomentar las vocaciones STEM en las niñas, para que no solo sean espectadoras de este salto histórico, sino las arquitectas de un futuro donde la tecnología nos entienda y nos represente a todos por igual.

«Mis notas nunca fueron un fin en sí mismo, sino el reflejo de una pasión por aprender y una aspiración a dar lo mejor de mí misma»

- Ingeniera de Telecomunicaciones con una media de 9,2 sobre 10. Hoy se aboga por no poner notas a los alumnos... ¿Se premia menos el esfuerzo y el mérito hoy que ayer?

- Mis notas nunca fueron un fin en sí mismo, sino el reflejo de una pasión por aprender y una aspiración a dar lo mejor de mí misma. Al mismo tiempo, las notas me abrieron las puertas de instituciones de referencia a nivel mundial como el MIT. Creo que lo importante es fomentar la cultura del esfuerzo y de la excelencia. Evaluar es dar un diagnóstico y es importante distinguir entre la «nota» y el «aprendizaje», especialmente hoy en día, en que la mayoría de los resultados pueden ser generados con Inteligencia Artificial. Por eso abogo por una evaluación del proceso (más que del resultado), de la creatividad, de nuestras inteligencias social y emocional, de la capacidad para resolver problemas y para adaptarse, aprendiendo a aprender. Al mismo tiempo, la meritocracia, cuando es justa y garantiza la igualdad de oportunidades, es el motor del progreso social. Además, si dejamos de valorar el rigor y la excelencia, no podremos competir globalmente ni atraer a las mentes más brillantes.

«El desarrollo de la Inteligencia Artificial está hoy mayoritariamente en manos de un puñado de grandes corporaciones tecnológicas cuyo objetivo primordial no es el progreso de la humanidad, sino la maximización del beneficio y el valor para el accionista»

- Dijo otra cosa sobre la IA y la tecnología: «Somos ratones de laboratorio de un experimento global donde mandan los intereses económicos». ¿De qué intereses habla?

- Cuando hablo de esos intereses, me refiero a que el desarrollo de la Inteligencia Artificial está hoy mayoritariamente en manos de un puñado de grandes corporaciones tecnológicas cuyo objetivo primordial no es el progreso de la humanidad, sino la maximización del beneficio y el valor para el accionista, en muchos casos a costa del bienestar de las personas o las sociedades donde operan. En este escenario, nosotros, los ciudadanos, nos hemos convertido en el producto: nuestros datos, nuestra atención y nuestras emociones son la materia prima de un experimento masivo de ingeniería social. El interés de estas empresas es mantenernos conectados el mayor tiempo posible a sus plataformas, lo que a menudo se logra explotando nuestras vulnerabilidades cognitivas a través de algoritmos de recomendación que priorizan el contenido polarizante o adictivo. Este «experimento» tiene consecuencias reales en nuestra salud mental, en la calidad de nuestra democracia y en la formación de la opinión pública. Hablo de intereses que prefieren la opacidad a la transparencia, y que a menudo sacrifican la ética o la privacidad en aras del beneficio económico. Por eso es necesaria la investigación independiente, financiada por intereses públicos y por una filantropía comprometida con el bien común, como sucede en ELLIS Alicante. Solo así dejaremos de ser sujetos pasivos de este experimento para convertirnos en los directores de una tecnología que esté, de verdad, al servicio de las personas.

- De los móviles dijo hace tiempo: «Aceptamos tener tecnología hecha para estar todo el día usándola, adictiva, y se la damos a nuestros hijos». Mis hijos no paran. ¿Va a más?

- La realidad es que el problema de la adicción digital no deja de crecer, ya que los dispositivos y redes sociales están diseñados bajo los principios de la economía de la atención, utilizando mecanismos de refuerzo, como el scroll infinito, que actúan sobre el sistema de dopamina del cerebro de forma similar a una máquina tragaperras. Esta situación ha escalado de la simple distracción a una crisis de salud mental, ya que entregamos estas herramientas a nuestros hijos en una etapa crítica de su desarrollo neurobiológico, permitiendo que algoritmos diseñados para maximizar el consumo moldeen su capacidad de concentración y autoestima. Esta preocupación ha dejado de ser una teoría para convertirse en una realidad judicial con sentencias históricas. En marzo de 2026, un jurado de Los Ángeles emitió un veredicto revolucionario contra gigantes como Meta y YouTube, declarándolos responsables de negligencia y concluyendo que sus plataformas fueron creadas deliberadamente para enganchar a los menores. Como se destacó en el proceso, la arquitectura misma de estas aplicaciones está diseñada para maximizar el uso excesivo por encima del bienestar de los niños, confirmando que los beneficios económicos se priorizaron sobre la seguridad infantil. Ante este escenario, es urgente recuperar nuestra soberanía como padres y ciudadanos, fomentando el pensamiento computacional para entender cómo funcionan estos sistemas y exigiendo regulaciones que prohíban estos diseños adictivos.

- Yo noto otra corriente: la alergia a la tecnología en muchos estratos por su sobrepresencia… ¿Lo ve y qué peligros tiene?

- Esa «alergia» o tecnofobia que percibes es una reacción natural y comprensible ante una saturación que ha invadido nuestra intimidad y nuestro tiempo sin pedir permiso. Es el resultado de años de una tecnología extractiva y omnipresente que nos genera una sensación de pérdida de control. El peligro de esta corriente es que nos lleve a un ludismo moderno o a un aislacionismo digital. Si los sectores más críticos o éticos de la sociedad deciden desconectarse por rechazo, dejan el campo libre para que la tecnología siga siendo diseñada exclusivamente por quienes solo buscan el beneficio económico. El riesgo real no es la tecnología en sí, sino la asimetría de poder y un mal uso de la tecnología. En lugar de abandonarla, creo que deberíamos exigir una tecnología distinta, que tenga nuestros intereses en el centro y una soberanía que nos permita decidir cuándo y cómo interactuamos con las máquinas. Si permitimos que el rechazo nos paralice, renunciaremos a herramientas que son esenciales para resolver retos urgentes en el siglo XXI como el cambio climático o la crisis energética. La solución no es menos tecnología, sino una tecnología radicalmente distinta, que respete nuestra atención y que esté diseñada para nuestro bienestar, no para nuestro consumo.

- Otra frase suya, de hace unos años: «No serán robots, sino algoritmos, los que impacten en el empleo». ¿Ya está pasando?

- Esa predicción es hoy nuestra realidad cotidiana. Cuando la gente piensa en el impacto de la tecnología en el empleo, a menudo imagina un robot físico con forma humana ocupando un puesto en una fábrica, pero la verdadera revolución es invisible: es software. No estamos ante una sustitución mecánica, sino ante una automatización de tareas cognitivas. Son los algoritmos los que hoy ya están filtrando currículums, redactando informes jurídicos, diagnosticando radiografías o generando código de programación. El impacto es una erosión de las tareas que hasta ahora considerábamos exclusivamente humanas. Este cambio es profundo porque, a diferencia de las máquinas de vapor o los procesos de manufactura en las fábricas, los algoritmos son escalables de forma casi infinita y a un coste marginal cercano a cero. Esto significa que la transformación impacta con fuerza a las profesiones de «cuello blanco» y a los sectores creativos. Por ejemplo, la IA generativa ha redefinido en apenas meses sectores enteros como la traducción, el diseño gráfico o la atención al cliente. Sin embargo, el peligro no es que los algoritmos «nos quiten el trabajo», sino que nos quiten el valor de nuestro trabajo si no sabemos evolucionar. El reto actual no es competir en velocidad o memoria con un algoritmo, una batalla que evidentemente hemos perdido, sino en saber integrar esa capacidad algorítmica para aumentar nuestra propia productividad. Estamos en el momento de transitar hacia un modelo de colaboración humano-IA donde nos complementemos. La respuesta no debería ser el miedo, sino una formación acelerada para que seamos nosotros quienes dirijamos a la IA, y no al revés. Precisamente motivada por esta reflexión, acabo de publicar la segunda edición de mi libro «Inteligencia Artificial, naturalmente».

«El valor del periodismo humano se vuelve más preciado que nunca. La IA puede procesar datos, pero carece de la capacidad para interpretar el contexto social o para hacer preguntas incómodas al poder»

- Los medios de comunicación ya notamos el impacto de ese ingente procesamiento de información de la IA. ¿Está en jaque este oficio?

- El periodismo no está necesariamente en jaque, pero sí se enfrenta a una crisis de identidad profunda ante la capacidad de la IA para procesar información a una velocidad y escala sobrehumanas. Si entendemos el oficio solo como la capacidad de recopilar datos o redactar noticias breves sobre hechos rutinarios, entonces esa parte de la profesión sí está amenazada, porque un algoritmo de IA ya puede hacerlo de forma inmediata y casi gratuita. El riesgo real es que la Inteligencia Artificial inunde el ecosistema con una cantidad ingente de contenido sintético, a menudo diseñado para el clickbait, lo que puede asfixiar económicamente al periodismo de rigor y diluir la verdad en un mar de ruido digital. En este nuevo escenario, el valor del periodismo humano se vuelve más preciado que nunca. La IA puede procesar datos, pero carece de la capacidad para interpretar el contexto social o para hacer preguntas incómodas al poder, así como de la integridad ética para verificar las fuentes. El salto cualitativo del oficio consistirá en dejar de competir con la máquina en la fábrica de noticias para centrarse en el periodismo de valor añadido: la investigación profunda, la crónica con alma, el análisis crítico y, sobre todo, la curación de la realidad. En un mundo saturado de información generada por algoritmos, el medio de comunicación que logre posicionarse como un garante de la veracidad será el pilar fundamental de nuestras democracias.

- Estuvo dos años como comisionada de la Presidencia de la Generalitat para la Estrategia Valenciana para la Inteligencia Artificial. ¿Qué opina de la política tras su paso por ella?

- Mi labor nunca fue política, sino estrictamente científica y de servicio público desinteresado para ayudar durante la pandemia. Fue una posición honorífica y no remunerada, creada con el único propósito de coordinar el liderazgo de un grupo de científicos y científicas de la Comunitat Valenciana con una misión técnica específica durante una situación de emergencia global. El trabajo de este grupo de expertos y expertas se centró en el análisis de grandes volúmenes de datos y en el desarrollo de modelos epidemiológicos computacionales para predecir con la mayor precisión posible la curva pandémica, evaluando cómo las medidas impactaban en la movilidad y en la vida de las personas. Este trabajo resultó ganador del XPRIZE Pandemic Response Challenge frente a equipos de 17 países, incluyendo EEUU, Canada, Alemania o Australia. Mi experiencia fue la de una científica colaborando con las instituciones desde la independencia técnica, un modelo que considero esencial para que las decisiones públicas se basen en la evidencia y el rigor científico.

Enlace al artículo completo