Innovación social con Inteligencia Artificial en ELLIS Alicante

Rebeca de Miguel

Rebeca de Miguel

Directora de Operaciones de ELLIS Alicante

2 de deciembre, 2022

ELLIS Alicante recibe el Premio a la Innovación Social de la AEF. Hablamos con 5 jóvenes investigadores de nuestra fundación sobre cómo su trabajo en el campo de la IA contribuye a generar un impacto positivo en la sociedad

ELLIS Alicante –la única fundación sin ánimo de lucro de España dedicada a la investigación de excelencia en Inteligencia Artificial (IA) ética, responsable y centrada en las personas– ha sido reconocida con el Premio a la Innovación Social que otorga la Asociación Española de Fundaciones. En el marco de la entrega de este premio, hemos conversado con 5 investigadores predoctorales de ELLIS Alicante cuyos estudios de doctorado están financiados conjuntamente por la Generalitat Valenciana y la Fundación Banco Sabadell sobre cómo sus investigaciones contribuyen a generar un impacto social positivo. Forman parte del programa internacional ELLIS de excelencia para estudios de doctorado.

Adrián Arnáiz se graduó primero de su promoción en Ingeniería Informática y realizó un Máster en Ciencia de Datos e Inteligencia Artificial. Los temas que aborda en su doctorado son la justicia de la IA, la causalidad y la teoría de grafos para mejorar la ética, la responsabilidad y la transparencia en la toma de decisiones algorítmicas.

“Los modelos de aprendizaje automático se están convirtiendo en importantes herramientas para abordar problemas sociales complejos por su capacidad para analizar cantidades ingentes de datos, aprender de ellos, tomar decisiones informadas y establecer predicciones de modelos de conducta. En este contexto, se utilizan cada vez más para adoptar o respaldar decisiones en ámbitos importantes en la vida de personas, desde decisiones judiciales y laborales hasta sanitarias. Por lo tanto, es necesario tener en cuenta las implicaciones éticas de tales decisiones, incluyendo conceptos como la privacidad, la transparencia, la responsabilidad, la fiabilidad, la autonomía y la justicia algorítmica.

Hoy en día, existen algoritmos que toman decisiones discriminatorias respecto a determinados colectivos debido a que han aprendido de datos históricos que contienen estos sesgos o a un incorrecto diseño y uso de los algoritmos. La justicia algorítmica se centra en que los algoritmos de decisión no aprendan de manera sesgada y, por tanto, no tomen decisiones con los mismos sesgos culturales que lo haría un ser humano. Por ello, en el campo de la justicia algorítmica se estudia cómo modificar los datos y el algoritmo de aprendizaje para las decisiones resultantes no discriminen. El objetivo es que gracias a estos modelos de aprendizaje automático consigamos eliminar los sesgos que han tenido los humanos históricamente.”

Julien Colin es licenciado en Física y Química y tiene un Máster en Ciencias Cognitivas: Cognición Natural y Artificial. Antes de comenzar su doctorado en ELLIS Alicante, trabajó como asistente de investigación en Francia y Estados Unidos. Su tema de doctorado se centra en la IA explicable. Está interesado en desarrollar métodos para comprender mejor cómo funcionan los sistemas de aprendizaje profundo.

“Debido a su capacidad de aprendizaje y toma de decisiones, la IA tiene un gran potencial para convertirse en una fuente de innovación social, ya que es capaz de ayudarnos a lograr una mayor objetividad y equidad cuando se aplica a los muchos procesos que son necesarios para organizar nuestra vida cotidiana. Las empresas confían cada vez más en los sistemas de IA para tomar decisiones que consideran más imparciales. Sin embargo, tras su despliegue, se ha descubierto que las decisiones algorítmicas pueden ser poco fiables, incluso francamente discriminatorias en ocasiones. Este es un problema importante, ya que la IA no será útil para la sociedad si no podemos confiar en sus procesos de toma de decisiones. Trabajo para hacer que el proceso de decisión de esos sistemas de IA sea más transparente. Con una mejor comprensión de su proceso de decisión, podremos identificar y prevenir el despliegue en el mundo real de IA que no sea segura.”

Aditya Gulati tiene una licenciatura y una maestría en ingeniería informática del Instituto Internacional de Tecnología de la Información de Bangalore (India) y actualmente estudia su doctorado en ELLIS Alicante. Sus intereses de investigación radican en modelar el comportamiento humano y la Inteligencia Artificial.

“Hoy en día interactuamos con los sistemas de Inteligencia Artificial de forma habitual. Desde decisiones a pequeña escala, como qué contenido ver en Netflix hasta decisiones tan importantes como decidir cuánto tiempo debe estar alguien en prisión, estos sistemas están en todas partes. A pesar de su prevalencia, los sistemas de IA actuales no parecen comprender algunos aspectos clave de la toma de decisiones humanas, en particular, nuestra tendencia a tomar decisiones aparentemente irracionales fruto de sesgos cognitivos.

Los científicos sociales han estudiado ampliamente estos sesgos cognitivos que afectan nuestra toma de decisiones, pero los sistemas de IA actuales están diseñados sin tenerlos en cuenta. Esto podría ser problemático ya que, si queremos que los sistemas de IA nos ayuden y complementen a los humanos, es importante que entiendan cómo tomamos decisiones. Mi investigación se centra en utilizar este conocimiento sobre los sesgos cognitivos para ayudar a diseñar sistemas de IA que puedan entendernos mejor y ayudarnos a tomar mejores decisiones en equipos compuestos por humanos y sistemas de IA.”

Gergely Németh es graduado en informática por la Universidad de Budapest de Tecnología y Económicas (Hungría) con una maestría en Inteligencia Artificial por la Universidad de Manchester. Su doctorado se centra en la privacidad y la justicia en los sistemas de aprendizaje federado.

“El aprendizaje profundo permite hoy a los propietarios de los datos cambiar el mundo de una manera sin precedentes. Es bien sabido que las grandes empresas de tecnología son los principales expertos en aprovechar los datos recopilados de su gran número de clientes para servir a sus intereses. Pero los clientes-usuarios, (así como las agencias reguladoras que actúan en su nombre), están reaccionando contra este estado de cosas en un esfuerzo por proteger y tomar el control de sus datos.

Existe una técnica novedosa llamada Aprendizaje Federado que ayuda a los clientes a tomar el control total sobre sus datos y trabajar juntos en colaboración para lograr los mismos resultados de IA que los propietarios de datos centralizados. Por ahora, el desarrollo en este campo se centra en el interés de la empresa: tener el mismo rendimiento que con otros métodos, al tiempo que limita el acceso a los datos confidenciales del cliente, principalmente motivado por las regulaciones impuestas a las empresas, como el RGPD. Sin embargo, creo que hay otra forma de afrontar este problema que está centrada en el cliente.

Quiero investigar y demostrar por qué vale la pena que los usuarios participen en el aprendizaje federado. Me gustaría que mi investigación mejore la confianza de los clientes en el sistema y los motive a formarse sobre el aprendizaje federado, permitiéndoles así aprovechar mejor sus datos para su propio beneficio. El potencial de los clientes para utilizar los datos que producen para satisfacer sus necesidades tiene un gran potencial para generar un impacto social positivo. Cuanto más sepamos de nosotros mismos, mejor podremos comportarnos como ciudadanos.”

Piera Riccio es graduada en Ingenieria Multimedia y de Cine por el Politécnico de Turín (Italia) con dos maestrías, una en Tecnología para las Sociedades Inteligentes del Politécnico de Turín y otra en Ciencias e Ingenieria de Datos de Télécom Paris – EURECOM (Francia). Estudia el impacto que los algoritmos de Inteligencia Artificial presentes en las redes sociales tienen en la sociedad y especialmente en las mujeres.

“La Inteligencia Artificial tiene ya un impacto cultural innegable en la humanidad. Puesto que se usa masivamente en las redes sociales, influye constantemente en nuestras elecciones cotidianas, proporcionándonos también herramientas de edición automática y dando forma a nuestro gusto estético. Más aún, la intersección entre la IA y las prácticas artísticas se está extendiendo, con claras implicaciones para la producción artística de nuestra época. En mi trabajo, analizo las implicaciones de tales plataformas en las minorías culturales, en las mujeres y en los artistas.

Desafortunadamente, no podemos asumir que la IA es imparcial, neutral y apolítica. Es posible y necesario crear una IA socialmente responsable, y para ello debemos ser conscientes del impacto social de nuestras elecciones tecnológicas y asegurarnos de que sean éticas. En este sentido, mis trabajos de investigación tienen como objetivo descubrir imposiciones injustas por parte de las culturas dominantes que desarrollan tecnologías de IA en la actualidad.”

Equipo de investigadores predoctorales de ELLIS Alicante, 5 fotos individuales de los estudiantes.
El equipo de investigadores predoctorales de ELLIS Alicante, de izqda. a dcha.(fila superior) Aditya Gulati, Piera Riccio, Adrián Arnáiz, (fila inferior) Gergely Németh y Julien Colin.

Desde ELLIS Alicante seguiremos apoyando y promocionando el trabajo de estos brillantes cinco jóvenes investigadores que trabajan para lograr un impacto positivo en la sociedad a través de la Inteligencia Artificial.

ELLIS Alicante galardonada con el Premio a la Innovación Social por la AEF