Hacia una IA por y para todos

La gobernanza del planeta digital

Tres de los países más poblados del mundo hoy en día tienen menos de dos decadas de historia y no aparecen en ningún atlas geográfico. Pero Facebook, WhatsApp e Instagram son especiales no solo por ser digitales y globales, sino porque su dirigente –a quien nadie ha elegido democráticamente- pueden acceder y analizar grandes cantidades de datos procedentes de miles de millones de ciudadanos y ciudadanas del mundo. Explotar estos datos le permite inferir información sobre nuestros hábitos, necesidades, intereses, relaciones, orientación sexual y política, grado de felicidad, de educación, de salud… Esta es una de las actividades que más riqueza generan en la actualidad, pero muy pocos pueden llevarla a cabo. Solo si acordamos principios de gobernanza y actuación empresarial centrados en los derechos y el bienestar de las personas lograremos un modelo de convivencia basado en una Inteligencia Artificial creada por y para todos.

Ya hemos hablado de la Cuarta Revolución Industrial y del papel central de la Inteligencia Artificial en nuestras vidas. En este

capítulo ponemos el foco en las implicaciones sociales, con el objetivo de identificar las oportunidades y retos a abordar para conseguir el empoderamiento de la sociedad gracias a la Inteligencia Artificial.

Ya hemos abordado en el capítulo anterior la brecha de conocimientos digitales y sabemos que sin conocimiento no hay empoderamiento. En este capítulo hablaremos sobre la falta de diversidad –no podemos excluir a la mitad de la población–, de la importancia de involucrar a la ciudadanía, de la discriminación algorítmica, de la transparencia y de la protección de la privacidad.

Además de la educación a niños y adolescentes, deberíamos invertir y trabajar para que la Inteligencia Artificial sea inclusiva y no deje a nadie atrás. Desgraciadamente, esta no es la situación actual, donde ademas tenemos un porcentaje bajísimo de mujeres: tan solo entre un 10% y un 20% de mujeres trabajan en Inteligencia Artificial y contribuyen a su investigación e incorporación en la sociedad. Tampoco estamos invirtiendo lo suficiente en formación a los profesionales –sobre todo aquellos cuyos trabajos van a verse afectados por la IA— y a la sociedad en su conjunto, para que sea participe de esta Cuarta Revolución Industrial. Necesitamos invertir en que la Inteligencia Artificial sea por y para todos, no solo para unos pocos.

La diversidad enriquece (literalmente)

El valor de la diversidad en la sociedad ha sido corroborado por numerosos estudios. La diversidad enriquece, metafórica y literalmente. Cuanto más diversos son los equipos y las instituciones –públicas y privadas–, mejores son sus resultados económicos y más innovadoras e inclusivas son sus ideas y soluciones.

Un estudio del Centro Nacional para las Mujeres y la Tecnología de la Información 1, realizado con 2.360 comunidades en diversas industrias, revela que las empresas con mujeres en sus comités de dirección obtienen más beneficios que aquellas con dirección solo masculina. Cuando los equipos de gestión son diversos aumentan los retornos de la inversión y el crecimiento. La presencia de mujeres mejora la productividad y la dinámica de los equipos, además de elevar la estabilidad financiera cuando los puestos que ellas ocupan son de responsabilidad 2 3.

Se puede argumentar que gestionar la diversidad es mucho más complejo que la homogeneidad. Sin duda. Los seres humanos tendemos a la homofilia, es decir, a sentirnos mucho más cómodos rodeados de personas similares a nosotros mismos. En los equipos homogéneos no suele haber voces disonantes, porque sus miembros hablan el mismo idioma y comparten una visión similar.

En los equipos diversos, por el contrario, se cuestionan a menudo las decisiones y hay diferentes puntos de vista, voces divergentes

y personas con experiencias vitales distintas. Pero sabemos que, si conseguimos engarzar todos estos elementos, los resultados de los equipos diversos serán superiores.

Fomentar la diversidad, por tanto, no es solo un imperativo de justicia social, sino de crecimiento económico.

Sin embargo, la diversidad –incluyendo la de género– brilla por su ausencia en el sector tecnológico y en las carreras de informática o en las ingenierías aledañas. Estamos hablando de entre un 10%– 20% de chicas en las facultades de estas carreras, porcentajes muy inferiores a los que alcanzamos en los años 80. ¿A qué se debe este retroceso?

Se estima que la falta de diversidad de género en el sector tecnológico le cuesta nada menos que 16.200 millones de euros anuales al PIB europeo, según un estudio de la Comisión Europea 4.

Dada la escasa cultura científico-tecnológica de la ciudadanía –reflejada en las encuestas–, considero que deberíamos hacer más divulgación para desmitificar y romper estereotipos relativos a quién trabaja en tecnología y en qué consisten estos trabajos, así como para dar visibilidad y crear referentes femeninos en el sector tecnológico. Podría ser efectivo lanzar campañas en medios de comunicación y redes sociales, con contenidos que realcen el impacto de la tecnología en nuestras vidas; muestren el ejemplo de ingenieras, investigadoras, programadoras, emprendedoras o

inventoras de tecnología que muchas veces están en la sombra; eduquen en conceptos básicos; e inspiren a los jóvenes –sobre todo a las chicas– a estudiar carreras tecnológicas.

Para fomentar la presencia de mujeres en tecnologías de la información y la comunicación han surgido decenas de iniciativas de apoyo, capacitación y sensibilización a escala nacional e internacional, aunque quizás sea necesario aunar esfuerzos para multiplicar su impacto y visibilidad. Otro paso crucial sería introducir la asignatura de Pensamiento Computacional (ver capítulo anterior) como troncal, ya que todos los estudiantes –chicos y chicas por igual– adquirirían con naturalidad competencias tecnológicas, derribando así el estereotipo de género asociado a la tecnología.

Más allá de la diversidad de género, la diversidad de área de conocimiento –la multidisciplinariedad– es clave en el contexto de la Inteligencia Artificial. La razón está en la transversalidad de la tecnología. La IA puede aplicarse a un sinfín de áreas de conocimiento y problemas, y con frecuencia los sistemas de IA interaccionan o tienen consecuencias para la vida de miles o millones de personas. Por ello es necesario crear equipos multidisciplinares con expertos y expertas tanto en disciplinas técnicas –como ingeniería e informática– como en las ciencias sociales –antropología, psicología, ética o sociología –, y en las áreas específicas de aplicación de la IA –medicina, educación, transporte, políticas públicas, etcétera–.

Los laboratorios urbanos

Otra dimensión para el empoderamiento social a través de la Inteligencia Artificial conlleva la generación de espacios de colaboración. Se trata de crear laboratorios urbanos –living labs, en la jerga– basados en la compartición de datos, tecnología y talento, para contribuir al progreso de la Inteligencia Artificial y democratizar su acceso, equilibrando las desigualdades y la asimetría.

Algunos ejemplos son el Mobile Territorial Lab 5, en Trento (Italia), con quienes colaboré cuando era Directora Científica en Telefónica, y el Laboratorio Urbano de Bogotá (Colombia), impulsado por la ONG Data–Pop Alliance, donde soy investigadora jefa de datos. En el Mobile Territorial Lab lideré un proyecto para entender, desde un punto de vista centrado en las personas, el valor monetario que los usuarios asignan a los datos captados por sus móviles. Este proyecto recibió el premio al mejor artículo científico en el congreso internacional ACM Ubicomp 2014 6, y fue acogido con gran interés por parte de medios de comunicación nacionales e internacionales al ser la primera investigación que exploraba esta cuestión.

Big Data e IA para el bien social

A pesar de las dificultades, en la última década han surgido iniciativas en todo el mundo para promover el Big Data y la Inteligencia Artificial para el bien común, una de mis áreas de investigación desde hace precisamente diez años, y así contribuir a la democratización en el acceso y uso de los datos. Estas son algunas de las iniciativas más establecidas a este respecto, aunque desde los últimos dos o tres años surgen nuevas con frecuencia:

Los datos y la Inteligencia Artificial pueden utilizarse tanto para contribuir a conseguir los ODS como para analizar si en efecto los objetivos se están cumpliendo, así como para mejorar la toma de decisiones en las políticas públicas. La colaboración entre los organismos implicados es clave, pero exige el compromiso de todos ellos a cooperar y a involucrar a los ciudadanos.

Precisamente para abordar las oportunidades y retos del uso de los datos para la consecución de los 17 ODS, Naciones Unidas organiza el World Data Forum desde 2017. El Foro de 2018 concluyó con el lanzamiento de la Declaración de Dubai 7 para fomentar la inversión en el uso de los datos para el crecimiento sostenible.

En Naciones Unidas también existe, desde 2009, una unidad dedicada al análisis de datos usando técnicas de Inteligencia Artificial para el bien social, llamada United Nations Global Pulse, con quienes he colaborado y a cuyo comité asesor pertenezco. En 2014 demostramos que los datos agregados y anonimizados de la red de telefonía móvil, combinados con observaciones vía satélite, pueden contribuir a detectar zonas afectadas por inundaciones en México 8.

OPAL, que se realiza en colaboración con entidades públicas y privadas, propone democratizar el acceso a los datos, y al conocimiento que proporcionan, haciendo que los algoritmos sean abiertos y se ejecuten donde estén los datos, y no al revés.

Además, numerosas empresas privadas han fomentado y desarrollado proyectos de Big Data e Inteligencia Artificial con fines de bien social. Algunos son muy cercanos a mí, como LUCA– Big Data for Social Good, de Telefónica y Vodafone Big Data e Inteligencia Artificial para el Bien Social, que desarrolla proyectos de salud pública, inclusión financiera, transporte y estadísticas oficiales en África y Europa. Otros ejemplos incluyen la iniciativa BBVA Data & Analytics para el Bien Social, por parte de BBVA; Telenor Big Data for Social Good, con proyectos de salud pública en Bangladesh y Pakistán; Orange Data for Development, dos retos pioneros donde Orange compartió datos agregados y anonimizados de Senegal y Costa de Marfil con cientos de equipos internacionales en casos de uso para el bien social; y Turkcell Data for Refugees Challenge, en el que la operadora Turkcell compartió datos agregados y anonimizados para contribuir a resolver la crisis de los refugiados. Las empresas tecnológicas también se han sumado a este movimiento y han creado recientemente iniciativas del uso de sus datos y la Inteligencia Artificial para el Bien Social, como las iniciativas de Facebook 15, Google 16 y Microsoft 17.

Cuando quien decide es un algoritmo

El desarrollo de tecnologías disruptivas ha tenido un profundo impacto en la vida y en las relaciones humanas. La agricultura, la imprenta, la máquina de vapor, la electricidad o internet han transformado nuestra manera vivir, trabajar y relacionarnos. La Inteligencia Artificial también lo está haciendo.

Hoy podemos usar cantidades masivas de datos para entrenar algoritmos de Inteligencia Artificial, y hacer que decisiones que antes eran tomadas por humanos –con frecuencia expertos– recaigan sobre estos algoritmos. Pueden ser decisiones que afectan a una o muchas personas, y sobre cuestiones nada triviales, como la contratación laboral, la concesión de créditos y préstamos, sentencias judiciales, tratamientos y diagnósticos médicos o la compraventa de acciones en bolsa.

Las decisiones algorítmicas basadas en datos pueden ser un gran avance. La historia ha demostrado que las decisiones humanas no son perfectas, pues pueden estar sujetas a conflictos de interés, a la corrupción, al egoísmo y a sesgos cognitivos, lo que resulta en procesos y resultados injustos y/o ineficientes. Por tanto, el interés hacia el uso de algoritmos puede interpretarse como el resultado de una demanda de mayor objetividad en la toma de decisiones.

Sin embargo, decidir basándose en algoritmos no es tampoco un proceso perfecto. Las palabras de Platón hace 2.400 años están sorprendentemente vigentes hoy en día: “Una buena decisión está basada en conocimiento, no en números (datos)”.

Por ejemplo, cuando las decisiones afectan a miles o millones de personas surgen dilemas éticos importantes: ¿escaparán las decisiones automáticas a nuestro control? ¿Hasta qué punto están estos sistemas protegidos contra ciberataques y usos maliciosos? ¿Podemos garantizar que sus decisiones y actuaciones no tienen consecuencias negativas para las personas? ¿Quién es responsable de dichas decisiones?

Puede resultar especialmente escalofriante una cuestión en particular: ¿Qué sucederá cuando un algoritmo nos conozca a cada uno de nosotros mejor que nosotros mismos, y aproveche esa ventaja para manipular de manera subliminal nuestro comportamiento?

En los últimos cinco años han surgido numerosos movimientos y organizaciones, nacionales o supranacionales –por ejemplo, en la Unión Europea–, para ayudar a establecer estándares globales y a regular este ámbito. En el congreso organizado por el Future of Life Institute en 2017, con la participación de más de 1.200 figuras internacionales relacionadas con la innovación tecnológica y científica, se definieron los Principios de Asilomar para el desarrollo de la Inteligencia Artificial, con un total de 23 recomendaciones.

En 2018 la Comisión Europea nombró un Comité de Expertos de Alto Nivel en Inteligencia Artificial, que pone el foco en las implicaciones éticas, legales y sociales de la IA, y del que soy miembro reserva.

Este grupo publicó en 2019 unas guías éticas para el desarrollo de una Inteligencia Artificial confiable, lo cual implica una Inteligencia Artificial que respete tanto las leyes como los principios éticos de la sociedad donde sea implantada y que ofrezca garantías de robustez 18.

En el plano nacional destaca la declaración de Barcelona, impulsada por el Centro de Investigación en Inteligencia Artificial del CSIC, en la que se definen seis principios básicos para un desarrollo ético de la IA.

Más allá del respeto a los derechos humanos fundamentales, en la literatura técnica se han propuesto principios éticos y dimensiones de trabajo que considero necesario abordar. El lector interesado puede encontrar una versión extendida de algunos de estos principios en 19. Resumo aquí los principios más relevantes, agrupados en cinco pilares [^49] que en inglés quedan agrupados por el acrónimo FATEN 20.

Justicia algorítmica

La F del acrónimo FATEN se refiere a Fairness, justicia en inglés. O más bien justicia y solidaridad; no discriminación. La justicia debería ser un elemento central en el desarrollo de sistemas de decisión –y actuación– automáticos fruto de la Inteligencia Artificial. Las decisiones basadas en estos sistemas pueden discriminar porque los datos utilizados para entrenar los algoritmos tengan sesgos; por la aplicación de un determinado algoritmo; o por el mal uso de ciertos modelos en diferentes contextos.

En los últimos cuatro años han sido publicados ejemplos de discriminación algorítmica en el contexto de las decisiones judiciales, la medicina, las tarjetas de crédito, los sistemas de reconocimiento facial o los sistemas de contratación. Los colectivos perjudicados han sido las personas afroamericanas o de piel oscura, las mujeres y en general las minorías.

Además, los procesos de decisión algorítmicos basados en datos pueden implicar que se denieguen oportunidades a personas no por sus propias acciones, sino por las de otros con quienes comparten ciertas características. Por ejemplo, algunas compañías de tarjetas de crédito han reducido el crédito de sus clientes no por su comportamiento, sino tras analizar el de otras personas con un historial de pagos deficiente que habían comprado en los mismos establecimientos. En la literatura ya se han propuesto diferentes soluciones para afrontar la discriminación algorítmica y maximizar la justicia.

Sin embargo, me gustaría subrayar la urgencia de que expertos y expertas de distintos campos –incluyendo el derecho, la economía, la ética, la informática, la filosofía y las ciencias políticas– inventen, evalúen y validen en el mundo real diferentes métricas de justicia algorítmica para diferentes tareas. Además de esta investigación empírica, es necesario proponer un marco de modelado teórico – avalado por la evidencia empírica— que ayude a los usuarios de los algoritmos a asegurarse de que las decisiones tomadas son lo más justas posible.

En este concepto también me gustaría incluir el de cooperación. Debido a la transversalidad de la Inteligencia Artificial deberíamos

fomentar y desarrollar un intercambio constructivo de recursos y conocimientos entre los sectores privado, público y la sociedad en general, para conseguir el máximo potencial de aplicación y competitividad. Esta necesidad de cooperación entre diferentes sectores, y también entre naciones –dada la globalización–, ha sido enfatizada por Yuval Noah Harari 21.

Autonomía, responsabilidad e inteligencia aumentada

La A de FATEN se desdobla en tres: Autonomía, Atribución de responsabilidad y Aumento de inteligencia. La autonomía es un valor central en la ética occidental según la cual cada persona debería poder decidir sobre sus propios pensamientos y acciones.

Sin embargo, hoy en día podemos construir –como he hecho en mis propios proyectos de investigación– modelos computacionales de nuestros deseos, necesidades, personalidad y comportamiento, que tienen la capacidad de influir subliminalmente en nuestras decisiones y acciones.

Por ello deberíamos garantizar que los sistemas inteligentes autónomos modulan su toma de decisiones, modulan su toma de decisiones teniendo en cuenta la autonomía y la dignidad humanas. Para esto debemos disponer de reglas que definan el comportamiento de estos sistemas de acuerdo con los principios éticos aceptados en la sociedad. Hay numerosos ejemplos de

principios éticos propuestos en la literatura para este propósito, así como institutos y centros de investigación creados con este fin, como el AI Now Institute, en la Universidad de Nueva York (EE. UU.); el Digital Ethics Lab, en la Universidad de Oxford (Reino Unido); y la Oficina de Ética en la Inteligencia Artificial, creada recientemente en el Reino Unido como órgano consultivo del Gobierno británico.

Pero esta es un área activa de investigación, y no hay un método único para incorporar principios éticos a los procesos de decisión basados en datos. Es importante que los desarrolladores de sistemas de Inteligencia Artificial que afecten o interaccionen con personas –algoritmos de toma de decisiones, de recomendación y personalización, chatbots…– se comporten de acuerdo con un Código de Conducta y de Ética definido por las organizaciones en que trabajan. Como sabiamente dijo Disney, “no es difícil tomar decisiones cuando tienes claro cuáles son tus valores”.

También es crucial que haya claridad en la atribución de responsabilidad de las consecuencias de acciones o decisiones de sistemas autónomos. La transparencia suele considerarse un factor fundamental en este punto; sin embargo, la transparencia y las auditorías son necesarias, pero no son suficientes.

Igualmente, creo constructivo buscar la sinergia entre la Inteligencia Artificial y el ser humano. Esta visión suele llamarse aumento de la inteligenciaintelligence augmentation–, porque los sistemas de Inteligencia Artificial aumentan o complementan la inteligencia humana. Por ejemplo, un buscador de internet puede considerarse un sistema de aumento de nuestra inteligencia, ya que expande nuestro conocimiento con la capacidad de procesar miles de millones de documentos y encontrar los más relevantes; o un sistema de traducción simultánea automática, ya que permite comunicarse a personas que no hablan el mismo idioma.

UNA INTELIGENCIA ARTIFICIAL FIABLE

La Estrategia para la Inteligencia Artificial de la Comisión Europea aspira a aumentar las inversiones públicas y privadas en Europa hasta un mínimo de 20.000 millones de euros anuales en los próximos diez años, así como “facilitar el acceso a más datos, fomentar el talento y garantizar la confianza”. Para lograr esto último, la Comisión ha identificado siete requisitos, relacionados con los principios FATEN descritos en el texto:

  • Intervención y supervisión humanas. Los sistemas de Inteligencia Artificial deben ayudar a construir sociedades equitativas, apoyando la intervención humana y los derechos fundamentales, en lugar de limitar la autonomía humana.

  • Robustez y seguridad. Los algoritmos deben ser suficientemente seguros, fiables y sólidos como para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los sistemas de Inteligencia Artificial.
  • Privacidad y gestión de datos. Los ciudadanos deben tener pleno control sobre sus datos. Los datos que les conciernen no deben utilizarse para perjudicarles o discriminarles.
  • Transparencia. Debe garantizarse la trazabilidad de los sistemas de Inteligencia Artificial.
  • Diversidad, no discriminación y equidad. Los sistemas de IA deben tener en cuenta el conjunto de capacidades, competencias y necesidades humanas, y garantizar la accesibilidad.
  • Bienestar social y medioambiental. Los sistemas de IA deben impulsar el cambio social positivo y aumentar la sostenibilidad y la responsabilidad ecológicas.
  • Rendición de cuentas. Deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de IA y de sus resultados.

Confianza y transparencia, por favor

La T de nuestro acrónimo FATEN es doble, por ConfianzaTrust, en inglés– y Transparencia.

La confianza es un pilar básico en las relaciones entre humanos e instituciones. La tecnología necesita de un entorno de confianza con sus usuarios, que cada vez más delegan –delegamos– aspectos de sus vidas en servicios digitales. Sin embargo, el sector tecnológico está experimentando una pérdida de confianza por parte de la sociedad, un fenómeno al que han contribuido escándalos recientes como el de Facebook con Cambridge Analytica.

Para que exista confianza han de cumplirse tres condiciones:

(1) la competencia, es decir, la habilidad para realizar con solvencia la tarea comprometida; (2) la fiabilidad, es decir, la competencia sostenida en el tiempo; y (3) la honestidad y transparencia. Por ello, la T también es de Transparencia.

La transparencia en este contexto hace referencia a la cualidad de poder entender un modelo computacional. Un modelo es transparente si una persona no experta puede entenderlo con facilidad. La transparencia, por tanto, podría contribuir a la atribución de responsabilidad de las consecuencias del uso de dicho modelo.

La socióloga Jenna Burrell, co-directora del Grupo de Trabajo sobre Justicia Algorítmica y Opacidad de la Universidad de California en Berkeley (EE. UU.) 22, propone tres tipos distintos de opacidad – falta de transparencia– en las decisiones algorítmicas. La primera es la opacidad intencionada, cuyo objetivo es la protección de la propiedad intelectual de los inventores de los algoritmos. Esta opacidad podría mitigarse con legislación que obligara al uso de software abierto, como la nueva Regulación General Europea de Protección de Datos (RGPD). Sin embargo, intereses comerciales y gubernamentales poderosos pueden dificultar la eliminación de este tipo de opacidad.

Una segunda forma de opacidad es la de conocimiento. Se refiere al hecho de que solo una minoría de personas está capacitada técnicamente para entender los algoritmos y modelos computacionales construidos a partir de los datos. Esta falta de transparencia se vería atenuada con programas educativos en competencias digitales –como he explicado anteriormente–, y también permitiendo que expertos independientes aconsejen a quienes se hayan visto afectados por procesos de decisión algorítmicos basados en datos.

La tercera opacidad es intrínseca, y surge por la naturaleza misma de ciertos métodos de aprendizaje por ordenador, como los modelos de deep learning o aprendizaje profundo que hemos descrito en el capítulo 3. La comunidad científica de aprendizaje computacional está muy familiarizada con esta opacidad, a la que denomina problema de la interpretabilidad, siendo un área activa de investigación. Consiste en desarrollar modelos que sean explicables, es decir, que los humanos podamos entender cómo funcionan.

Por último, es imprescindible que los sistemas de Inteligencia Artificial sean transparentes respecto a qué datos sobre comportamiento humano captan, y con qué finalidad –esto queda contemplado en la RGPD europea–. También, por supuesto, deben ser claramente identificables las situaciones en que el interlocutor es un sistema artificial, como un chatbot.

Educación, bulos, burbujas y equidad

Educación es la E de FATEN. Educación, Efecto beneficioso y Equidad. Ya he destacado la importancia de la inversión en la educación a todos los niveles. Además, los sistemas de IA deberían ser diseñados para maximizar su efecto beneficioso sobre la sociedad. En particular, destacaría los conceptos de sostenibilidad, veracidad, diversidad y prudencia.

El desarrollo tecnológico en general, y de sistemas de Inteligencia Artificial, en particular, conlleva un consumo energético significativo, con impacto negativo en el medio ambiente. Las técnicas de deep learning requieren elevadas capacidades de computación con costes energéticos prohibitivos, sobre todo si consideramos el despliegue de este tipo de sistemas a gran escala.

Es cada vez más importante que el desarrollo tecnológico esté alineado con la responsabilidad humana de garantizar las condiciones para la vida en nuestro planeta, y de preservar el medio ambiente para las generaciones futuras. La Inteligencia Artificial será clave a la hora de abordar algunos de los principales retos medioambientales –desde el cambio climático a la fragmentación del hábitat–, así como para desarrollar medios de transporte –coches autónomos eléctricos– y modelos energéticos más eficientes y sostenibles –las smart grids o redes eléctricas inteligentes, que optimizan la producción y la distribución de electricidad con herramientas computacionales–.

La capacidad de generar contenido sintético indistinguible del real utilizando técnicas de IA –deep fakes– contribuye a la fabricación de fake news o bulos, lo que aumenta el riesgo de manipulación de la opinión pública en cuestiones tan importantes como –por ejemplo– las elecciones presidenciales o la pertenencia a la Unión Europea. Por ello es de suma importancia el principio de veracidad, tanto en los datos usados para entrenar algoritmos de IA como en los contenidos que consumimos. De hecho, cada vez más tendremos que usar algoritmos de Inteligencia Artificial para determinar si el audio, vídeo o la noticia que nos llega es real o ha sido inventada… por otro algoritmo de Inteligencia Artificial.

Además, los algoritmos de personalización y recomendación adolecen con frecuencia de falta de diversidad en sus resultados, y tienden a encasillar a sus usuarios en ciertos patrones de gustos. Esto da lugar a lo que Eli Pariser, co-fundador de la plataforma Avaaz.org, ha denominado el filtro burbuja 23. La diversidad en la personalización o en la recomendación de contenidos es muy deseable para ayudarnos a descubrir películas, libros, música, noticias o amigos diferentes a nuestros propios gustos; nos exponemos así a puntos de vista distintos, y nutrimos una mente abierta.

Un concepto relacionado es el de las cámaras de ecoecho chambers, en inglés–: las personas, al ser expuestas a contenidos que ratifican y amplifican sus propios puntos de vista, los refuerzan, mientras que, por el contrario, desarrollan desconfianza hacia formas de pensar distintas. Si bien estas cámaras de eco han existido desde hace cientos de años, las redes sociales y la ubicuidad de la tecnología amplifican enormemente su impacto. Hay autores que atribuyen a este fenómeno un peso importante en la victoria del Brexit, en el creciente éxito de Donald Trump o en el auge del movimiento antivacunas..

La E es también de Equidad. El espíritu de solidaridad y la igualdad quizás se están diluyendo con el desarrollo tecnológico.

El crecimiento de internet y del World Wide Web durante las Tercera y Cuarta Revoluciones Industriales ha sido sin duda clave para generalizar el acceso al conocimiento. Sin embargo, los principios de universalización del conocimiento y democratización del acceso a la tecnología están siendo cuestionados hoy en día, en gran parte por la situación de dominancia extrema de las grandes empresas tecnológicas estadounidenses –Alphabet/Google, Amazon, Apple, Facebook, Microsoft– y chinas –Tencent, Alibaba, Baidu– Es el fenómeno conocido como como winner takes all, o el ganador se lo lleva todo.

Juntos, estos gigantes tecnológicos tienen un valor de mercado de más de 5 billones –millones de millones– de euros, y unas cuotas de mercado en EE. UU. de más de un 90% en las búsquedas de internet (Google), de un 70% de las redes sociales (Facebook) o de un 50% del comercio electrónico (Amazon).

De hecho, el siglo XXI se caracteriza por una polarización en la acumulación de la riqueza. Según un estudio reciente de Oxfam24, el 1% más rico del planeta posee la mitad de la riqueza mundial y los 2153 billonarios del mundo tienen más que los 4.600 millones de personas más pobres del mundo, es decir, que el 60% de la población mundial. Esta acumulación de riqueza en manos de unos pocos ha sido atribuida al menos parcialmente al desarrollo tecnológico y a la Cuarta Revolución Industrial.

Con la Revolución Agraria en el neolítico, y durante miles de años, la propiedad de la tierra conllevaba riqueza. En la Revolución Industrial la riqueza pasó a estar ligada a la propiedad de las fábricas y las máquinas. Hoy en día podríamos argumentar que los datos, y la capacidad para sacarles partido, son el activo que más riqueza genera, dando lugar a lo que se conoce como la economía de los datos.

No podemos olvidar que de los cinco países más poblados del mundo –Facebook, WhatsApp, China, India e Instagram–, tres son de Facebook. Países digitales, globales, con menos de 15 años de existencia de media, con miles de millones de ciudadanos y ciudadanas y que son gobernados por un presidente no elegido democráticamente. En consecuencia, un elevado porcentaje de los datos sobre el comportamiento humano disponibles hoy en día son datos privados, captados, analizados y explotados por estas grandes empresas tecnológicas que conocen no solo nuestros hábitos, necesidades, intereses o relaciones sociales, sino también nuestra orientación sexual o política, y nuestros niveles de felicidad, de educación o de salud mental.

Si queremos maximizar el impacto positivo de la IA en la sociedad, y dado que dicha inteligencia necesita datos para aprender, deberíamos plantearnos nuevos modelos de propiedad, gestión y regulación de los datos.

La Regulación General Europea para la Protección de Datos (RGDP) es un ejemplo en esta dirección. Sin embargo, la complejidad a la hora de aplicar esta norma pone de manifiesto cuán difícil es definir e implementar el concepto de propiedad cuando hablamos de un bien intangible, distribuido, variado, creciente, dinámico y replicable infinitas veces a coste prácticamente cero.

Finalmente, la aplicación de la Inteligencia Artificial exige cumplir requisitos estrictos para su desarrollo, tales como garantizar la disponibilidad de datos suficientes –e idealmente de calidad–, el análisis de las hipótesis de trabajo desde diversas perspectivas, y la disponibilidad de recursos –incluyendo personas con formación– para analizar e interpretar los modelos y sus resultados. El principio de la prudencia destaca la importancia de considerar en las fases iniciales de diseño de cualquier sistema las diversas alternativas y opciones existentes, para maximizar su impacto positivo y minimizar los potenciales riesgos y consecuencias negativas derivadas de su aplicación.

N de ‘No maleficencia’

El principio de No maleficencia prevé que los sistemas de IA deberían minimizar el impacto negativo que puedan tener en la sociedad. Algunas dimensiones clave en este punto incluyen la fiabilidad; la seguridad; la reproducibilidad de los sistemas de IA; y la protección de datos y el respeto hacia la privacidad.

La gran mayoría –si no todos– los sistemas, productos y bienes que utilizamos están sujetos a estrictos controles de calidad, seguridad y fiabilidad, para reducir su potencial impacto negativo en la sociedad. Es de esperar que los sistemas de Inteligencia Artificial estén también sujetos a procesos similares. Más allá de los procesos teóricos de seguridad, verificación y fiabilidad, quizás tendría sentido crear una autoridad que a escala europea certificase la calidad, seguridad y fiabilidad de los sistemas de Inteligencia Artificial de manera previa a su comercialización o implementación en la sociedad. En febrero de 2020, la Comisión Europea publicó un libro blanco sobre Inteligencia Artificial25 que establece las bases para el desarrollo de una Inteligencia Artificial confiable, incluyendo una propuesta de regulación de sistemas de Inteligencia Artificial utilizados en escenarios de alto riesgo, como son la salud, el transporte o la policía.

Asimismo, los sistemas autónomos deberían velar por la integridad de las personas que los utilizan o se ven afectadas por su acción, además de por su propia seguridad frente a la manipulación y los ciberataques.

Para generar confianza los sistemas deberían ser consistentes en su modo de operar, de forma que su comportamiento fuera comprensible y también reproducible, es decir, replicable, al ser sometido a los mismos datos de entrada o a la misma situación o contexto.

En tercer lugar, en un mundo en el que generamos y consumimos datos de forma ubicua y masiva los derechos a la protección de la información personal y a la privacidad son constantemente cuestionados, e incluso llevados al límite. Numerosos estudios han puesto el foco en el mal uso de datos personales proporcionados por los usuarios de servicios, y han alertado de la agregación de datos de diferentes fuentes por parte de entidades como los data brokers, con implicaciones directas en la privacidad de las personas.

A menudo se pasa por alto el hecho de que los avances en los algoritmos de aprendizaje automático, combinados con la disponibilidad de nuevas fuentes de datos, como las redes sociales, permiten inferir información privada que nunca ha sido revelada explícitamente por las personas implicadas. Información relativa, por ejemplo, a la orientación sexual, las tendencias políticas, el nivel educativo o el grado de estabilidad emocional.

En un proyecto de investigación reciente demostramos que éramos capaces de inferir, a partir de datos no personales, atributos tan personales como algunas dimensiones de la personalidad, el nivel de educación o los intereses 26. Comprender la existencia de esta nueva capacidad es esencial para entender las implicaciones del uso de algoritmos para modelar e incluso influenciar el comportamiento humano a escala individual, como parece ser que sucedió en el escándalo de Facebook/Cambridge Analytica.

Considero que ciertos atributos y características personales deberían permanecer en la esfera privada mientras la persona no decida expresamente lo contrario, y por tanto no deberían utilizarse o inferirse en los sistemas de IA. Como hemos dicho, Europa ha asumido cierto liderazgo mundial con la reciente entrada en vigor del Reglamento General de Protección de Datos, que se suma a derechos fundamentales como el de establecer y desarrollar relaciones con otros humanos, el de la desconexión tecnológica y el derecho a no ser vigilado.

En este contexto, otros derechos que podríamos o deberíamos agregar incluyen el derecho a un contacto humano significativo – por ejemplo, en servicios de atención operados exclusivamente por chatbots–, y el derecho a no ser medido, analizado, orientado o influenciado subliminalmente mediante algoritmos.

En suma, deberíamos siempre centrar el desarrollo de los sistemas de IA en las personas y fomentar la creación de entornos colaborativos para experimentar y co-crear políticas y soluciones basadas en la IA, consensuadas por los humanos.

Solamente cuando respetemos estos principios seremos capaces de avanzar y conseguir un modelo de gobernanza democrática basado en los datos y en la Inteligencia Artificial, por y para las personas.

‘BROGRAMMERS’ Y ESTEREOTIPOS

Una imagen errónea del trabajo en puestos tecnológicos y de quienes lo desempeñan es una de las causas por las que cada vez menos mujeres estudian informática. Las películas, series y medios de comunicación refuerzan el estereotipo de un sector plagado de chicos con gafas, sin inteligencia socioemocional ni higiene personal, tecleando rodeados de comida basura en un sótano sin ventanas. Esta imagen es, sin duda, muy poco atractiva para las chicas y además lejana de la realidad. Entre otros factores que expulsan a las mujeres del ámbito tecnológico destacaría:

  • Una fuerte estereotipación de género en juguetes, libros, ropa y contenidos audiovisuales que consumen nuestros niños y adolescentes.

  • Los sesgos de género –conscientes y subconscientes– que tanto hombres como mujeres tenemos, y que conllevan una infravaloración de las mujeres frente a homólogos masculinos con cualificaciones idénticas 27.

  • Una falta sistemática de reconocimiento hacia las mujeres en todos los contextos, y en particular en las carreras tecnológicas. Ilustran este hecho la brecha salarial y la escasa presencia de mujeres en distinciones y puestos de poder. El premio Turing, el equivalente al Nobel en Informática, ha sido otorgado desde su creación en 1966 únicamente a tres mujeres, frente a 62 hombres. Además, las mujeres fundadoras de empresas solo recibieron un 2% de las inversiones de capital riesgo de EE. UU. en 2017. Una compañía emergente creada por un equipo femenino atrae de media 82 dólares de inversión por cada 100 dólares obtenidos por equipos masculinos, y esto a pesar de que los resultados de estas startups fundadas por mujeres son por lo general mejores.

  • La inexistencia de referentes femeninos que puedan animar a niñas y adolescentes a estudiar estas carreras.

  • La marcadamente sexista y misógina cultura brogrammer, en alusión al término brohermano en inglés– con que se llaman entre sí coloquialmente los programadores. En un estudio publicado por la revista Fortune, la camaradería masculina de la poco diversa cultura brogrammer fue el segundo motivo más frecuente –citado por un 68% de las mujeres– del abandono del trabajo en el sector tecnológico, después de la maternidad.

PARA ESTRECHAR LA BRECHA DE GÉNERO

Numerosas iniciativas y asociaciones buscan atraer más mujeres al ámbito tecnológico. El proyecto Mujer e Ingeniería, de la Real Academia Española de Ingeniería, apoya a chicas estudiantes de ingeniería a través de redes de tutorización. El concurso Wisibizalas, de la Universidad Pompeu Fabra (UPF), promueve en colegios e institutos la visibilidad de las mujeres en el ámbito tecnológico y la reflexión en torno a la brecha de género. La Asociación de Mujeres Investigadoras y Tecnólogas (AMIT) tiene entre sus fines la defensa de la equidad de género. MujeresTech es una asociación sin ánimo de lucro que ofrece recursos y conocimiento para aumentar la presencia femenina en el sector digital. Las Top100 es una iniciativa para identificar las diez mujeres más influyentes en España en diez categorías; incluye una categoría de emprendedoras y otra de académicas e investigadoras. El Premio Ada Byron a la Mujer Tecnóloga, de la Universidad de Deusto, que tuve el honor de recibir en 2016, premia y visibiliza trayectorias excelentes de mujeres en diversos campos tecnológicos.

Referencias

  1. . NCWIT. «What is the impact of gender diversity on technology business performance? ». [https://www.ncwit.org/sites/default/files/resources/impactgenderdiversitytechbusinessperformance_[print.pdf] 

  2. . Catalyst (2014). «Infographic: Diversity Matters». [https://www.catalyst.org/research/infographic-diversity-matters/] 

  3. Christiansen, L., Lin, H., & Pereira, J. (2016). «Gender Diversity in Senior Positions and Firm Performance: Evidence from Europe». IMF Working Paper. [https://www.imf.org/external/pubs/ft/wp/2016/wp1650.pdf] 

  4. . European Commission. «Increase in gender gap in the digital sector. Study on Women in Digital Age». [https://ec.europa.eu/digital-single-market/en/news/increase-gender-gap-digitalsector-study-women-digital-age] 

  5. S. Centellegher, M. De Nadai, M. Caraviello, C. Leonardi, M. Vescovi, Y. Ramadian, N. Oliver, F. Pianesi, A. Pentland, F. Antonelli y B. Lepri, The Mobile Territorial Lab: a multilayered and dynamic view on parents’ daily lives, EPJ Data Science, 2016. 

  6. J. Staiano, N. Oliver, B. Lepri, R. de Oliveira, M. Caraviello y N. Sebe, «Money walks: a human-centric study on the economics of personal mobile data», Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing, Seattle, WA, USA, 2014. 

  7. Sustainable Development. «UN World Data Forum 2018 wraps up with launch of Dubai Declaration». [https://www.un.org/] [sustainabledevelopment/blog/2018/10/un-world-data-forum-2018wraps-up-with-launch-of-dubai-declaration/] 

  8. Y. Torres Fernández, D. Pastor Escuredo, A. Morales Guzmán, J. Baue, A. Wadhw, C. Castro Correa, L. Romanoff, J. Lee, A. Rutherford, V. Frias Martínez, N. Oliver, E. Frias-Martinez y M. Luengo-Oroz, «Flooding through the lens of mobile phone activity», Proceedings of IEEE Global Humanitarian echnology Conference, San Jose, CA, USA, 2014. 

  9. «Web Opal Project». [https://www.opalproject.org/] 

  10. [https://www.partnershiponai.org/] 

  11. [https://www.gsma.com/betterfuture/partnering-for-a-better-future.] 

  12. [https://aiforgood.itu.int/] 

  13. [https://humanetech.com/] 

  14. «Meetings of the Expert Group on Business-to-Government Data Sharing», Digital Single Market, 2019. [https://ec.europa.eu/] [digital-single-market/en/news/meetings-expert-group-businessgovernment-data-sharing] 

  15. Facebook Data for Good, «We use data to address some of the world’s greatest humanitarian issues». [https://dataforgood.] [fb.com/] 

  16. «Google AI». [https://ai.google/social-good/impact-challenge/] 

  17. «Microsoft AI». [https://www.microsoft.com/en-us/ai/ai-for-good] 

  18. Comisión Europea, «European Commission. Ethics guidelines for trustworthy AI», Digital Single Market, 2019 [https://ec.europa.] [eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai] 

  19. B. Lepri, N. Oliver, E. Letouzé, A. Pentland y P. Vinck, «Fair, Transparent, and Accountable Algorithmic Decision-making Processes», Philosophy & Technology, pp. 1-17, 2017. L. Floridi, J. Cowls, M. Beltrametti, R. Chatila, P. Chazerand, V. Dignum, C. Luetge, R. Madelin, U. Pagallo, F. Rossi, B. Shafer, P. Valcke y E. Vayena, «An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles and Recommendations», Minds and Machines, nº December, 2018. 

  20. N. Oliver, «Governance in the Era of Data-driven Decisionmaking Algorithms», Women Shaping Global Economic Governance, CEPR, July 2019 

  21. Y. N. Harari, «21 lessons for the 21st century», London: Penguin Random House, UK, 2018. 

  22. J. Burrell, «How the machine ‘thinks’: Understanding opacity in machine learning algorithms», Big Data and Society, 2016. 

  23. E. Pariser, «The filter bubble: how the personalized web is changing what we read and how we think», New York: Penguin Books, 2012. 

  24. https://www.oxfam.org/en/press-releases/worlds-billionaires-have-morewealth-46-billion-people 

  25. https://ec.europa.eu/info/publications/white-paper-artificial-intelligenceeuropean-approach-excellence-and-trust_en 

  26. S. Park, A. Matic, K. Garg y N. Oliver, «When Simpler Data Does Not Imply Less Information: A Study of User Profiling Scenarios With Constrained View of Mobile HTTP (S) Traffic», ACM Transactions on the Web (TWEB), vol. 12, nº 9, 2018. 

  27. R. Steinpreis, K. Anders y D. Ritzke, «The Impact of Gender on the Review of the Curricula Vitae of Job Applicants and Tenure Candidates: A National Empirical Study», Sex Roles, vol. 41, nº 7--8, pp. 509-528, 1999. 

Parcialmente financiado por the Generalitat Valenciana Conselleria de Innovacion, Universidades, Ciencia y Sociedad Digital and the European Union European Regional Development Fund