Hacia una IA socialmente sostenible
¿Qué características debería tener una Inteligencia Artificial socialmente sostenible?
Cualquier acercamiento a la Inteligencia Artificial (IA) debería cumplir las características descritas a continuación y resumidas en el acrónimo en ingles FATEN:
-
F de fairness o justicia. Las decisiones algorítmicas basadas Inteligencia Artificial pueden discriminar, porque los datos utilizados para entrenar dichos algoritmos tengan sesgos que den lugar a decisiones discriminatorias; por el uso de un determinado algoritmo; o por el mal uso de ciertos modelos en diferentes contextos. Deberíamos exigir garantías de no discriminación en el uso de sistemas de IA.
-
A es de autonomy o autonomía, valor central en la ética occidental, según la cual cada persona debería tener la capacidad de decidir sus propios pensamientos y acciones, asegurando por tanto la libre elección, la libertad de pensamiento y de acción. Sin embargo, hoy en día podemos construir modelos computacionales de nuestros deseos, necesidades, personalidad y comportamiento con la capacidad de influenciar nuestras decisiones y acciones de manera subliminal, como ha quedado patente en procesos electorales recientes en EEUU y el Reino Unido. Por ello, deberíamos garantizar que los sistemas inteligentes tomen las decisiones preservando siempre la autonomía y la dignidad humanas.
La A también es de accountability o atribución de responsabilidad, es decir, teniendo claridad respecto a la atribución de responsabilidad de las consecuencias de las decisiones algorítmicas. Y de augmentation o aumento de la inteligencia humana, de manera que los sistemas de Inteligencia Artificial se utilicen para aumentar o complementar la inteligencia humana, no para reemplazarla.
-
T es de trust o confianza. La confianza es un pilar básico en las relaciones entre humanos e instituciones. La tecnología necesita un entorno de confianza con sus usuarios que cada vez más delegan (delegamos) nuestras vidas a servicios digitales. Sin embargo, el sector tecnológico está experimentando una pérdida de confianza por parte de la sociedad, alimentada por escándalos recientes como los de Facebook/Cambridge Analytica y Huawei. Para que exista confianza, han de cumplirse tres condiciones: (1) la competencia, es decir, la habilidad para realizar con solvencia la tarea comprometida; (2) la fiabilidad, es decir, la competencia sostenida en el tiempo; y (3) la honestidad y transparencia. Por ello, la T también es de transparency o transparencia. La transparencia hace referencia a la cualidad de poder entender un modelo o un proceso computacional. Un modelo o un proceso es transparente si una persona puede observarlo y entenderlo con facilidad. Las decisiones algorítmicas pueden ser no transparentes (opacas) por tres motivos: intencionalmente, para proteger la propiedad intelectual de los creadores de dichos algoritmos; por la falta de conocimiento por parte de los usuarios que les impida entender cómo funcionan los algoritmos y modelos computacionales construidos a partir de los datos; e intrínsecamente, dado que ciertos métodos de aprendizaje por ordenador (por ejemplo, modelos de deep learning o aprendizaje profundo) son extremadamente complejos. Asimismo, es imprescindible que los sistemas de Inteligencia Artificial sean transparentes no solo con relación a qué datos captan y analizan sobre el comportamiento humano y para qué propósitos sino también respecto en qué situaciones los humanos están interaccionando con sistemas artificiales (por ejemplo, chatbots) vs con otros humanos.
-
E de education o educación, es decir, invirtiendo en educación a todos los niveles, empezando por la educación obligatoria. En el libro “Los nativos digitales no existen” escribí un capítulo llamado “Eruditos Digitales” donde enfatizo la necesidad de enseñar tanto Pensamiento Computacional desde primero de primaria, como de desarrollar el pensamiento crítico, la creatividad y habilidades de las inteligencias social y emocional que hoy en día no estamos desarrollando pero que cada vez van a resultar más importantes para nuestra salud mental y nuestra coexistencia pacífica y armoniosa tanto con la tecnología como con otros humanos y con nuestro planeta. La adopción masiva de herramientas de Inteligencia Artificial generativa de textos, música, audios o videos cuestiona los modelos tradicionales de enseñanza y evaluación, dado que cualquier estudiante puede, en cuestión de segundos, producir redacciones, comentarios, resúmenes o artículos –veraces o no– sobre prácticamente cualquier tema y en cualquier idioma. El nivel de competencia de estos sistemas nos ha sorprendido a todos y todas, expertos y legos en la materia. Su falta de rigor y veracidad, hace mas relevante hoy que nunca la necesidad de desarrollar el espíritu critico y de validar y contrastar la información con fuentes reputadas y solventes. Sin duda, cada vez mas no podremos ni deberemos creer todo lo que leemos, escuchamos o vemos en el mundo digital. Educación también a la ciudadanía, a los profesionales –sobre todo a aquellos cuyas profesiones están siendo transformadas por la tecnología—, a los trabajadores del sector público y a nuestros representantes políticos. Una apuesta ambiciosa por la educación en competencias tecnológicas es vital para poder reducir la situación de asimetría en la que nos encontramos inmersos hoy en día: asimetría con respecto al acceso a los datos y aún más importante con respecto al acceso al conocimiento experto para saber qué hacer con dichos datos. Comparto las palabras de Marie Curie, “nada en la vida debería temerse, sino entenderse. Ahora es momento de entender más para así temer menos.”
La E tambien es de bEneficence o bEneficiencia, es decir, maximizando el impacto positivo del uso de la Inteligencia Artificial, con sostenibilidad, diversidad, honestidad y veracidad. Porque no olvidemos que no todo desarrollo tecnológico es progreso. Y a lo que deberíamos aspirar y en lo que deberíamos invertir es en el progreso. Por supuesto, para ello hemos de definir lo que entendemos por progreso. Desde mi punto de vista, el progreso implica una mejora en la calidad de vida de las personas, del resto de seres vivos y de nuestro planeta.
Y de equidad. El desarrollo y crecimiento de Internet y del World Wide Web durante la Tercera y Cuarta Revoluciones Industriales ha sido sin duda clave para la democratización del acceso al conocimiento. Sin embargo, los principios de universalización del conocimiento y democratización del acceso a la tecnología están siendo cuestionados hoy en día en gran parte por la situación de dominancia extrema de las grandes empresas tecnológicas americanas y chinas, conocido como el fenómeno “winner takes all” (el ganador se lo lleva todo). Juntos, estos gigantes tecnológicos tienen un valor de mercado de más de 5 millones de millones (trillones americanos) de euros y unas cuotas de mercado en EEUU de más de un 90% en las búsquedas de Internet (Google), de un 70% de las redes sociales (Facebook) o de un 50% del comercio electrónico (Amazon). En consecuencia, un elevado porcentaje de los datos sobre el comportamiento humano existentes hoy en día son datos privados, captados, analizados y explotados por estas grandes empresas tecnológicas que conocen no solo nuestros hábitos, necesidades, intereses o relaciones sociales sino también nuestra orientación sexual o política, nuestros niveles de felicidad, de educación o de salud mental. Por tanto, si queremos maximizar el impacto positivo del desarrollo tecnológico y en particular de la Inteligencia Artificial en la sociedad, dado que dicha inteligencia necesita datos para poder aprender, deberíamos plantearnos nuevos modelos de propiedad, gestión y regulación de los datos. La Regulación General Europea para la Protección de Datos (RGDP) es un ejemplo en esta dirección. Sin embargo, la complejidad en su aplicación práctica pone de manifiesto la dificultad para definir e implementar el concepto de “propiedad” cuando hablamos de un bien intangible, distribuido, variado, creciente, dinámico y replicable infinitas veces a coste prácticamente cero.
-
N es de non-maleficence o no maleficiencia, es decir, minimizando el impacto negativo que pueda derivarse del uso de las decisiones algorítmicas. Para ello, es importante aplicar un principio de prudencia, garantizar la seguridad, fiabilidad y reproducibilidad de los sistemas, preservando siempre la privacidad de las personas.
Será solamente cuando respetemos estos requisitos que seremos capaces de avanzar y conseguir una Inteligencia Artificial socialmente sostenible, por y para las personas. Precisamente para contribuir a realizar esa visión es para lo que se ha creado ELLIS Alicante.