La regulación europea de la IA es necesaria
La regulación europea de la IA es necesaria
La investigadora española ha participado en la elaboración de un exhaustivo informe sobre los riesgos de la inteligencia artificial de propósito general.
[…]
Dirigido por Yoshua Bengio, “padre de la inteligencia artificial moderna”, el International AI Safety Report es un exhaustivo informe elaborado por casi un centenar de expertos, que recopila la investigación existente sobre las capacidades y riesgos de la inteligencia artificial de propósito general y ofrece medidas de mitigación. El estudio, respaldado por treinta países, la ONU, la OCDE y la Unión Europea, se ha presentado en la antesala de la cumbre de IA que se celebrará el 10 y 11 de febrero en París.
La doctora en inteligencia artificial Nuria Oliver, directora de la Fundación Ellis Alicante, es una de las asesoras del informe. “Aunque necesitamos la inteligencia artificial para abordar los grandes retos del siglo XXI, es necesario entender sus limitaciones para evitar consecuencias negativas”, dice Oliver, quien destaca la relevancia de elaborar un informe riguroso que analice la evidencia científica detrás de cada amenaza. “Tenemos riesgos que ya existen, como los deepfake, y escenarios más especulativos como puede ser el uso de la inteligencia artificial para generar un arma biológica. No todos los riesgos son reales ahora mismo o tienen la misma prevalencia”.
Oliver considera que la irrupción de DeepSeek plantea aún “muchos interrogantes” y requiere “una investigación profunda, sistemática y rigurosa” para establecer sus debilidades y ventajas. Asimismo, señala la discusión sobre los modelos de código abierto como el de la empresa china. Mientras hay investigadores que defienden los beneficios en transparencia e innovación, también se plantean preocupaciones sobre los riesgos que podría generar la accesibilidad a estos sistemas “muy potentes” por parte de agentes maliciosos.
La investigadora pone el foco en la importancia de la regulación en medio de una carrera por la supremacía en inteligencia artificial, y defiende la ley europea de inteligencia artificial, “necesaria para asegurar que la innovación contribuya al progreso”. En este sentido, destaca como un “hito” el hecho de que la UE haya prohibido por primera vez algunos usos de la inteligencia artificial. En su opinión, otro hito será la entrada en vigor en primavera de los códigos de buenas prácticas que deberán cumplir los modelos de lenguaje.
Oliver, que preside el grupo de trabajo de la UE sobre las exigencias de transparencia de la inteligencia artificial de propósito general, defiende la importancia de establecer directrices para que los proveedores de estos grandes modelos demuestren que cumplen con la regulación europea “si quieren seguir dando servicio en Europa”.