La inteligencia artificial lleva años siendo motivo de preocupación de la Unión Europea, que ya hace un año inició su plan para regularla. Para lograrlo el mecanismo elegido fue la ‘Artificial Intelligence Act’ o ‘AI Act’, una serie de medidas que regulan tanto el desarrollo como el uso de sistemas de inteligencia artificial. Esta normativa acaba de dar un paso decisivo para su futura puesta en marcha.
Mayoría casi absoluta. Según indican en Euroactiv, el Parlamento Europeo ha dado su visto bueno a la ‘AI Act’ con una mayoría abrumadora. Eso allana el camino a las futuras negociaciones interconstitucionales que teóricamente acabarán con el resultado de la puesta en marcha de la primera gran regulación en materia de inteligencia artificial.
Proteger la privacidad. Entre las prácticas prohibidas por el texto están la identificación biométrica remota, la clasificación biométrica, la creación de bases de datos de reconomiento facial basada en recolección de imágenes en internet, o el software de reconocimiento de emociones. Los sistemas de recomendación de grandes redes sociales (como Facebook o TikTok) también se considera de alto riesgo.
Modelos fundacionales, cuidado. La Unión Europea diferencia entre modelos más genéricos (y con un tratamiento regulatorio más laxo) de los llamados modelos fundacionales o IAs generativas, como los LLM con los que otras empresas construyen sus sistemas de IA. El modelo GPT-4 de OpenAI sería uno de esos modelos fundacionales y afecta también a ChatGPT. Ahí la cosa se pone más seria para las empresas que los crean y gestionan.
¿Ejemplo a seguir? La regulación europea fue vista con preocupación por parte de Sam Altman, CEO de OpenAI, que llegó a advertir de que eso podría obligarles a no dar servicio en Europa. Eso significaría no poder acceder de forma normal a herramientas como ChatGPT, aunque días después hubo cambio de timón y de declaraciones. Hay una clara incertidumbre en este complejo proceso a nivel mundial, y mientras que Europa parece mostrarse más restrictiva, EEUU no acaba de pronunciarse. Hay otras opciones, como la de Japón, con una regulación más suave.
Etiquetado y transparencia. Entre las obligaciones impuestas en la ‘AI Act’ está la del etiquetado obligatorio de contenidos generados por IA. Además será necesario que las empresas desvelen con qué datos protegidos por derechos de autor han entrenado estos modelos fundacionales. Ese etiquetado deberá correr a cargo de las empresas.
Prisas por ponerla en marcha. El europarlamentario Brando Benifei explicaba cómo la UE quiere acelerar los plazos de puesta en marcha de la regulación. La idea es tratar de anticipar el periodo de aplicación convencional de la legislación, que es de dos años. Puede que no para todos los tipos de IA, pero sí para los modelos fundacionales o IA generativa, “dados los efectos disruptivos” que están teniendo actualmente, indican en Euroactiv.
España, clave para su aplicación. A partir de aquí el proceso continuará con una serie de negociaciones interinstitucionales con el Consejo de Ministros de la UE y la Comisión Europea en los llamados trílogos. Esas negociaciones se intensificarán una vez España asuma la presidencia del Consejo Europeo, algo que ocurrirá el próximo mes de julio. El Gobierno de España ya ha dejado claro que completar esta regulación es su principal prioridad en el ámbito digital.