Henna Virkkunen, junto a Teresa Ribera, vicepresidentas ejecutivas de la Comisión Europea, en la conferencia de presidentes del Parlamento Europeo.

Henna Virkkunen, junto a Teresa Ribera, vicepresidentas ejecutivas de la Comisión Europea, en la conferencia de presidentes del Parlamento Europeo. EP

Europa

Críticas, suspicacias y una posible revisión en el aire: ¿Qué está pasando con la ley europea de inteligencia artificial?

Mientras los actores del ecosistema critican la rebaja en las obligaciones de la ley, los reguladores plantean una posible revisión de la norma. 

Más información: Los impulsores de la ley europea de IA, preocupados por los intentos de la UE de rebajar las obligaciones a las 'big tech'

Publicada

Algo está pasando con el Reglamento Europeo de Inteligencia Artificial (AI Act, en inglés). En las últimas semanas, la pionera norma comunitaria ha saltado a la palestra informativa en varias ocasiones y no solamente por la entrada en vigor de sus preceptos, sino porque se han empezado a replantear o cuestionar algunos de los aspectos que forman parte de su estructura. 

Todo estalló a finales de marzo, cuando algunos de los grandes impulsores de esta norma, entre los que se incluían el premio Turing Yoshua Bengio o la exsecretaria de Estado de Digitalización e Inteligencia Artificial del Gobierno de España, Carme Artigas, que fue uno de los rostros en la aprobación de esta ley, enviaron una carta a la vicepresidenta de Tecnología de la Comisión Europea, Henna Virkkunen. En ella, los expertos expresaban sus preocupaciones porque creían que Bruselas estaba rebajando el alcance de esta legislación. 

Tal y como adelantó este medio, en la misiva los líderes piden a la Comisión Europea que mantenga las obligaciones que se imponen en el documento original a las grandes tecnológicas y que no las reduzcan a meras recomendaciones. Según señalan, este movimiento puede ser "peligroso, antidemocrático y generar inseguridad jurídica", ya que permitiría que esas multinacionales estén exentas de cumplir todos los límites marcados por la regulación. 

Un código conflictivo

La publicación de esta carta en este momento no es casualidad, sino que se enmarca alrededor del código de buenas prácticas que están elaborando los reguladores comunitarios, que se espera que vea la luz pronto y del que dependerá en gran parte la aplicación real de dicho reglamento. 

El último borrador de este código de conducta para los desarrolladores ha alertado a todo tipo de miembros del ecosistema, desde las organizaciones de la sociedad civil hasta la Coalición Europea de Creadores o los ya mencionados artífices de la propia ley. Todos han coincidido en el que este texto suprime la obligación de las empresas para evaluar y mitigar los riesgos que los modelos de IA puedan causar a los derechos fundamentales de los ciudadanos. 

Por ejemplo, los propios eurodiputados que redactaron la legislación muestran en la carta remitida a la Comisión su preocupación sobre la relajación en algunos de los puntos clave de la norma en línea con las pretensiones de las compañías tecnológicas, que se han mostrado, en su mayoría, claramente en contra de ella. Por su parte, las asociaciones de creadores y de periodistas mostraron sus temores sobre el hecho de que la ley no acabe por proteger de forma suficiente sus derechos de autor. 

Preguntada por estas inquietudes sobre la normativa, la vicepresidenta de Tecnología de la Comisión Europea, afirmó ser consciente de las críticas, pero matizó que la última versión de este código no será la definitiva. Así, señaló que es importante "encontrar el equilibrio".  

No obstante, esta no es la primera señal de alarma por la debilitación en la regulación alrededor de esta tecnología, sino que se suma a la retirada de una directiva complementaria que definía aspectos clave en la responsabilidad legal sobre IA que anunció Bruselas. En teoría, esto responde a la intención de los reguladores de preparar un paquete de simplificación digital para el último trimestre de 2025. 

Una posible revisión de la ley

Estos hechos, que aislados pueden parecer inofensivos y juntos pueden generar suspicacias, se han visto reafirmados ante unas declaraciones vertidas por Virkkunen la semana pasada en las que afirmaba que el Ejecutivo comunitario se estaba planteando revisar la ley de inteligencia artificial que entró en vigor el año pasado. 

En una rueda de prensa, la vicepresidenta de Tecnología señaló el compromiso de la Comisión Europea con los principios del reglamento, que sigue el enfoque basado en el riesgo. Sin embargo, también puntualizó que estaban evaluando las "cargas burocráticas" y las obligaciones que afectaban a las pequeñas y medianas empresas para ver si se podían evaluar. 

Virkkunen hizo estas declaraciones en la presentación de la estrategia de la Unión Europea para impulsar el desarrollo de la IA en esta región. En ella, además de la creación de gigafábricas de IA o de laboratorios de datos para aprovechar el potencial de la información en el despliegue de esta tecnología, así como de iniciativas centradas en la promoción del talento dentro de esta industria, también se incluye la puesta en marcha de diferentes consultas públicas relacionadas con la regulación. 

Entre ellas, se incluye una para recabar las opiniones de los actores de la industria sobre los desafíos que puedan existir en el proceso de implementación de la ley de IA con el objetivo de identificar en qué aspectos "la incertidumbre regulatoria está obstaculizando el desarrollo de la tecnología". Así, según el texto presentado por la Comisión, se espera que esta consulta sirva para evaluar si esta norma refleja de forma adecuada las necesidades y limitaciones de las pymes.