Primeras restricciones a la inteligencia artificial: esto dice la Ley de IA de la Unión Europea

Ia 3
Sin comentarios Facebook Twitter Flipboard E-mail

La Unión Europea dio un paso histórico en la regulación de la inteligencia artificial con la entrada en vigor de la Ley de IA (AI Act), un marco normativo pionero que busca establecer reglas claras para el desarrollo y uso de esta tecnología en el continente.

Y aunque desde agosto de 2024, esta legislación está en vigencia, solo fue hasta hace unas horas que comenzaron a aplicarse las primeras restricciones sobre ciertos sistemas de inteligencia artificial considerados de "riesgo inaceptable".

Si bien muchos expertos consideran que esta ley es un paso crucial para garantizar el desarrollo responsable de la IA, algunos actores de la industria han expresado preocupaciones sobre su impacto en la innovación.

Empresarios y desarrolladores han advertido que las restricciones podrían hacer que Europa pierda competitividad frente a Estados Unidos y China, donde las regulaciones son más flexibles. De hecho, el presidente Donald Trump lanzó una medida ejecutiva destinada a establecer protecciones para esta tecnología en Estados Unidos en su primer día de regreso al cargo.

Un marco normativo con niveles de amenaza

Ia 4 (Pexels)

La Ley de IA de la UE clasifica los sistemas de inteligencia artificial según su nivel de riesgo, estableciendo regulaciones específicas para cada uno.

Por ejemplo, se encuentran aquellos de riesgo inaceptable, que representan una amenaza directa para los derechos fundamentales de los ciudadanos. Entre ellos se incluyen: Sistemas de calificación social similares a los usados en China, reconocimiento facial en tiempo real en espacios públicos (excepto en casos de seguridad nacional o terrorismo) y modelos de IA que manipulen el comportamiento humano de manera engañosa o coercitiva.

Mientras que las tecnologías de alto riesgo son aquellas utilizadas en sectores críticos como la salud, la justicia y la educación. Estas herramientas estarán sujetas a estrictos controles de seguridad, auditorías y requisitos de transparencia. Empresas que desarrollen o usen estas IA deben demostrar que cumplen con los estándares de la UE.

Por otra parte, las de riesgo limitado son aquellas aplicaciones de IA que requieren transparencia en su funcionamiento, como chatbots y generadores de contenido automatizado. Los usuarios deben ser informados cuando están interactuando con una IA y no con una persona real.

Finalmente, los sistemas de riesgo mínimo son los que no representan un peligro significativo y que pueden usarse sin restricciones adicionales, como los filtros de spam en correos electrónicos o sistemas de recomendación en plataformas de streaming.

Multas millonarias para quienes incumplan

Ia 6 (Pexels)

Las empresas que violen estas regulaciones enfrentarán sanciones severas. Dependiendo de la gravedad de la infracción, las multas pueden alcanzar hasta 35 millones de euros o el 7 por ciento de los ingresos anuales globales de la empresa infractora, lo que representa un nivel de penalización superior al del Reglamento General de Protección de Datos (GDPR), que establece multas máximas del 4% de los ingresos anuales.

Y si bien la ley ya está en vigor, aún falta la implementación de normativas secundarias y directrices específicas que determinarán el cumplimiento práctico. Se espera que en los próximos meses se definan los estándares técnicos y se establezcan organismos supervisores encargados de hacer cumplir la ley.

El AI Office, una nueva entidad de la UE, será responsable de supervisar el cumplimiento de la ley y de evaluar los modelos de IA de propósito general (GPAI), como los grandes modelos de lenguaje desarrollados por OpenAI, Google o Meta.

Este organismo también trabajará en el desarrollo de un código de buenas prácticas para la inteligencia artificial. Y pesar de estas críticas, la UE busca posicionarse como líder global en la regulación de la IA, estableciendo un modelo que otros países podrían seguir en el futuro.

Inicio