-
Analistas sugieren que la aprobación de la Ley de IA en Europa puede dictar nuevos parámetros de competencia en el mercado emergente a nivel mundial.
El Consejo de la Unión Europea acaba de aprobar de manera definitiva la primera ley a nivel mundial que modera el desarrollo, producción y uso de sistemas basados en inteligencia artificial (IA). Las autoridades del bloque afirman que la normativa “puede establecer un estándar global para la regulación de esta tecnología”. La legislación fue autorizada por el Parlamento Europeo en marzo. Tras la decisión del Consejo, se publicará en el Diario Oficial de la región. Los requisitos y condiciones de la reforma se aplicarán dos años después “con algunas excepciones para disposiciones específicas».
“La nueva ley tiene como objetivo fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en todo el mercado de la Unión Europea por parte de actores públicos y privados. Al mismo tiempo, pretende garantizar el respeto de los derechos fundamentales de los ciudadanos y estimular la inversión y la innovación alrededor de esta herramienta”, afirma el Consejo.
El marco legal clasifica los diferentes tipos de inteligencia artificial en función del “potencial que tienen para causar daño a la sociedad”. Contempla las categorías: riesgo limitado, alto riesgo y riesgo inaceptable.
En la primera se consideran recursos como los bots de asistencia o las soluciones de análisis que deberán cumplir “obligaciones de transparencia muy leves”. La segunda está destinada a productos biométricos, de reconocimiento facial o utilizados con fines educativos y dentro del mercado laboral. Los desarrolladores de estas aplicaciones deberán registrar sus sistemas en un censo y cumplir con obligaciones de gestión de amenazas y calidad más estrictas para poder operar en el mercado europeo. El tercer nivel enlista programas usados para la manipulación cognitivo-conductual y la puntuación social. Estos quedarán totalmente prohibidos en Europa.
“La ley también prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, orientación sexual o religión”, señalan las autoridades. La reforma incluye un apartado para los modelos de IA de propósito general (GPAI) como GPT-4 o PaLM 2.
La mayoría de estos tendrán que cumplir con disposiciones de transparencia limitadas. Aquellos a los que se les atribuyan «capacidades de alto impacto» y que planteen un “riesgo sistémico” enfrentarán una regulación más estricta. En esta última clasificación entrarán los GPAI entrenados con una potencia computacional superior a 10^25 operaciones de punto flotante por segundo (FLOPS).
Las grandes compañías tecnológicas que no cumplan las normas serán multadas con hasta el 7% de su facturación global. Las startups, pequeñas y medianas empresas estarán sujetas a multas administrativas proporcionales al tamaño de su negocio.