El texto completo y final de la Ley de IA de la UE, la regulación basada en riesgos más importante de la Unión Europea para aplicaciones de inteligencia artificial, ha sido publicado en el Diario Oficial del bloque.
\n\nEn 20 días, el 1 de agosto, la nueva ley entrará en vigor y en 24 meses, es decir, para mediados de 2026, sus disposiciones serán generalmente aplicables a los desarrolladores de IA. Sin embargo, la ley adopta un enfoque gradual para implementar el reglamento de IA de la UE, lo que significa que hay varios plazos importantes entre ahora y entonces, y algunos incluso más tarde, ya que diferentes disposiciones legales comenzarán a aplicarse.
\n\nLos legisladores de la UE alcanzaron un acuerdo político sobre el primer conjunto integral de reglas de la UE para la IA en diciembre del año pasado.
\n\nEl marco impone diferentes obligaciones a los desarrolladores de IA, según los casos de uso y el riesgo percibido. La mayoría de los usos de IA no estarán regulados ya que se consideran de bajo riesgo, pero un pequeño número de posibles casos de uso de la IA están prohibidos por la ley.
\n\nLos casos de uso de "alto riesgo", como el uso biométrico de la IA o la IA utilizada en la aplicación de la ley, el empleo, la educación y la infraestructura crítica, están permitidos por la ley, pero los desarrolladores de dichas aplicaciones enfrentan obligaciones en áreas como la calidad de los datos y la prevención del sesgo.
\n\nUn tercer nivel de riesgo también impone algunos requisitos de transparencia menos estrictos para los fabricantes de herramientas como los chatbots de IA.
\n\nPara los fabricantes de modelos de IA de propósito general (GPAI), como el GPT de OpenAI, la tecnología subyacente de ChatGPT, también hay algunos requisitos de transparencia. Los GPAIs más potentes, generalmente establecidos en función del umbral informático, también pueden estar obligados a realizar una evaluación de riesgos sistemática.
\n\nUn intenso cabildeo por parte de algunos elementos de la industria de la IA respaldados por algunos gobiernos de los Estados miembros buscaba debilitar las obligaciones sobre los GPAIs por temor a que la ley pudiera frenar la capacidad de Europa para producir gigantes de la IA nacionales para competir con rivales en los Estados Unidos y China.
\n\nImplementación graduada
\n\nEn primer lugar, la lista de usos prohibidos de la IA se aplicará seis meses después de la entrada en vigor de la ley, es decir, a principios de 2025.
\n\nLos casos de uso de la IA prohibidos (o de "riesgo inaceptable") que pronto serán ilegales incluyen la puntuación crediticia social al estilo de China; la compilación de bases de datos de reconocimiento facial mediante el rastreo no dirigido de Internet o de circuito cerrado de televisión; el uso de biométricos remotos en tiempo real por aplicación de la ley en lugares públicos a menos que se aplique una de varias excepciones, como durante la búsqueda de personas desaparecidas o secuestradas.
\n\nA continuación, nueve meses después de la entrada en vigor, es decir, alrededor de abril de 2025, se aplicarán códigos de conducta a los desarrolladores de aplicaciones de IA incluidas en el ámbito de aplicación.
\n\nLa Oficina de IA de la UE, un organismo de creación de ecosistemas y supervisión establecido por la ley, es responsable de proporcionar estos códigos. Pero todavía quedan preguntas sobre quién redactará realmente las directrices.
\n\nSegún un informe de Euractiv publicado este mes, la UE ha estado buscando firmas de consultoría para redactar los códigos, lo que genera preocupaciones de la sociedad civil de que los actores de la industria de la IA puedan influir en la forma de las reglas que se les aplicarán. Más recientemente, MLex informó que la Oficina de IA lanzará una convocatoria de expresión de interés para seleccionar a los interesados en redactar los códigos de conducta para los modelos de IA de propósito general, siguiendo la presión de los europarlamentarios para que el proceso sea inclusivo.
\n\nOtro plazo clave vence 12 meses después de la entrada en vigor, es decir, el 1 de agosto de 2025, cuando comenzarán a aplicarse las normas de la ley sobre los GPAIs que deben cumplir con los requisitos de transparencia.
\n\nUn subconjunto de sistemas de IA de alto riesgo ha recibido el plazo de cumplimiento más generoso, con 36 meses después de la entrada en vigor, es decir, hasta 2027, permitido para que cumplan con sus obligaciones. Otros sistemas de alto riesgo deben cumplir antes, después de 24 meses.
\n