Cubre todos los tipos de IA en una amplia gama de sectores, con excepciones para los sistemas de IA utilizados únicamente con fines militares, de seguridad nacional, de investigación y no profesionales. [5] Como pieza de regulación de productos, no confiere derechos a las personas, sino que regula a los proveedores de sistemas de IA y a las entidades que utilizan IA en un contexto profesional. [6]
La Ley clasifica las aplicaciones de IA no exentas según su riesgo de causar daño. Hay cuatro niveles (inaceptable, alto, limitado y mínimo), además de una categoría adicional para la IA de propósito general. [7]
Se prohíben las aplicaciones con riesgos inaceptables.
Las aplicaciones de riesgo limitado sólo tienen obligaciones de transparencia.
Las aplicaciones de riesgo mínimo no están reguladas.
Para la IA de propósito general, se imponen requisitos de transparencia, con requisitos reducidos para los modelos de código abierto y evaluaciones adicionales para los modelos de alta capacidad. [8] [9]
La Ley también crea una Junta Europea de Inteligencia Artificial para promover la cooperación nacional y garantizar el cumplimiento de la regulación. [10] Al igual que el Reglamento General de Protección de Datos de la UE , la Ley puede aplicarse extraterritorialmente a proveedores de fuera de la UE si tienen usuarios dentro de la UE. [6]
Propuesto por la Comisión Europea el 21 de abril de 2021, [11] fue aprobado por el Parlamento Europeo el 13 de marzo de 2024, [12] y fue aprobado por unanimidad por el Consejo de la UE el 21 de mayo de 2024. [13] El proyecto de ley fue revisado para abordar el aumento de la popularidad de los sistemas de inteligencia artificial generativa , como ChatGPT , cuyas capacidades de propósito general no encajaban en el marco principal. [14]
Provisiones
Categorías de riesgo
Existen diferentes categorías de riesgo según el tipo de aplicación, con una categoría específica dedicada a la IA generativa de propósito general:
Riesgo inaceptable: las aplicaciones de IA en esta categoría están prohibidas, salvo excepciones específicas. [15] Cuando no se aplica ninguna excepción, esto incluye aplicaciones de IA que manipulan el comportamiento humano , aquellas que utilizan identificación biométrica remota en tiempo real (como el reconocimiento facial ) en espacios públicos y aquellas utilizadas para la puntuación social (clasificación de individuos en función de sus características personales, estatus socioeconómico o comportamiento). [9]
Alto riesgo: aplicaciones de IA que se espera que planteen amenazas significativas para la salud, la seguridad o los derechos fundamentales de las personas. En particular, los sistemas de IA utilizados en los ámbitos de la salud, la educación, la contratación, la gestión de infraestructuras críticas, la aplicación de la ley o la justicia. Están sujetos a obligaciones de calidad, transparencia, supervisión humana y seguridad y, en algunos casos, requieren una "evaluación de impacto sobre los derechos fundamentales" antes de su implementación. [16] Deben evaluarse tanto antes de su comercialización como a lo largo de su ciclo de vida. La lista de aplicaciones de alto riesgo puede ampliarse con el tiempo, sin necesidad de modificar la propia Ley de IA. [6]
IA de propósito general: agregada en 2023, esta categoría incluye en particular modelos básicos como ChatGPT. A menos que los pesos y la arquitectura del modelo se publiquen bajo una licencia libre y de código abierto, en cuyo caso solo se requiere un resumen de los datos de entrenamiento y una política de cumplimiento de los derechos de autor, están sujetos a requisitos de transparencia. Los sistemas de IA de propósito general de alto impacto, incluidos los libres y de código abierto que podrían plantear riesgos sistémicos (en particular, aquellos entrenados utilizando una capacidad computacional superior a 10 25 FLOPS ) [17] también deben someterse a un proceso de evaluación exhaustivo. [9]
Riesgo limitado: los sistemas de IA de esta categoría tienen obligaciones de transparencia, lo que garantiza que los usuarios estén informados de que están interactuando con un sistema de IA y les permite tomar decisiones informadas. Esta categoría incluye, por ejemplo, las aplicaciones de IA que permiten generar o manipular imágenes, sonido o vídeos (como los deepfakes ). [9]
Riesgo mínimo: esta categoría incluye, por ejemplo, los sistemas de IA utilizados en videojuegos o filtros de correo basura . Se espera que la mayoría de las aplicaciones de IA entren en esta categoría. [18] Estos sistemas no están regulados y los Estados miembros no pueden imponer regulaciones adicionales debido a las normas de armonización máxima . Las leyes nacionales existentes relativas al diseño o uso de dichos sistemas quedan anuladas. No obstante, se sugiere un código de conducta voluntario. [19]
Exenciones
Los artículos 2.3 y 2.6 eximen de la Ley de IA a los sistemas de IA utilizados con fines militares o de seguridad nacional o de investigación y desarrollo puramente científicos. [15]
El artículo 5.2 prohíbe la videovigilancia algorítmica únicamente si se lleva a cabo en tiempo real. Entre las excepciones que permiten la videovigilancia algorítmica en tiempo real se encuentran las destinadas a fines policiales, como "una amenaza real y presente o real y previsible de ataque terrorista". [15]
El considerando 31 de la ley establece que su objetivo es prohibir "los sistemas de IA que proporcionan una puntuación social de personas físicas por parte de agentes públicos o privados", pero permite "prácticas de evaluación lícitas de personas físicas que se llevan a cabo con un propósito específico de conformidad con el Derecho de la Unión y nacional". [20] La Quadrature du Net interpreta esta exención como la autorización de sistemas de puntuación social específicos del sector, [15] como la puntuación de sospecha utilizada por la agencia de pagos familiares francesa Caisse d'allocations familiales . [21] [15]
Gobernancia
La Ley de IA establece varios organismos nuevos en el artículo 64 y siguientes. Estos organismos tienen la tarea de aplicar y hacer cumplir la Ley. El enfoque combina la coordinación a nivel de la UE con la implementación nacional, involucrando tanto a las autoridades públicas como a la participación del sector privado.
Se crearán los siguientes nuevos órganos: [22] [23]
Oficina de IA: adscrita a la Comisión Europea, esta autoridad coordinará la implementación de la Ley de IA en todos los Estados miembros y supervisará el cumplimiento de los proveedores de IA de propósito general.
Comité Europeo de Inteligencia Artificial: compuesto por un representante de cada Estado miembro, el Comité asesorará y asistirá a la Comisión y a los Estados miembros para facilitar la aplicación coherente y eficaz de la Ley de Inteligencia Artificial. Sus tareas incluyen la recopilación y el intercambio de conocimientos técnicos y reglamentarios, la elaboración de recomendaciones, dictámenes escritos y otros tipos de asesoramiento.
Foro Asesor: establecido para asesorar y brindar experiencia técnica a la Junta y a la Comisión, este foro representará una selección equilibrada de partes interesadas, incluida la industria, las empresas emergentes, las pequeñas y medianas empresas, la sociedad civil y el mundo académico, asegurando que un amplio espectro de opiniones esté representado durante el proceso de implementación y aplicación.
Panel científico de expertos independientes: este panel brindará asesoramiento técnico y aportes a la Oficina de IA y a las autoridades nacionales, hará cumplir las normas para los modelos de IA de propósito general (en particular mediante el lanzamiento de alertas calificadas sobre posibles riesgos para la Oficina de IA) y garantizará que las normas e implementaciones de la Ley de IA correspondan a los últimos hallazgos científicos.
Aunque está previsto el establecimiento de nuevos organismos a nivel de la UE, los Estados miembros tendrán que designar "autoridades nacionales competentes" [24] . Estas autoridades serán responsables de garantizar la aplicación y ejecución de la Ley de IA y de llevar a cabo la "vigilancia del mercado" [25] . Verificarán que los sistemas de IA cumplen la normativa, en particular comprobando el correcto desempeño de las evaluaciones de conformidad y designando a terceros para que realicen evaluaciones de conformidad externas.
Aplicación
La Ley regula la entrada al mercado interior de la UE mediante el Nuevo Marco Legislativo . Contiene requisitos esenciales que todos los sistemas de IA deben cumplir para acceder al mercado de la UE. Estos requisitos esenciales se transmiten a los organismos europeos de normalización , que elaboran normas técnicas que detallan estos requisitos. [26] Estas normas son elaboradas por el CEN/CENELEC JTC 21. [27]
La Ley exige que los Estados miembros establezcan sus propios organismos de notificación. Las evaluaciones de conformidad se llevan a cabo para verificar si los sistemas de IA cumplen las normas establecidas en la Ley de IA. [28] Esta evaluación puede realizarse de dos maneras: mediante una autoevaluación, en la que el proveedor del sistema de IA verifica la conformidad, o mediante una evaluación de conformidad por parte de terceros, en la que el organismo de notificación realiza la evaluación. [19] Los organismos de notificación también tienen la autoridad de realizar auditorías para garantizar que las evaluaciones de conformidad se realicen correctamente. [29]
Se han suscitado críticas por el hecho de que muchos sistemas de IA de alto riesgo no requieren evaluaciones de conformidad por parte de terceros. [30] [31] [32] Algunos comentaristas sostienen que las evaluaciones independientes por parte de terceros son necesarias para que los sistemas de IA de alto riesgo garanticen su seguridad antes de su implementación. Los expertos en derecho han sugerido que los sistemas de IA capaces de generar deepfakes para desinformación política o crear imágenes íntimas no consensuadas deberían clasificarse como de alto riesgo y estar sujetos a una regulación más estricta. [33]
Procedimiento legislativo
En febrero de 2020, la Comisión Europea publicó el «Libro Blanco sobre la inteligencia artificial: un enfoque europeo hacia la excelencia y la confianza». [34] En octubre de 2020, los líderes de la UE debatieron en el Consejo Europeo . El 21 de abril de 2021, la Comisión propuso oficialmente la Ley de IA. [11] El 6 de diciembre de 2022, el Consejo Europeo adoptó la orientación general, lo que permitió que se iniciaran las negociaciones con el Parlamento Europeo . El 9 de diciembre de 2023, tras tres días de conversaciones «maratonianas», el Consejo y el Parlamento de la UE concluyeron un acuerdo. [35] [36]
La ley fue aprobada en el Parlamento Europeo el 13 de marzo de 2024, con 523 votos a favor, 46 en contra y 49 abstenciones. [37] Fue aprobada por el Consejo de la UE el 21 de mayo de 2024. [13] Entró en vigor el 1 de agosto de 2024, [3] 20 días después de su publicación en el Diario Oficial el 12 de julio de 2024. [12] [38] Después de su entrada en vigor, habrá un retraso antes de que sea aplicable, que depende del tipo de aplicación. Este retraso es de 6 meses para las prohibiciones de los sistemas de IA de "riesgo inaceptable", 9 meses para los códigos de prácticas, 12 meses para los sistemas de IA de uso general, 36 meses para algunas obligaciones relacionadas con los sistemas de IA de "alto riesgo" y 24 meses para todo lo demás. [38] [37]
Reacciones
Los expertos han argumentado que, aunque la jurisdicción de la ley es europea, podría tener implicaciones de amplio alcance para las empresas internacionales que planean expandirse a Europa. [39] Anu Bradford , de Columbia, ha argumentado que la ley proporciona un impulso significativo al movimiento mundial para regular las tecnologías de IA. [39]
Algunos organismos de control tecnológico han argumentado que la ley tenía importantes lagunas que permitirían a los grandes monopolios tecnológicos afianzar su ventaja en la IA o ejercer presión para debilitar las normas. [40] [41] Algunas empresas emergentes acogieron con agrado la aclaración que proporciona la ley, mientras que otras argumentaron que la regulación adicional haría que las empresas emergentes europeas no fueran competitivas en comparación con las estadounidenses y chinas. [41] La Quadrature du Net (LQDN) describió la Ley de IA como "hecha a medida para la industria tecnológica, las fuerzas policiales europeas y otras grandes burocracias ansiosas por automatizar el control social". LQDN describió el papel de la autorregulación y las exenciones en la ley para hacerla "en gran medida incapaz de interponerse en el camino del daño social, político y ambiental vinculado a la proliferación de la IA". [15]
^ abc Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas sobre la inteligencia artificial y se modifican los Reglamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Ley de Inteligencia Artificial)
^ «Propuesta de Reglamento por el que se establecen normas armonizadas sobre inteligencia artificial: configurar el futuro digital de Europa». digital-strategy.ec.europa.eu . 21 de abril de 2021. Archivado desde el original el 4 de enero de 2023 . Consultado el 6 de octubre de 2024 .
^ ab "La Ley de Inteligencia Artificial entra en vigor" (Comunicado de prensa). Bruselas: Comisión Europea . 1 de agosto de 2024. Consultado el 5 de agosto de 2024 .
^ "Cronología de los desarrollos". artificialintelligenceact.eu . Future of Life Institute . Consultado el 13 de julio de 2024 .
^ "Ley de inteligencia artificial: el Consejo y el Parlamento llegan a un acuerdo sobre las primeras normas para la IA en el mundo". Consejo de la UE . 9 de diciembre de 2023. Archivado desde el original el 10 de enero de 2024 . Consultado el 6 de enero de 2024 .
^ abc Mueller, Benjamin (4 de mayo de 2021). «La Ley de Inteligencia Artificial: una explicación rápida». Centro de Innovación de Datos . Archivado desde el original el 14 de octubre de 2022. Consultado el 6 de enero de 2024 .
^ Lilkov, Dimitar (2021). «Regular la inteligencia artificial en la UE: un juego arriesgado». European View . 20 (2): 166–174. doi : 10.1177/17816858211059248 .
^ Espinoza, Javier (9 de diciembre de 2023). «La UE acuerda unas normas históricas sobre inteligencia artificial». Financial Times . Archivado desde el original el 29 de diciembre de 2023 . Consultado el 6 de enero de 2024 .
^ abcd «Ley de IA de la UE: primer reglamento sobre inteligencia artificial». Noticias del Parlamento Europeo . Archivado desde el original el 10 de enero de 2024. Consultado el 6 de enero de 2024 .
^ MacCarthy, Mark; Propp, Kenneth (4 de mayo de 2021). «Las máquinas aprenden que Bruselas escribe las reglas: la nueva regulación de la IA en la UE». Brookings . Archivado desde el original el 27 de octubre de 2022 . Consultado el 7 de septiembre de 2021 .
^ abc Propuesta de Reglamento por el que se establecen normas armonizadas sobre inteligencia artificial
^ ab "Los legisladores europeos aprueban la primera ley importante del mundo para regular la IA". CNBC . 14 de marzo de 2024. Archivado desde el original el 13 de marzo de 2024 . Consultado el 13 de marzo de 2024 .
^ ab Browne, Ryan (21 de mayo de 2024). «La primera ley importante del mundo sobre inteligencia artificial obtiene luz verde final de la UE». CNBC . Archivado desde el original el 21 de mayo de 2024. Consultado el 22 de mayo de 2024 .
^ Coulter, Martin (7 de diciembre de 2023). "¿Qué es la Ley de Inteligencia Artificial de la UE y cuándo entrará en vigor la normativa?". Reuters . Archivado desde el original el 10 de diciembre de 2023. Consultado el 11 de enero de 2024 .
^ abcdef Con la aprobación de la Ley de IA, la fiebre del oro tecnosolucionista puede continuar, La Quadrature du Net , 22 de mayo de 2024, Wikidata Q126064181, archivado desde el original el 23 de mayo de 2024
^ Mantelero, Alessandro (2022), Beyond Data. Derechos humanos, evaluación del impacto ético y social en la IA , Information Technology and Law Series, vol. 36, La Haya: Springer-TMC Asser Press, doi : 10.1007/978-94-6265-531-7 , ISBN978-94-6265-533-1
^ Bertuzzi, Luca (7 de diciembre de 2023). «AI Act: EU policymakers nail down rules on AI models, butt heads on law enforcement» (Ley de IA: los responsables políticos de la UE fijan normas sobre los modelos de IA, pero no se ponen de acuerdo sobre la aplicación de la ley). Euractiv . Archivado desde el original el 8 de enero de 2024. Consultado el 6 de enero de 2024 .
^ Liboreiro, Jorge (21 de abril de 2021). "'Mayor riesgo, normas más estrictas: las nuevas normas de inteligencia artificial de la UE ". Euronoticias . Archivado desde el original el 6 de enero de 2024 . Consultado el 6 de enero de 2024 .
^ ab Veale, Michael; Borgesius, Frederik Zuiderveen (1 de agosto de 2021). «Desmitificando el proyecto de ley de inteligencia artificial de la UE: análisis de los elementos buenos, malos y poco claros del enfoque propuesto». Computer Law Review International . 22 (4): 97–112. arXiv : 2107.03721 . doi :10.9785/cri-2021-220402. ISSN 2194-4164. S2CID 235765823.
^ Ley de Inteligencia Artificial: [1] Considerando 31
^ Notation des allocataires: la CAF étend sa vigilancia à l'analyse des revenus en temps réel (en francés), La Quadrature du Net , 13 de marzo de 2024, Wikidata Q126066451, archivado desde el original el 1 de abril de 2024
^ Bertuzzi, Luca (21 de noviembre de 2023). «Los legisladores de la UE debatirán la estructura de gobernanza revisada del reglamento de IA». Euractiv . Archivado desde el original el 22 de mayo de 2024. Consultado el 18 de abril de 2024 .
^ Friedl, Paul; Gasiola, Gustavo Gil (7 de febrero de 2024). "Examining the EU's Artificial Intelligence Act". Verfassungsblog . doi :10.59704/789d6ad759d0a40b. Archivado desde el original el 22 de mayo de 2024 . Consultado el 16 de abril de 2024 .
^ Propuesta: [11] Artículo 3 – definiciones. Extracto: «'autoridad nacional competente' significa la autoridad nacional de supervisión, la autoridad notificante y la autoridad de vigilancia del mercado.»
^ «Inteligencia artificial: preguntas y respuestas». Comisión Europea . 12 de diciembre de 2023. Archivado desde el original el 6 de abril de 2024. Consultado el 17 de abril de 2024 .
^ Tartaro, Alessio (2023). «Regular mediante estándares: avances actuales y principales desafíos en la estandarización de la Inteligencia Artificial en apoyo de la AI Act». Revista Europea de Derecho de la Privacidad y Tecnologías . 1 (1). Archivado desde el original el 3 de diciembre de 2023 . Consultado el 10 de diciembre de 2023 .
^ "Con la Ley de IA, debemos tener en cuenta la brecha de estándares". CEPS . 25 de abril de 2023 . Consultado el 15 de septiembre de 2024 .
^ DOCUMENTO DE TRABAJO DE LOS SERVICIOS DE LA COMISIÓN EVALUACIÓN DE IMPACTO que acompaña a la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen NORMAS ARMONIZADAS SOBRE INTELIGENCIA ARTIFICIAL (LEY DE INTELIGENCIA ARTIFICIAL) Y SE MODIFICAN DETERMINADOS ACTOS LEGISLATIVOS DE LA UNIÓN
^ Casarosa, Federica (1 de junio de 2022). «Certificación de la Inteligencia Artificial en materia de ciberseguridad: una oportunidad perdida para coordinar la Ley de Inteligencia Artificial y la Ley de Ciberseguridad». Revista Internacional de Derecho de la Ciberseguridad . 3 (1): 115–130. doi :10.1365/s43439-021-00043-6. ISSN 2662-9739. S2CID 258697805.
^ Smuha, Nathalie A.; Ahmed-Rengers, Emma; Harkens, Adam; Li, Wenlong; MacLaren, James; Piselli, Riccardo; Yeung, Karen (5 de agosto de 2021). "Cómo la UE puede lograr una IA legalmente confiable: una respuesta a la propuesta de la Comisión Europea para una ley de inteligencia artificial". SSRN 3899991.
^ Ebers, Martin; Hoch, Veronica RS; Rosenkranz, Frank; Ruschemeier, Hannah; Steinrötter, Björn (diciembre de 2021). "La propuesta de la Comisión Europea para una ley de inteligencia artificial: una evaluación crítica por parte de los miembros de la Robotics and AI Law Society (RAILS)". J: Revista científica multidisciplinaria . 4 (4): 589–603. doi : 10.3390/j4040043 . ISSN 2571-8800.
^ Almada, Marco; Petit, Nicolas (27 de octubre de 2023). "La Ley de IA de la UE: entre la seguridad de los productos y los derechos fundamentales". SSRN 4308072.
^ Romero-Moreno, Felipe (29 de marzo de 2024). «Inteligencia artificial generativa y deepfakes: un enfoque de derechos humanos para abordar el contenido dañino». Revista Internacional de Derecho, Informática y Tecnología . 39 (2): 1–30. doi : 10.1080/13600869.2024.2324540 . hdl : 2299/20431 . ISSN 1360-0869.
^ «Libro Blanco sobre la Inteligencia Artificial: un enfoque europeo hacia la excelencia y la confianza». Comisión Europea . 19 de febrero de 2020. Archivado desde el original el 5 de enero de 2024 . Consultado el 6 de enero de 2024 .
^ Procedimiento 2021/0106/COD
^ «Cronología – Inteligencia artificial». Consejo Europeo . 9 de diciembre de 2023. Archivado desde el original el 6 de enero de 2024 . Consultado el 6 de enero de 2024 .
^ ab «Ley de Inteligencia Artificial: los eurodiputados adoptan una ley histórica». Parlamento Europeo . 13 de marzo de 2024. Archivado desde el original el 15 de marzo de 2024 . Consultado el 14 de marzo de 2024 .
^ ab David, Emilia (14 de diciembre de 2023). "Se aprobó la Ley de Inteligencia Artificial de la UE; ahora viene la espera". The Verge . Archivado desde el original el 10 de enero de 2024 . Consultado el 6 de enero de 2024 .
^ abc "Europa acordó unas normas de inteligencia artificial líderes a nivel mundial. ¿Cómo funcionan y afectarán a las personas en todas partes?". AP News . 11 de diciembre de 2023 . Consultado el 31 de mayo de 2024 .
^ "El Parlamento Europeo da luz verde a una normativa histórica sobre inteligencia artificial". Al Jazeera . Consultado el 31 de mayo de 2024 .
^ ab "La UE aprobó la primera ley de inteligencia artificial. Los expertos en tecnología dicen que es 'agridulce'". euronews . 16 de marzo de 2024 . Consultado el 31 de mayo de 2024 .