Regulación de la IA: EU versus USA
Comparación de las respectivas regulaciones para la IA de la UE y EE UU
(EU Commission, By EmDee - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=91781296?)
Hace tiempo que no escribo sobre aspectos regulatorios en este blog, pero el mes de Mayo ha sido significativo desde un punto de vista legislativo, no sólo en Europa sino también al otro lado del Atlántico.
En primer lugar, el 21 de Mayo de 2024, el Consejo de la UE aprobó finalmente la Ley de IA (o EU AI Act como se la conoce globalmente), que pronto será ratificada por el Parlamento Europeo y publicada en el Diario Oficial de la UE. Mucho se ha escrito sobre esta ley, que se basa en establecer un sistema de análisis de riesgo a cuatro niveles para los sistemas de inteligencia artifical, estableciendo obligaciones y mecanismos de seguridad que los proveedores de estos sistemas deben cumplir para garantizar los derechos de los ciudadanos europeos, como la privacidad o la equidad en el acceso. Los detractores de esta ley argumentan que se deja precisamente en manos de la proveedores de sistemas de IA la clasificación del nivel de riesgo que pueden suponer sus sistemam así como la implantación de las medidas destinadas a combatir un uso inadecuado de los mismos y el cumplimiento de la legislación comunitaria vigente en materia de privacidad, protección de datos y derechos de propiedad intelectual. Es como si al zorro de los cuentos populares se le pidiera que cuide del gallinero porque, efectivamente, aunque la Ley de IA pone especial énfasis en el bienestar humano y garantizar las libertades civiles de los ciudadanos europeos frente a la IA, lo cierto es que la legislación deja muy en el aire el cómo que se va a garantizar que corporaciones como OpenAI o Gemini cumplen, efectivamente, con los obligaciones que establece la nueva ley y, lo que es, más importante, cómo se va a monitorizar en la UE que dichas corporaciones cumplen con sus obligaciones.
En Febrero del 2024, se creo la Oficina de la IA en Bruselas, organismo al que los proveedores de large language models (LLMs) deberán rendir cuentas sobre cómo han entrenado a sus modelos de lenguaje, y sobre todo, si han utilizado materiales con derechos de autor para entrenar a sus sistemas o no. Sin embargo, la Oficina de IA no parece querer invertir en contratar un número suficiente de personal especializado para poder realizar su cometido.
No es el objetivo de este post el analizar en profundidad la Ley de IA, pero me gustaría remitir a los siguentes recursos para aquellos que deseén conocer la ley en profundidad:
“The EU AI Act Newsletter” es un blog disponible también aquí en Substrack, en el que Risto UUK, investigador de la UE en el Future of Life Institute, ofrece una análisis imparcial y certero sobre la Ley de IA y legislación en materia de IA de otros países como Estados Unidos.
También del Future Life Institute, recomiendo el sitio web AI Act Explorer, que no solamente ofrece la versión actualiza a 19 de Abril de 2024 de la Ley de IA, sino que además permite buscar por tópicos o palabras clave dentro del texto de la ley. El sitio web sólo se haya disponible en inglés, por ahora, y sólo analiza la versión inglesa de la ley.
Legislación Internacional
También el 21 de Mayo Benjamin Cedric (experto en IA y machine learning del World Economic Forum) y Sabrina Küspert (oficial de reglamentación en la flamante Oficina para la IA de la UE) publicaban para the Brookings Institute una comparativa de las legislaciones de IA en la UE y EE. UU.
En EE UU la adopción de medidas regulatorias para el uso de la IA ha estado dominado por un enfoque “light touch”, en donde las propias corporaciones establecían sus propias medidas de seguridad y códigos de uso ético para sus sistemas de IA, y la intervención estatal se limitaba a la aprobación de recomendaciones y guías para un uso general de la IA por parte de diversas agencias federales norteamericas.
Este panorama cambió en Octubre de 2023 con la aprobación de la “Executive Order 14110 on the “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.” La Orden Ejecutiva establece la necesidad de una enfoque único nacional para la aprobación de nuevos estandáres que regulen el uso de la IA en materia de seguridad, derechos civiles, empleo, etc., este enfoque nacional era algo del que adolecían las leyes anteriores, muy fragmentadas. Sin embargo, la OE no establece provisiones de regulación como tal para ninguna de las áreas identificadas, sino que deja en manos de la industria y el sector privado el desarrollo de estos nuevos estándares. Cedric y Kübrick consideran que, más que una intento de legislación, la OE es una especie de hoja de ruta o intento del gobierno de EE. UU, de ofrecer un liderazgo estratégico para el desarrollo de la IA no sólo a nivel doméstico sino internacional.
Imitiando la Ley de IA, la OE de la administración norteamericana dictamina la creación de un “White House AI Council”, semejante a la Oficina de IA de la UE, así como el nombramiento de funcionarios cualificados en IA en todas las agencias gubernamentales para velar por la adapción de buenas prácticas en el despliegue de la IA en los diferentes aspectos de la vida civil y el tejido económico en EE. UU.
Para un análisis comparativo más detallado entre ambas legislaciones, recomiendo leer el artículo del Brooking Institute.
En material de legislación internacional, para aquellos que deseén mantenerse informados de los diferentes marcos regulatorios, recomiendo el sitio Clairk:
https://clairk.digitalpolicyalert.org/
todavía en su versión beta y que extiende su análisis a la legislación sobre IA en China, además de la la UE y EE. UU.