El Parlamento Europeo ratificó este miércoles 13 de marzo la ley de inteligencia artificial (IA) que pactaron en diciembre las instituciones europeas, la primera que regula esta tecnología en el mundo, y dio así un paso importante para su aprobación definitiva en la Unión Europea (UE).
«Celebro el abrumador apoyo del Parlamento Europeo a nuestra ley de inteligencia artificial, la primera norma global y vinculante del mundo para una inteligencia artificial fiable», indicó tras el voto el comisario europeo de Mercado Interior, Thierry Breton.
El comisario francés, impulsor de la iniciativa, aseguró que «Europa es ahora un referente mundial en inteligencia artificial» y aseguró que están regulando lo menos posible, pero todo lo necesario.
La aprobación y los detalles de la ley
Con 523 votos a favor, 46 en contra y 49 abstenciones, la Eurocámara avaló así el acuerdo que a finales del año pasado cerró un grupo de representantes de las tres instituciones comunitarias y que requería aún el visto bueno del pleno del Parlamento Europeo.
Está previsto que la UE la apruebe definitivamente en las próximas semanas, aunque no será hasta 2026 cuando entre en vigor.
La normativa prohíbe el uso de esta tecnología en función del riesgo que suponga para los ciudadanos y, con ella, la UE pretende dar ejemplo al resto del mundo e impulsar a la industria europea frente a Estados Unidos y China.
«Es el resultado de años de preparación, consultas y negociaciones, incluido el histórico diálogo final a tres bandas de 38 horas de diciembre», destacó Breton.
También dejó claro que, a lo largo del proceso, han «resistido a los intereses especiales y a los grupos de presión que pedían excluir del reglamento los grandes modelos de IA».
Según dijo en unos comentarios a la prensa, el resultado es «una normativa equilibrada, basada en el riesgo y preparada para el futuro».
Restricciones y obligaciones de la ley
En líneas generales, la ley de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, pero permite que las fuerzas del orden puedan emplear las cámaras de identificación biométrica, con previa autorización judicial, para prevenir una amenaza terrorista inminente.
También para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o, por ejemplo, un crimen medioambiental, así como para buscar a las víctimas de estos delitos.
Asimismo, el reglamento establece una serie de obligaciones para los sistemas de inteligencia artificial generativa en los que se basan programas como ChatGPT, de la empresa OpenAI, o Bard, de Google.
En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
Además, se identifica toda una serie de sistemas de inteligencia artificial de alto riesgo que solo se podrán comercializar si sus desarrolladores garantizan que respetan los derechos fundamentales.
Por ejemplo, los que puedan influir en el resultado de unas elecciones o los que empleen las entidades financieras para evaluar la solvencia y la calificación crediticia de los clientes.
Impulso a la industria europea y creación de la Oficina Europea de Inteligencia Artificial
Breton señaló que esta ley será «una plataforma de lanzamiento para que las nuevas empresas de la UE lideren la carrera mundial por una IA fiable».
La norma también prevé la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil.