Ciencia y tecnología Inteligencia Artificial Internacional

La Unión Europea promulga ley pionera en IA para proteger derechos fundamentales

Fotografía de archivo de un ordenador con la portada de ChatGPT, un programa de inteligencia artificial desarrollada por la empresa OpenAI. EFE/ Latif Kassidi ARCHIVO

La ley de Inteligencia Artificial (IA) de la Unión Europea (UE) se convierte en la primera regulación de este tipo en el mundo y comienza a aplicarse el 1 de agosto. Su objetivo es regular el uso de la IA en función del riesgo que representa para las personas y promover el desarrollo de la industria europea en este campo, compitiendo con potencias como China y Estados Unidos.

La ley establece que el uso de la inteligencia artificial estará permitido o prohibido en función del riesgo que suponga para los derechos fundamentales. Se identifican sistemas de alto riesgo que solo podrán utilizarse si se respetan estos derechos, mientras que los sistemas de riesgo mínimo no estarán sujetos a regulaciones específicas.

Prohibiciones y restricciones

La ley prohíbe el uso de sistemas de IA que representen una amenaza para los derechos fundamentales, como aquellos que categorizan a las personas según sus creencias políticas, religiosas, filosóficas, raza u orientación sexual. También se prohíben los sistemas que puntúan a las personas según su comportamiento y características personales, así como aquellos que manipulan el comportamiento humano.

Además, se vetan los sistemas que expanden o crean bases de datos faciales mediante la recopilación indiscriminada de datos a través de internet o grabaciones audiovisuales, y se prohíben los sistemas que pueden reconocer emociones en entornos laborales y escolares.

Uso de la IA en espacios públicos

La ley de IA prohíbe la vigilancia masiva en espacios públicos, pero permite que las fuerzas del orden utilicen cámaras de identificación biométrica con autorización judicial en casos específicos, como la prevención de amenazas terroristas inminentes o la búsqueda de personas involucradas en delitos graves.

Sistemas de alto riesgo y obligaciones

La regulación también establece que los sistemas de IA de alto riesgo solo podrán comercializarse si se garantiza el respeto a los derechos fundamentales. Esto incluye sistemas que puedan influir en el resultado de elecciones o que sean utilizados por entidades financieras para evaluar la solvencia y calificación crediticia de los clientes.

Por otro lado, se imponen obligaciones a los sistemas de IA de uso general, como ChatGPT de OpenAI o Bard de Google, para garantizar su transparencia y responsabilidad en su funcionamiento.

Impulso a la industria europea

La ley de IA de la UE busca impulsar la confianza en la IA desarrollada en Europa y apoyar a las pymes y startups europeas para que puedan ofrecer soluciones innovadoras en el mercado. Se espera que esta regulación permita a Europa competir en igualdad de condiciones con otros actores globales en el ámbito de la inteligencia artificial.

Fuente: EFE


Hemeroteca digital