Abordan aspectos como la privacidad y la responsabilidad, pero descuidan otros como la veracidad, la propiedad intelectual y los derechos de los niños. Así lo concluye un equipo de investigadores brasileños que ha llevado a cabo una revisión y análisis exhaustivo de las directrices internacionales para el uso de IA.
Según los investigadores, la mayoría de las directrices describen principios éticos y valores de manera genérica, sin ofrecer métodos prácticos para su implementación ni promover una regulación legalmente vinculante.
Necesidad de establecer directrices claras y estructuras gubernamentales
En este sentido, James William Santos, investigador de la Pontificia Universidad Católica de Río Grande del Sur en Brasil, destaca que establecer directrices éticas claras y estructuras gubernamentales para el despliegue global de IA es fundamental para fomentar la confianza, mitigar riesgos y garantizar una distribución equitativa de sus beneficios.
Perspectivas regionales sobre IA
El profesor Nicholas Kluge Corrêa, autor principal del estudio, también señala que trabajos anteriores se han centrado principalmente en documentos norteamericanos y europeos. Por ello, los investigadores decidieron explorar perspectivas regionales como Asia, América Latina y África.
Análisis político-ético sobre IA
Durante su investigación política y ética sobre IA publicada entre 2014 y 2022, identificaron 200 documentos relacionados con ética y gobernanza procedentes de 37 países escritos o traducidos a cinco idiomas (inglés, portugués, francés, alemán y español).
Principios comunes y menos comunes en las directrices
Estos documentos incluían recomendaciones, guías prácticas, marcos políticos y códigos de conducta. Los principios más comunes encontrados fueron la transparencia, la seguridad, la justicia, la privacidad y la responsabilidad. Por otro lado, los menos comunes fueron los derechos laborales, la veracidad, la propiedad intelectual y los derechos de los niños y adolescentes.
Falta de métodos prácticos para aplicar ética en IA
La mayoría de las directrices analizadas eran «normativas», es decir, describían valores éticos a tener en cuenta durante el desarrollo y uso de IA. Solo un 2% recomendaba métodos prácticos para aplicar ética en IA y solo un 4.5% proponía formas jurídicamente vinculantes para regularla.
Desequilibrios de género en autoría
Los investigadores también identificaron una disparidad de género en cuanto a autoría. Aunque el 66% de los documentos no proporcionaban información sobre los autores, entre aquellos que sí lo hacían había más nombres masculinos que femeninos (549 frente a 281).
Distribución geográfica desigual
En términos geográficos, la mayoría de las directrices provenían de países de Europa Occidental y Norteamérica. Menos del 4.5% tenían su origen en Sudamérica, África y Oceanía.
Importancia de incorporar más voces y regiones
Según destacan los investigadores en su publicación, estos desequilibrios pueden deberse a limitaciones lingüísticas y falta de acceso público. También señalan que muchas partes del mundo están infrarrepresentadas en el debate global sobre ética en Inteligencia Artificial.
Puente entre principios abstractos y desarrollo práctico
En este sentido, subrayan la importancia de incorporar más voces y regiones al debate sobre la aplicación ética de IA y establecer un puente entre los principios abstractos de ética y el desarrollo práctico de sistemas y aplicaciones basadas en IA.
Fuente: EFE