Ciberseguridad Ciencia y tecnología Inteligencia Artificial Internacional Judicial Tecnología

G7 establece código de conducta para regular la inteligencia artificial y proteger la privacidad

El sitio web de ChatGPT/EFE
Los países del G7 han acordado un código de conducta para controlar los riesgos asociados a la inteligencia artificial, como la desinformación y vulneración de privacidad. Conoce las medidas adoptadas y su impacto en el desarrollo tecnológico.

Los países del G7 acordaron el lunes 30 de octubre un código de conducta para las empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA), con el objetivo de mitigar riesgos derivados de esta tecnología, como la desinformación y la vulneración de la privacidad o la propiedad intelectual.

Los líderes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido) respaldaron este lunes el conjunto de orientaciones para el sector de la inteligencia artificial conocido como el «Proceso de IA de Hiroshima», según informó la presidencia nipona en turno.

Promoción del desarrollo seguro

Esta hoja de ruta tiene como objetivo promover el desarrollo a nivel internacional de sistemas seguros y confiables de IA y gestionar sus riesgos. La declaración conjunta también instó a todos los actores del sector a comprometerse con su cumplimiento.

Innovación y protección

El G7 destacó tanto el potencial innovador y transformador que tienen los sistemas avanzados de IA como modelos generativos como ChatGPT, un bot conversacional. Al mismo tiempo reconoció la necesidad tanto de proteger a los individuos, sociedad y principios compartidos como mantener a la humanidad en el centro.

Los países del G7 en una anterior cumbre/ Gettyimages.ru

Iniciativa en Hiroshima

Para lograr esto, el Grupo puso en marcha una iniciativa durante la cumbre celebrada en Hiroshima en mayo pasado. Esta iniciativa llevó a elaborar once principios dirigidos a empresas y organizaciones involucradas en el desarrollo de sistemas IA.

Medidas recomendadas

Entre las medidas recomendadas está contar con supervisión independiente durante todas las fases del desarrollo y lanzamiento al mercado. También se espera que los creadores detecten posibles riesgos indebidos y corrijan esas vulnerabilidades.

Más transparencia en los modelos

Con respecto a una mayor transparencia de estos modelos, se pidió a los desarrolladores que informen públicamente sobre las capacidades y limitaciones, así como los dominios de uso apropiado e inapropiado de sus sistemas.

Mecanismos de autenticación

Además, se instó a implementar mecanismos de autenticación, como la creación de marcas de agua digitales que permitan a los usuarios identificar textos, imágenes o videos generados por inteligencias artificiales.

Buscan promover el desarrollo de sistemas seguros y confiables de IA/Referencial

Orientaciones en constante revisión

Estas orientaciones serán revisadas periódicamente para adaptarse a la rápida evolución tecnológica y en consulta con los actores involucrados, según la declaración conjunta.

Promoción del código de conducta

Además de invitar a las empresas e instituciones del sector a seguir este código de conducta, los países del G7 acelerarán el proceso para desarrollar un marco político que promueva la implementación del Proceso de Hiroshima. Esto incluirá cooperación basada en proyectos.

Cooperación internacional

El Grupo también fomentará el cumplimiento de esta hoja de ruta mediante la cooperación y consulta con diferentes organismos internacionales como la Alianza Global sobre Inteligencia Artificial (GPAI), Organización para la Cooperación y el Desarrollo Económicos (OECD) y con actores tanto públicos como privados. También se buscará colaborar con países que no forman parte del G7.

Fuente: EFE


Hemeroteca digital

octubre 2023
L M X J V S D
 1
2345678
9101112131415
16171819202122
23242526272829
3031