Xbox, la plataforma de videojuegos propiedad de Microsoft, ha intensificado sus esfuerzos en la lucha contra la toxicidad en las interacciones de sus usuarios. Reveló que el 87% de las acciones de moderación realizadas en la primera mitad de este año fueron activadas por sistemas automáticos mejorados con nuevos modelos de inteligencia artificial (IA).
En un comunicado, Xbox destacó su compromiso con la creación y mantenimiento de un entorno seguro y divertido para sus usuarios. Subrayaron la importancia de mantenerse al día con los cambios en la industria que pueden afectar la experiencia de los jugadores.
Herramientas proactivas para combatir toxicidad
Entre las nuevas herramientas implementadas se encuentra «Community Sift», una tecnología que clasifica y filtra miles de millones de interacciones humanas al año; y «Turing Bletchley v3», un modelo multilingüe que escanea imágenes generadas por el usuario para garantizar contenido apropiado.
Más acciones proactivas y bloqueo anticipado
Durante los primeros seis meses del año 2023, Xbox llevó a cabo un total de 17,09 millones acciones de moderación a través de estas herramientas proactivas, representando el 87% del total realizado. Además, se bloquearon más de 4,7 millones contenidos antes llegar a los jugadores. Esto marcó aumentos significativos del 39% en imágenes tóxicas (135.000) y del 95% en acciones proactivas relacionadas con acoso e intimidación.
Nueva función de informes de voz
La compañía también anunció la introducción de una nueva función de informes de voz que permite a los jugadores capturar y denunciar el acoso por voz durante el juego. Esto mejora aún más la seguridad y experiencia de usuarios en la plataforma Xbox.