Impacto Inteligencia Artificial Tendencias

IPhone permitirá clonar la voz del usuario con nueva función Personal Voice

Apple ha dado a conocer otras funcionalidades que se incluirán en las herramientas ya existentes, como Siri les habla, con opciones de velocidad que van desde 0,8x hasta 2x.

Apple ha anunciado una nueva función para el iPhone que permitirá clonar la voz del usuario, además de mejoras de accesibilidad dedicadas a asistir en momentos en los que haya dificultades cognitivas, de visión, de movilidad o de audición.

Personal Voice: tu iPhone leerá texto con tu propia voz

Entre todas ellas hay una especialmente destacada. Se llama Personal Voice y es la que permitirá que tu iPhone o tu iPad lean texto con una voz sintetizada, precisamente del usuario. Según la compañía, los usuarios que quieran tener su voz sintetizada tendrán que leer una serie de frases durante unos 15 minutos al iPhone o el iPad.

Live Speech: tecnología integrada para usar Personal Voice

A partir de ese momento, la característica se puede usar gracias a su integración con Live Speech. Así, es posible escribir cualquier texto en el dispositivo para que esta tecnología lea esa frase con la voz con la que ha sido entrenada.

Machine Learning: aprendizaje automático sin conexión a nube

En Apple indican además que la característica hace uso de un sistema de aprendizaje automático (machine learning) en el propio dispositivo y sin conexión a la nube. Toda la información del usuario y su voz es privada y segura.

Experiencias personalizadas para las principales aplicaciones

Además de esa opción, se ofrecen experiencias personalizadas para las principales aplicaciones del iPhone y el iPad. Esta nueva funcionalidad se ha apoyado en el diseño para destacar las características de algunas aplicaciones básicas de iOS.

Live Speech facilitará comunicación oral y escrita

Live Speech permitirá a los usuarios con dificultades para hablar escribir cualquier texto para comunicar; el sistema lo reproducirá en voz alta durante llamadas telefónicas o videollamadas por FaceTime así como en conversaciones presenciales.

Point and Speak: interacción con objetos físicos

La función Point and Speak facilitará que los usuarios con discapacidad visual interactúen con objetos físicos que cuenten etiquetas de texto. Lo hará combinando la cámara de los dispositivos, con escáner LiDAR y aprendizaje automático para anunciar con voz el texto de cada botón a medida que los usuarios mueven el dedo por encima de las etiquetas.

Siri les habla y Voice Control agrega sugerencias fonéticas

Apple ha dado a conocer otras funcionalidades que se incluirán en las herramientas ya existentes, como Siri les habla, con opciones de velocidad que van desde 0,8x hasta 2x; mientras que Voice Control agregará sugerencias fonéticas en la edición de texto para que los usuarios que escriben con su voz puedan elegir la palabra correcta entre varias que pueden sonar parecidas.

/RAC


Hemeroteca digital