26 May OpenIA desarrolló modelo que clona voces humanas, en 15 segundos, con sonido ‘emotivo’ y natural’
OpenAI, una empresa de inteligencia artificial, anunció el desarrollo de su modelo Voice Engine, el cual es capaz de clonar voces humanas utilizando una muestra de apenas 15 segundos, creando un sonido natural y emotivo. Sin embargo, la compañía ha decidido no lanzar esta tecnología al público general debido a los serios riesgos que conlleva.
La empresa creadora de ChatGPT, en una nota de prensa obtenida por el mismo medio, señaló los peligros asociados con la generación de discurso que se asemeja a voces humanas, especialmente en un año electoral como este.
Voice Engine es un innovador modelo de IA que convierte texto a voz, permitiendo la creación de voces sintéticas que preservan los acentos nativos de los hablantes. Esto podría facilitar la traducción de contenidos sin perder la autenticidad y ayudar a personas con dificultades de comunicación verbal.
Entre las capacidades demostradas por la empresa se encuentra la traducción de la voz de una persona anglosajona a diferentes idiomas, como español, mandarín, alemán, francés y japonés, manteniendo el acento nativo de cada individuo.
Por el momento, solo ciertas empresas tienen acceso a esta tecnología, incluyendo Age of Learning, HeyGen, Dimagi, Livox y Lifespan. Sin embargo, OpenAI ha decidido ser cauteloso en su implementación más amplia, dada la posibilidad de uso indebido.
Para esto la compañía ha establecido reglas estrictas, incluyendo la necesidad de tener el consentimiento de alguien para usar su voz y la obligación de informar a los usuarios cuando están interactuando con voces sintéticas.
“Finalmente, hemos implementado un conjunto de medidas de seguridad, que incluyen marcas de agua para rastrear el origen de cualquier audio generado por Voice Engine, así como un monitoreo proactivo de cómo se utiliza”, añadió OpenAI.
El riesgo de uso indebido de las voces sintéticas generado por IA es evidente, como lo demuestran casos recientes de llamadas automáticas con voces clonadas de políticos, como el presidente Joe Biden. Otro preocupante escenario es la posibilidad de que estafadores utilicen estas voces para acceder a cuentas b aancarias que utilizan autenticación de voz.
Sorry, the comment form is closed at this time.