El Dr. en Ingeniería eléctrica de Stanford University, YI-WEN LIU, visitó las instalaciones de radio de la Universidad de San Martín de Porres acompañado del investigador acústico, Daniel Salvador, donde expuso sus conocimientos sobre la importancia de la técnica del vocoding y las emisiones otoacústicas en el mundo de la inteligencia artificial.
La técnica del vocoding ha estado presente en nuestro entorno social sin prestarle la debida atención, ya sea en las comunicaciones como también en la industria musical.
YI-WEN LIU nos explica que el vocoding es aquello que se logra con predicción lineal, técnica que enlaza un modelo físico a digital, es decir, transformar la voz a un formato, tener una idea y poder plasmarlo, desglosando así el significado de vocoding como vo = voz y coding = codificar.
“No piensen que no hay manera de solucionar un problema, o que es muy difícil, porque en el futuro puede volverse útil”. Señaló YI-WEN LIU tras referirse a la predicción lineal como una investigación compleja pero efectiva.
En las neurociencias se utiliza la palabra ‘codificación’ para representar información en el cerebro, entonces “La codificación representa el cambio de formato de manera que la información se comprendida tanto por la gente o por una máquina y el vocoding representa esa transformación”. Señaló YI-WEN LIU.
Para explicarnos a profundidad de estos cambios de voz como la “voz falsa”, YI-WEN LIU nos mostró aplicaciones que respaldan esta teoría como las voces robot, voces que cambian de un género a otro, hasta la imitación de voces de algún personaje célebre, que se logra tras un proceso llamado ‘Modelo espectral’, tener grabaciones de entrevistas y seleccionar los fragmentos que queremos imitar y grabar lo mismo con nuestra voz y a esto se le llama, conexión de voz paralela. Estos algoritmos están siendo comercializados a un precio muy accesible que cualquier individuo pueda adquirir.
Por otro lado, nos habló de la importancia de la emisión otoacústica con un enfoque clínico que está basado en sonidos que se registran en el conducto auditivo externo que se originan en la cóclea, parte del oído interno.
Explicándonos que las emisiones otoacústicas son el producto de sonidos que se originan hacia afuera. El oído no solo cumple la función de percibir sonido, sino también los produce ya sea por las frecuencias en las membranas y estas emisiones que salen pueden ser grabadas por un micrófono.
Las emisiones otoacústica fueron descubiertas por primera vez en 1978 en Inglaterra, científicos y médicos afirmaron que están presentes en oídos saludables y no para aquellos que tienen sordera, es por ello que se utiliza como herramienta para diagnosticar si una persona tiene sordera o no. Esta prueba es utilizada en niños recién nacidos y cuando están dormidos.
Existen emisiones acústicas como las reflexiones lineales, que son ecos del oído y la distorsión no lineal que es el tono adicional a los tonos originales, que su uso sirve para evaluar objetivamente la salud auditiva.
YI-WEN LIU considera que la: “Emisión otoacústica puede ser usada en combinación con el aprendizaje automático posiblemente, ya que pueden recolectar data de pacientes”.
Al final de la exposición, se dio inicio a la rueda de preguntas, una de las cuestiones que plantearon los asistentes fue si era posible que la técnica del vocoding reemplace a los comunicadores, para lo cual YI-WEN LIU respondió: “Cabe la posibilidad, sin embargo, aún no se puede imitar o reflejar la sensibilidad y este rol aún juega a nuestro favor”.
Antes de despedirse nos aclaró ante los asistentes la diferencia entre la audición que tiene un enfoque más físico y la escucha que es psicológica, es por ello la importancia de mantener cierto equilibrio en el entorno auditivo.
La conferencia sobre Vocoding y Emisiones Otoacústicas fue realizada por la Universidad de San Martín de Porres, iRadio, GRISPERU e ISONAR. Entérate de más eventos en las redes de RDN.
Texto: Brenda Castillo
Fotos: Grecia Laura.