¿Qué hace la inteligencia artificial por los podcasts?

En El País leemos: Cada semana leo noticias sobre nuevas funcionalidades de la inteligencia artificial aplicada a los podcasts, al audio. Aplicaciones capaces de hacerte un resumen por escrito del contenido de un podcast, de crearte el mejor título, de elegir los mejores fragmentos para un audiotráiler, de hacer la descripción más adecuada para tener un buen SEO y enganchar oyentes, de traducir guiones. Por supuesto, aunque estas las he investigado menos, hay herramientas que te eligen música, hacen las mezclas, ecualizan y meten efectos. Todo un mundo de, en teoría, infinitas posibilidades complicado de explorar con calma para saber si realmente funcionan o no.



Esta semana Spotify ha anunciado a bombo y platillo que ya tiene disponible una nueva funcionalidad que directamente traduce al español, francés o alemán algunos podcasts americanos, concretamente Lex Fridman Podcast, Armchair Expert y The Diary of a CEO with Steven Bartlett.

‌Lo primero que me ha llamado la atención son los podcasts elegidos para este lanzamiento. ¿Por qué tres conversacionales? Si yo fuera Spotify, en primer lugar, hubiera elegido narrativos, tanto de ficción como de no ficción, para este experimento. Y, en segundo lugar, hubiera elegido algo corto, de unos veinte minutos, y no contenidos de más de dos horas y media. ¿Por qué han elegido estos tres? Obviamente porque tienen cientos de miles de escuchas; pero también sospecho que no ha sido fácil conseguir los permisos de otros podcasts y que empresas como The New York Times con The Daily se habrán negado a permitir a Spotify hacer ese experimento porque lo harán ellos (de hecho, si eres periodista y sabes de IA, TNYT te está buscando. Lo mismo habrá ocurrido con otras productoras.

‌Por supuesto que he probado a ver cómo se escucha, si suena a robot, si estas voces generadas artificialmente son amables para el oyente, si algo chirría… y el resultado es sorprendente y regulero. Es sorprendente porque la inteligencia artificial no dobla las voces a un español perfecto, las voces son de americanos hablando español con acento. ¿Esto me gusta o no me gusta? No lo sé, no lo tengo claro. ¿Las hace más realistas o más falsas? Tampoco lo sé. Además, escuchando durante dos horas y media, he encontrado algunos fallos, segmentos en los que la IA se aturulla o no entiende y lo que traduce es indescifrable. Esto seguramente se pueda arreglar con una revisión por parte de un nativo que corrija el texto y haga que la herramienta vuelva a doblar el contenido. Aún así, vuelvo a mi primer comentario: dos horas y media de voces artificiales es solo apto para muy fanáticos del contenido; de otra manera es muy cansado y es difícil mantener la concentración.

‌Doy por hecho que la IA va a seguir mejorando y avanzando. Aún así hay cosas que creo que no va a poder hacer, por lo menos durante un tiempo. No veo por ahora a una inteligencia artificial yendo a un pueblo perdido a entrevistar a una fuente, o a recoger las palabras o la historia de un testigo; pero, como ya tengo una edad, no voy a decir que no será capaz nunca.

¿A quién beneficia el doblaje automático por IA? ¿Beneficia a alguien? Pues le he estado dando vueltas y creo que sí, que hay oyentes ahí fuera que recibirán con alegría la posibilidad de acceder a ciertos contenidos, mayoritariamente en inglés, en su propia lengua. Y también beneficiará a podcasters en otros idiomas porque todos sabemos que el oyente anglófono es bastante reticente a probar cosas en otras lenguas, básicamente porque no suelen hablarlas. Quizás, seamos optimistas, esta tecnología permita que lo que hacemos en español alcance a un mercado muchísimo más grande. ¿Cómo monetizaremos eso? ¿Quién perderá en el camino? No lo sé, igual que no sabía hace veinte años en Roma que hoy estaría escribiendo sobre esto.

78320