Meta sigue avanzando en la integración de la inteligencia artificial en sus productos, y su más reciente anuncio promete cambiar la experiencia de los usuarios en Instagram. La compañía ha revelado que, gracias a su avanzada tecnología de IA, los videos en Reels podrán ser traducidos y doblados automáticamente a varios idiomas, incluidos inglés y español. 

Esta función, impulsada por Meta AI, no solo elimina barreras lingüísticas, sino que también ajusta el movimiento de los labios en los videos para sincronizarlos con el idioma traducido, brindando una experiencia más natural para los espectadores, según reporta Infobae.com

¿Cómo funcionará la traducción en Reels de Instagram?

Este avance es fruto de los continuos desarrollos de Meta en inteligencia artificial. Utilizando su modelo de IA más reciente, Llama 3.2, la empresa ha logrado implementar un sistema capaz de traducir y doblar videos de forma automática. Lo que diferencia a este sistema es su capacidad para sincronizar los labios del hablante con el nuevo idioma, generando una experiencia visual más realista.

Cuando un video es traducido con Meta AI, la inteligencia artificial toma la voz original del creador y genera una versión en el idioma seleccionado, manteniendo el tono y estilo del audio original. Por ejemplo, si un creador graba un video en español, podrá obtener una versión en inglés con una voz que conserve las características de la original. Además, el sistema ajusta el movimiento de los labios para que coincida con las palabras en el nuevo idioma, mejorando notablemente la calidad en comparación con otros métodos de doblaje.


Ejemplos y demostraciones

Durante el evento Meta Connect 2024, se realizaron varias demostraciones del funcionamiento y potencial de esta tecnología. Uno de los casos más destacados fue el de la creadora de contenido Dana Buttigliero, conocida en redes como "Sabores del Conurbano", quien presentó un video preparando un postre de banana y dulce de leche. 

En la versión traducida al inglés, la IA no solo cambió el idioma, sino que ajustó la sincronización labial de manera casi perfecta. Aunque en algunos casos, como la pronunciación de palabras regionales, hubo ciertos errores—por ejemplo, "dulce de leche" fue pronunciado como "dulce de leshi"—la demostración evidenció el avance tecnológico.

Otro ejemplo destacado fue el del creador Iván Acuña, conocido como artificialmente.ia, quien mostró un video en el que hablaba directamente a la cámara. En este caso, la sincronización de labios fue especialmente precisa, dado que el video contenía mucho diálogo. El resultado fue fluido y demostró el potencial de la tecnología para automatizar el doblaje con alta precisión.


Disponibilidad de la nueva función

Por ahora, esta función se encuentra en fase de pruebas limitadas. Meta ha confirmado que inicialmente estará disponible solo para creadores de contenido en Estados Unidos y América Latina, lo que significa que un grupo selecto de usuarios de Instagram podrá acceder a ella en esta primera etapa. Aunque no se han dado fechas específicas para su lanzamiento global, Mark Zuckerberg, CEO de Meta, mencionó que la compañía planea expandir la función a más países e idiomas en los próximos meses.

Estas pruebas limitadas son comunes en grandes plataformas tecnológicas, ya que permiten evaluar el desempeño de la funcionalidad en un entorno controlado, corregir errores y mejorar la experiencia antes de un despliegue más amplio. Por ahora, se ha confirmado la traducción entre inglés y español, con planes para añadir más idiomas en el futuro.

Lea también

Mundo

OpenAI lanza un modelo de IA que puede razonar

En los ensayos, los modelos “o1” se desempeñaron de manera comparable a los estudiantes de doctorado en tareas difíciles