Traductor inteligente de lengua de signos en tiempo real: Accesibilidad a través de IA y Deep Learning

La accesibilidad es un concepto clave en el mundo digital actual, que nos ha permitido eliminar numerosas barreras.

Este traductor de lengua de signos permite la comunicación entre la comunidad sorda y la oyente, interpretando los signos empleados y convirtiéndolos en texto.

Realizado por Esteban Bardolet

Titulación Bachelor en Ingeniería en Desarrollo de Software

Tecnologías Computer Vision | Inteligencia Artificial (IA) | Machine Learning | Red Neuronal LSTM (Long Short-Term Memory)


Este modelo de aprendizaje profundo es capaz de interpretar el lenguaje de signos y transformarlo en voz en tiempo real. Para lograrlo, se ha implementado una red neuronal LSTM (memoria a corto y largo plazo).

¿Por qué LSTM?

Las redes LSTM son ideales para trabajar con secuencias largas de datos gracias a sus celdas de memoria y puertas que controlan el flujo de información:

  • Deciden qué información conservar, olvidar o utilizar.
  • Permiten aprender patrones complejos en secuencias, algo fundamental al procesar el lenguaje de signos.

Este es sólo el comienzo. Con más datos y mejoras en los modelos de Deep Learning, se pueden lograr avances muy prometedores en la interpretación y accesibilidad del lenguaje de signos.

arrow-right