Investigadores de la Universidad del Sur de California desarrollan un modelo de inteligencia artificial capaz de reconocer el lenguaje de señas estadounidense (ASL) y convertirlo en texto, un avance que promete mayor accesibilidad y comunicación inclusiva
Los gestos de las manos, las expresiones faciales y los movimientos corporales del lenguaje de señas pronto podrán ser traducidos de manera automática a texto escrito. Un equipo de ingenieros de la Universidad del Sur de California (USC) presentó un sistema basado en inteligencia artificial diseñado para interpretar el lenguaje de señas estadounidense (ASL) en tiempo real.
El proyecto busca reducir las barreras de comunicación que enfrentan millones de personas sordas o con dificultades auditivas, permitiéndoles interactuar de manera más fluida con hablantes de inglés sin necesidad de intérpretes humanos.
De acuerdo con los investigadores, la tecnología combina algoritmos de visión computacional con redes neuronales profundas para reconocer secuencias complejas de gestos y expresiones. A diferencia de desarrollos anteriores, este modelo fue entrenado con un volumen mayor de datos, lo que le otorga mayor precisión y capacidad de adaptación a diferentes estilos personales de señas.
Aunque el sistema todavía se encuentra en fase experimental, sus creadores anticipan que podría ser integrado en aplicaciones móviles, dispositivos portátiles o incluso en plataformas de videollamadas, abriendo la puerta a una nueva era de accesibilidad digital.