¡De gestos al habla! Sensores portátiles podrían traducir el lenguaje de señas

¡De gestos al habla! Sensores portátiles podrían traducir el lenguaje de señas

Es posible que un día no muy lejano existan sensores portátiles capaces de interpretar los gestos del lenguaje de señas y traducirlos a un idioma como el inglés, lo que ofrecería una solución tecnológica a los problemas de comunicación que se suscitan entre las personas sordas y quienes no entienden el lenguaje de señas.

Es posible que un día no muy lejano existan sensores portátiles capaces de interpretar los gestos del lenguaje de señas y traducirlos a un idioma como el inglés, lo que ofrecería una solución tecnológica a los problemas de comunicación que se suscitan entre las personas sordas y quienes no entienden el lenguaje de señas.

Ingenieros de la Universidad de Texas A&M se encuentran trabajando en un dispositivo portátil que puede detectar el movimiento y la actividad de los músculos en los brazos de una persona. El dispositivo trata de identificar los gestos que una persona hace gracias al uso de dos sensores: uno que responde al movimiento de la muñeca y otro a los de los músculos del brazo. Posteriormente, esta información es recibida de forma inalámbrica por un programa que convierte los datos para traducirlos al inglés.

Tras una primera investigación, los ingenieros descubrieron la existencia de dispositivos que trataban de transformar el lenguaje de señas para pasarlo a texto, pero sus diseños eran demasiado básicos ya que la tecnología que usaban estaba basada en soluciones de visión o de cámaras.

Según Roozbeh Jafari, investigador del estudio y profesor asociado de ingeniería biomédica en la Universidad de Texas A&M, estos diseños existentes no eran suficientes, ya que cuando una persona habla por medio del lenguaje de señas, muchas veces hace gestos al mismo tiempo que realiza ciertos movimientos en los dedos. Por ello nació la idea de crear un dispositivo portátil que combinara sensores de movimiento y de activación de los músculos.

Los investigadores construyeron un prototipo de sistema capaz de reconocer las palabras que las personas usan con mayor frecuencia en sus conversaciones diarias. Jafari indicó que una vez que el equipo comience a ampliar el programa, los ingenieros incluirán otras palabras que son menos utilizadas con el objetivo de crear un vocabulario más extenso.

Una desventaja de este prototipo es que el sistema debe ser “entrenado” para responder a cada persona que utilice el dispositivo. Para este proceso de entrenamiento se le debe pedir al usuario que repita o haga cada gesto con la mano un par de veces, lo que podría tardar al menos unos 30 minutos.

A pesar de todo el trabajo que conlleva tanto la creación del equipo como del sistema, Jafari confía en que el equipo avanzará cada vez más durante las siguientes fases de desarrollo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio