Público
Público

La sala que observa, escucha y decide

Investigadores catalanes buscan una forma natural de relación con las máquinas

ANABEL HERRERA

En la película Minority report, el agente del departamento de precrimen John X (interpretado por Tom Cruise) se pone unos guantes negros y mueve sus manos de forma armónica. Por arte del cine, los crímenes del futuro aparecen proyectados en una pantalla transparente. El agente X las puede deslizar, rebobinar, parar; todo sin tocar la pantalla, sólo moviendo sus manos. Aunque la película sucede en 2054, la tecnología de esta interfaz es una realidad. Pero ¿qué pasaría si se le quitan los guantes a Cruise?

Este es el objeto de estudio de un grupo de investigadores del departamento de Teoría de la Señal y Comunicaciones de la Universitat Politècnica de Catalunya (UPC). El proyecto, según explica su responsable, el profesor Josep Ramon Casas, trata de cambiar la manera en que trabajamos con los ordenadores. 'La forma tradicional de relacionarnos con el ordenador es a través de un teclado, un ratón y una pantalla: introduces unos códigos con el teclado, te mueves con el ratón y el ordenador reacciona a través de la pantalla'.

Este proceso, simple para los jóvenes, es casi ininteligible para muchos (los mayores, por ejemplo) al exigir un aprendizaje. Es un modo poco natural de relacionarse con una máquina. 'Lo que pretendemos es cambiar este paradigma, y que sea el sistema el que se adapte a la persona, y no al revés', afirma Casas. 'Es decir, si una persona mayor habla y hace gestos, la idea es que el sistema los interprete', aclara.

Habitación inteligente

Para ello, los investigadores trabajan en el diseño de una smart room o habitación inteligente. Es un espacio de 20 m² organizado como una sala de reuniones, con una mesa central y sillas alrededor. Se ha instalado una red de sensores compuesta por 96 micrófonos y nueve cámaras, que funcionan a modo de ojos del sistema, mientras que los micrófonos serían los oídos. La interfaz computacional interpreta lo que ocurre en la sala y reacciona a través de un busto parlante de una mujer proyectado en una pantalla, bautizada como Xil·la.

La cabeza parlante puede seguir a una persona con la mirada y mostrar la información demandada en la pantalla. También es capaz de reconocer tipos de sonidos introducidos previamente en su base de datos. Si escucha el sonido de unas llaves, por ejemplo, se dirige a su propietario para recordarle que no se las deje. En el hogar de una persona mayor, esta interfaz podría detectar si el anciano se ha caído y dar una alerta, o recordarle tomar la medicación.

El error de interpretación es uno de los problemas a los que se enfrenta el sistema. Por ejemplo, cuando detecta que un participante en una reunión se dirige a la puerta para salir, podría preguntar si quiere qun taxi. Pero ¿qué pasa si sólo va al lavabo y tiene pensado volver?

'Una interfaz computacional avanzada incluye la parte sensorial, la parte de respuesta y además la parte de estrategia inteligente, pero para integrarlo todo se necesitaría trabajar en inteligencia artificial, y nuestro grupo somos especialistas en el análisis de señales de voz e imagen', explica Casas. La interpretación de los gestos dependientes de la cultura es una dificultad añadida. Por último, 'está la cuestión de lo fácil que es acostumbrarse a la comodidad de la tecnología: no queremos volver atrás'. Pero ¿quién querría volver a usar un teclado y un ratón después de conocer a Xil·la?

¿Te ha resultado interesante esta noticia?