You are in main content

La computación afectiva pone la tecnología al servicio de la interacción entre las personas

Foto de Javier Hernández durante su ponencia

El encuentro, organizado por Fundación ONCE, se celebra los días 23, 24 y 25 de septiembre en el Complejo Deportivo y Cultural de la ONCE en Madrid
(Pº de la Habana, 208)
La computación afectiva acercará a la tecnología la interpretación, la interacción y la simulación de las emociones humanas. Esta es una de las conclusiones de la conferencia inaugural ofrecida por el investigador español del Instituto Tecnológico de Massachusetts (MIT), Javier Hernández, en el ‘V Congreso Internacional de Turismo para Todos’ y el ‘VI Congreso Internacional de Diseño, Redes de Investigación y Tecnología para Todos DRT4ALL 2015’.
 
Estos dos encuentros, referentes a nivel internacional en diferentes campos de la accesibilidad universal, se celebran por primera vez de manera conjunta hasta el próximo viernes 25 de septiembre en el Complejo Deportivo y Cultural de la ONCE, en Madrid. 
 
Tras el acto de inauguración –presidido este miércoles por el director general de Políticas de Apoyo a la Discapacidad del Ministerio de Sanidad, Servicios Sociales e Igualdad, Ignacio Tremiño, y el vicepresidente ejecutivo de Fundación ONCE, Alberto Durán–, el investigador Javier Hernández, integrante del área de Computación Afectiva del MIT, ofreció la primera conferencia de este encuentro y expuso sus planteamientos sobre esta especialidad que conecta tecnología y emociones para mejorar el bienestar de las personas.
 
En su intervención, Hernández hizo un repaso a la breve historia de la computación afectiva, una especialidad que, como destacó, es un conjunto de “herramientas para la interpretación, la interacción y la simulación de las emociones”, y, además, ofreció diversos detalles sobre la investigación que lleva a cabo en el MIT de cara a lograr importantes avances en el desarrollo de esta materia.
 
Hernández apuntó como un aspecto destacado para avanzar en esta disciplina el hecho de “poder medir las emociones de manera no invasiva, ya que esto permite hacerlo de manera más cómoda”. Para ello, consideró necesario utilizar sensores para extraer información de las emociones humanas, algo relativamente sencillo, ya que, “por ejemplo, si estás estresado, el ritmo cardiaco sube”.
 
El investigador español del MIT valoró positivamente, en este sentido, la utilidad del uso de una herramienta como la webcam para obtener información sobre los dos componentes de las emociones, la valencia y la energía. Sin embargo, advirtió que “si se cuelga un video en youtube, alguien podría analizarlo para obtener información sobre esa persona”. 
 
Al término de esta primera conferencia, tuvo lugar el panel ‘Nuevos Horizontes en Investigación’, que estuvo moderado por Miguel Ángel Valero, director del Centro de Referencia Estatal de Autonomía Personal y Ayudas Técnicas (CEAPAT). En él, además, tomaron parte Leopoldo Acosta, catedrático de Ingeniería de Sistemas y Automática de la Universidad de La Laguna y director del equipo científico del Proyecto Verdino para la creación de un vehículo eléctrico sin conductor para recorrer zonas peatonales; Robert Beckman, director general de Wicab, empresa creadora de la tecnología BrainPort, que permite a personas ciegas distinguir objetos mediante un dispositivo acoplado a su lengua; y Brittany Pérez, investigadora asociada del Centro para Diseño Inclusivo y Accesibilidad del Entorno de la Universidad de Buffalo.
 
Beckman alabó las bondades de un proyecto como BrainPort, que permitirá en un futuro cercano superar múltiples barreras a las personas ciegas. El director general de Wicab explicó el proceso por el cual esta nueva tecnología hará posible que las personas ciegas puedan ver a través no de los ojos, sino de la lengua. 
 
En este sentido, Robert Beckman indicó que “la vista tiene lugar dentro del cerebro humano; no se ve con el ojo. El ojo es un sensor y, si se daña, habría que sustituirlo por un sensor artificial o una cámara, que podría incorporarse al cerebro a través de un canal alternativo, como la lengua”.
 
Asimismo, el director general de Wicab añadió que, por medio de la estimulación en la lengua, se pueden hacer llegar al cerebro una serie de signos, que la persona ciega podrá aprender a interpretar “como si fuera un nuevo idioma”.
 
Finalmente, indicó que esta tecnología permitirá a las personas ciegas realizar actividades hasta ahora imposibles, como percibir aceras al caminar por la calle, transitar por zonas controladas o dentro de un carril o participar en juegos clásicos, como los dardos. Además, se mostró ambicioso en cuanto a las posibilidades del dispositivo y manifestó que “queremos enseñar a los ciegos incluso a correr”.
 
Por su parte, Acosta abordó los aspectos principales del proyecto Verdino, que nació con el propósito de poner en el mercado un coche eléctrico sin conductor, y recalcó la necesidad de construir un producto que mantenga un equilibrio entre su utilidad y su coste. En este sentido, apuntó que “de nada nos vale un prototipo que sea maravilloso pero a la vez excesivamente caro”.
 
Además, el catedrático de la Universidad de La Laguna añadió que el Verdino, que incorpora cámaras, telémetros láser y sensores como Kinect (de Microsoft), cuesta entre 10.000 y 15.000 euros y que la idea es abaratar aún más los costes. “Hemos descartado sensores que eran muy buenos, pero muy caros”, señaló.
 
Finalmente, Pérez profundizó en cuestiones relativas al diseño universal, un concepto que, como apuntó, ha sido necesario ampliar hasta considerarse como “un proceso que permite y empodera a una población diversa en la salud, en la participación social y en sus tareas. Es un proceso que no se ha acabado y que se puede mejorar”.
 
Pérez matizó, asimismo, que diseño universal y accesibilidad no son conceptos contrapuestos ni excluyentes, sino que “el diseño universal excede los estándares establecidos por la accesibilidad”.
 
Más de 250 expertos, procedentes de 23 países, se darán cita durante tres días en Madrid y expondrán las últimas tecnologías aplicadas al turismo que incluyen un proyecto de coches autónomos, las últimas apps turísticas en destinos o el uso de drones con aplicaciones turísticas. 
 
A lo largo del encuentro en las distintas mesas, paneles y talleres se abordarán cuestiones como el turismo colaborativo, con la presencia, entre otros, del director de políticas públicas de Airbnb para España y Portugal, Ángel Mesado; la visión empresarial de la accesibilidad, con la intervención de empresas como Amadeus, Vodafone o Talgo; las últimas tendencias en tecnología aplicada a la educación y a la cultura, con propuestas de museos accesibles, o la accesibilidad en aplicaciones móviles, un taller organizado por JUSTIAPPS e ILUNION.