Durante la conferencia Practical Applications of Agents and Multi-agent Systems (PAAMS) se celebra un sesión de demostraciones prácticas donde los investigadores muestran sus logros en un formato diferente. En lugar de mostrar un artículo o un cartel, en estas sesiones el investigador tiene que mostrar en vivo y en directo en qué consiste su contribución. Es más, tiene que mostrar que funciona, bien sea en un ordenador o en otro tipo de dispositivo. Dispone de unos cinco minutos para contar lo esencial y, más allá de esos cinco minutos, responder a las preguntas del interesado. Es una fórmula rápida y efectiva de diseminar y un gran ejercicio para investigadores veteranos y noveles.
Estas sesiones atraen todos los años muchos investigadores y, desde hace tres años, todavía más, gracias al patrocinio de IBM. Por ello, es natural que la calidad de las presentaciones crezca. Cada vez es más frecuente que los trabajos sean resultados de grandes equipos de investigadores, más que trabajos individuales, y que el despliegue sea más complejo, más allá de traer uno o dos ordenadores portátiles.
Este año, investigadores del grupo GRASIA concursaban con un trabajo derivado del proyecto ColoSAAL y MOSI-AGIL. El trabajo de ColoSAAL es en el área del modelado colaborativo del efecto de enfermedades sobre el comportamiento de las personas. Dentro de esta línea, se trabajó en cómo modelar algunos de los efectos del Alzheimer en el comportamiento humano. Se identificó como crítico el reconocimiento de actividades mediante el uso de información limitada que respetase la privacidad del usuario, como la que proporcionan sensores de tipo acelerómetro. Con esa idea en mente, se preparó una prueba de concepto que permitiese desarrollar un reconocedor de actividad usando los medios desarrollados dentro del proyecto, concretamente, el Ambient Intelligence Development Environment (AIDE). Una vez creado el prototipo, se trabajó en trasladar esa capacidad a microordenadores tipo Beagle Bone Black. En la demo, se mostró cómo lo que se desarrolló dentro del entorno de simulación era tan preciso que permitía crear reconocedores de gestos que funcionaban de forma satisfactoria en sistemas reales. El sistema se probó en dos contextos, uno cercano a ColoSAAL, que consistía en reconocer tres gestos diferentes, y otro cercano a MOSI-AGIl, que consistía en seguir la actividad de una persona en un gran espacio.
Los acelerómetros se ubicaban en la mano derecha, sujetados por guantes. El equipo iba o bien pegado al pecho o sujeto al antebrazo. La simulación la mostrábamos en una pantalla portátil. El resultado de reconocer la actividad se mostraba en un equipo portátil, para el caso del modelo sujeto al antebrazo, o en una pantalla de 7′ situada en el pecho del sujeto, en el caso del equipo autónomo colgado en el pecho.
El impacto de la demo consiste en que podemos dar una oportunidad a investigadores que no tienen medios para comprar Beagle Bone Black o cualquier otro elemento, que tampoco disponen de medios para alquilar instalaciones y hacer ensayos con voluntarios, o que no son expertos en trabajar con hardware. Mediante un entorno simulado 3D, reproducimos los problemas que deben resolver. También les damos cierta seguridad de que si su solución funciona en la simulación también funcionará en el mundo real. Esto se conoce como enfoque software-in-the-loop y creemos que permitirá romper barreras en la investigación de soluciones de asistencia para personas y reducir el coste de producción de las mismas en la industria.
La competición fue dura. Todos los concursantes presentaron grandes trabajos. Por ello, durante la ceremonia de entrega hubo muchos nervios. Como si fuera un examen final. Tras momentos de tensión mientras se entregaban el segundo y tercer premios, el organizador, Yves Demazeau, anunció el nombre de la demo ganadora, Building Prototypes Through 3D Simulations, la demostración que presentaba GRASIA. La foto de esta noticia ilustra el momento de la entrega del premio patrocinado por IBM de manos de Yves Demazeau y la alegría de los premiados.