Los Bits, los Átomos y las Interfaces

Paremia

“Un sueño sólo puede triunfar sobre la realidad si se le da la oportunidad”. Stanislaw Lem (1921-2006), escritor polaco.

Descarga en formato PDF

Descargar artículo divulgativo (PDF)

Descarga en formato eBook y Kindle

Articulo divulgativo

Resumen — La era digital está mudando. Poco a poco van apareciendo más objetos conectados formando lo que se ha llamado el Internet de las Cosas; bits y átomos en un mismo concepto. Los objetos ya no volverán a ser nunca como eran, Internet los rediseñará y los dotará de mejores y nuevas funcionalidades. Una pieza clave será cómo nos comunicaremos con estos objetos conectados. Este es el papel que juegan las interfaces. ¿Cómo serán éstas en un futuro próximo? ¿Seguirán siendo pantallas? ¿O quizás serán lo suficientemente inteligentes para entender qué queremos? En este artículo se definirá qué son las interfaces y cómo la tecnología ha afectado su diseño. Se analizarán diversos ejemplos, tanto de interfaces digitales como de tangibles. Finalmente, se analizará el papel que juega la inteligencia artificial en este campo.

Palabras clave — interacción, interfaz, objetos conectados, inteligencia artificial

 

INTRODUCCIÓN

La palabra interfaz proviene del latín y significa: entre dos caras. En nuestro contexto sería más bien: entre dos partes. La definición formal dice que una interfaz es aquello que pone en conexión a dos sistemas independientes. En el contexto de este artículo, uno de estos dos sistemas serán los humanos. La interfaz es el elemento básico de una activa área de investigación conocida como Interacción Humano-Máquina.
Para entender mejor el concepto de interfaz, pongamos un ejemplo. En la Fig. 1 (a) podemos ver una puerta abierta. Si nos fijamos bien veremos que algo falta en esta imagen. La respuesta surge de inmediato si nos piden cerrar la puerta. Hay un problema, no hay pomo. El pomo es el elemento que nos permite actuar sobre la puerta, es la interfaz. Claro está que la interfaz no tiene porqué ser única, de hecho, gustos aparte, tal y como se muestra en la Fig. 1 (b), diferentes interfaces pueden ejecutar la misma función.

Fig. 1 Las interfaces nos permiten interactuar con objetos. (a) La puerta de la imagen no tiene pomo (b) Las interfaces no son únicas, diferentes pomos nos permiten ejecutar la misma función

Las interfaces han ido evolucionando con la tecnología. Un ejemplo diferente pero también muy conocido es el mando a distancia del televisor que era inexistente en sus inicios y que nos ahorra el esfuerzo de levantarnos cada vez que queremos subir o bajar el volumen o cambiar de canal. Esta interfaz a diferencia del pomo de la puerta, que sería una interfaz mecánica, trasmite la información que deseamos desde el mando al televisor.

 

DEL ÁTOMO AL BIT Y DEL BIT AL ÁTOMO

Las interfaces gráficas han tenido un papel crucial en estos últimos años, conocidos como la era de la información. Estamos muy acostumbrados a usarlas, las encontramos en todas partes: para sacar dinero de un cajero, para comprar un billete de tren, en ordenadores, en dispositivos móviles… En muchos de ellos, prácticamente, ya no es necesario escribir nada, simplemente, una pantalla, a menudo, táctil, da a escoger entre diferentes opciones. Se ha dedicado y se dedica un gran esfuerzo al diseño de estas interfaces para que sean comprensibles sin apenas instrucciones. Una máquina que expende billetes de tren como la de la Fig. 2 (a) no lleva consigo un manual de uso. El viajero de forma intuitiva sabe qué debe hacer para comprar un billete que le permita viajar hacia su destino. En todas estas interfaces la pantalla juega un papel fundamental, la interacción se realiza a través de ésta, Fig. 2 (b). La pantalla para facilitar la interacción muestra elementos gráficos, a menudo, icónicos y ser interactúa a través de ellos. Es decir, se interactúa a través de información gráfica digital. En los últimos cuarenta años muchas interfaces han ido dejando de ser físicas (átomos) y se ha ido convirtiendo en digitales (bits).

Fig. 2 (a) Máquina expendedora de billetes a través de una interfaz gráfica. (b) Interfaz gráfica de un dispositivo donde se muestra que el lenguaje icónico juega un papel relevante

El año 1992, un estudiante del Royal College of Art de Londres, Durell Bishop, propuso un nuevo concepto de interfaz. Su trabajo olvidaba la interfaz gráfica y se centraba de nuevo en el objeto. Para plasmar su idea propuso un prototipo conceptual para un nuevo contestador automático. Le dio el nombre de contestador automático de canicas [1]. Para cada llamada que se registraba, el contestador escupía una canica. Era la canica la que identificaba la grabación de una llamada. De esta manera cuando el propietario del contestador volvía a casa se encontraba con una ristra de canicas, una para cada llamada, véase Fig. 3 (a). Para recuperar el contenido de la llamada, el usuario debía colocar la canica correspondiente en una muesca semiesférica ubicada en el mismo contestador, Fig. 3 (a). Una vez escuchada las llamadas el usuario puede decidir qué hacer con ella, guardarla ya que contiene información que desea retener o eliminarla devolviéndola al contestador, Fig. 3 (b). También puede usarse la canica para llamar a quien ha dejado el mensaje.

Fig. 3 Esquema del contestador automático de Durrell Bishop. (a) En la imagen izquierda se observan tres canicas correspondientes a tres llamadas. En la imagen derecha el usuario coloca una de las canicas en el pequeño hoyo derecho para oír el mensaje que le han dejado. (b) El usuario puede guardar las canicas para volver a escuchar el mensaje cuando desee o puede devolverlas al contestador eliminando su contenido

En el contestador automático que diseñó Bishop no se comercializó ya que su intención era investigar en nuevos tipos de interfaces más que crear un producto. La información estaba codificada en la canica, un objeto físico. Esta fue una de las primeras interfaces tangibles se diseñaron. Una interfaz tangible nos permite interactuar con información digital a través un entorno u objetos físicos.
El diseño de interfaces tangibles será tan variado como diversa es la información con la que se interactúa. En el 2003, en la Universidad Pompeu Fabra de Barcelona, se creó la que ha sido una de las interfaces tangibles más conocidas, el Reactable [2]. El Reactable (Fig. 4) es un instrumento musical de la familia de los sintetizadores con el que pueden colaborar múltiples usuarios de manera simultánea. El instrumento consta de un tablero circular iluminado y de diversos objetos físicos que a través de su manipulación e interacción permiten la generación de sonidos.

Fig. 4 El Reactable es un instrumento musical basado en una interfaz tangible. Diferentes objetos físicos con patrones integrados se colocan sobre una mesa que los distingue. Como se ve en la imagen la interacción puede ser colaborativa. El Reactable es un ejemplo interesante de cómo interactuar a través de interfaces físicas en lugar de gráficas

Otras aproximaciones de cómo tangibilizar lo digital fueron abordadas por el Grup de Recerca en Tecnologies Media de la Universitat Ramon Llull [3], donde se definió el concepto de Smart Avatar. Los Smart Avatars fueron creados con la intención de establecer un diálogo entre los mundos virtuales y los reales, entre lo digital y lo tangible, entre los bits y los átomos. Para entender qué se plantea en este caso, primero es necesario presentar el concepto de realidad aumentada. La realidad aumentada surge de la combinación de elementos reales y digitales colocados en una misma escena. Los elementos digitales suelen ser información gráfica, ya sea texto o imagen. Con la realidad aumentada se busca la integración de elementos digitales en un escenario real concreto, en general, a través de una pantalla. En la Fig. 5 se muestran dos ejemplos.

Fig. 5: Ejemplos de realidad aumentada. a) Una aplicación de anatomía muestra información asociada a un objeto real a través de la pantalla. En este caso, los nombres de las diferentes partes de la anatomía humana del torso y de la cabeza aparecen en la pantalla asociadas a la imagen real. b) En la imagen puede apreciarse cómo el sistema de realidad aumentada es capaz de colocar objetos inmersos en entornos reales. En este caso, puede verse cómo el mobiliario digitalizado digitales (mesas, sillas, sofás, etc.) se integra en el espacio escogido

Los sistemas de realidad aumentada constan de cuatro elementos: un marcador, una cámara, una pantalla y un procesador. El marcador es una etiqueta, que puede ser de papel, que se coloca en el entorno real y que el sistema a través de la cámara identifica como el lugar donde debe colocarse el objeto digital, por ejemplo, el sofá verde de la Fig. 5. La composición se visualiza a través de la pantalla, generalmente, de un dispositivo móvil que es el encargado de procesar toda información y sacarla por pantalla.
Volvamos a los Smart Avatars. Supongamos que, en lugar de un sofá, el elemento digital que se quiere integrar en la escena es un personaje en 3D y está animado, es decir, puede moverse. Visto a través de un dispositivo móvil, este avatar animado no es capaz de interaccionar con el entorno real en el que está inmerso. Es decir, puede pasearse por él, pero si se encuentra un obstáculo ni chocará con él ni lo esquivará, simplemente pasará por encima. El concepto de Smart Avatar busca esta interacción con el entorno. En [3] se presenta un caso en el que un avatar que se pasea por una mesa es capaz de encender la luz de una lámpara cuando la toca, véase la Fig. 6 (a).

Fig. 6 En la secuencia puede verse, a través del dispositivo como el avatar se acerca a la lámpara, extiende el brazo para tocarla, ésta se enciende y el avatar parece que huye asustado. En la tercera imagen, detrás del dispositivo, puede apreciarse el cambio de tono en la pantalla de la lámpara al encenderse. El vídeo correspondiente a la secuencia completa puede verse en [4]

¿Cómo es posible que un elemento digital pueda tocar a uno físico? Para empezar, la lámpara está comunicada con el dispositivo móvil mediante Bluetooth o Wifi. El sistema es capaz de identificar el elemento físico, en este caso la lámpara, a través de la cámara y cuando el avatar superpone su imagen a la de la lámpara, el sistema manda la orden de encender la luz.
Qbox es otro trabajo del mismo grupo [5], donde se estudia la posibilidad de interactuar de forma inversa. Es decir, un objeto real actúa sobre un objeto digital modificando su estado, siempre en el contexto de realidad aumentada. Para ello se diseñó una caja vacía por dentro y un pequeño muñeco como se muestra en la Fig. 7. (a). Cuando se introduce el muñeco en la caja y se enfoca a ésta con el dispositivo móvil, el muñeco aparece en la pantalla creando la sensación de que está dentro de la caja y, además, animado. Es más, cuando se inclina la caja hacia un lado, el muñeco cae. De esta manera se muestra que es posible actuar sobre un elemento real y modificar el estado de otro virtual o digital.

Fig. 7 La interfaz Qbox. (a) El muñeco físico se coloca dentro de la caja y cuando ésta se cierra se puede visibilizar a través del dispositivo móvil con técnicas de realidad aumentada. (b) En la figura se muestra cómo al inclinar la caja la representación virtual del muñeco cae. Esto se consigue comunicando vía bluetooth la caja con el sistema

Los dos últimos proyectos que hemos detallado inciden en la idea de que existe la posibilidad de crear un diálogo interactivo entre elementos reales y virtuales en ambas direcciones. Una interfaz tangible más radical, si cabe, es la que surge del proyecto inFORM, [6], diseñado en el MIT Media Lab.

Fig. 8 Dos imágenes del proyecto inFORM. a) El usuario hace los gestos para manipular la pelota que ve a través de la pantalla. Una cámara de profundidad captura la información gestual y es enviada a inFORM. Las pequeñas piezas que forman la matriz reconstruyen las manos y los gestos del usuario en tiempo real. b) El complejo sistema inFORM formado por ordenadores, actuadores, conectores y las piezas que compondrán las formas

Este proyecto plantea una interfaz capaz de mandar información de una acción física hacia otro lugar y allí reproducirla (Fig. 8). Para ello, por un lado, el usuario efectúa las acciones, en este caso, gestos, que son capturados por una cámara de profundidad. Éstos, digitalizados, se envían a un sistema encargado de tangibilizarlos, todo en tiempo real. Para la reproducción física se ha diseñado un complejo sistema, como puede apreciarse en la Fig. 8 (b), que a medida que recibe los gestos digitalizados los reproduce elevando y descendiendo las pequeñas piezas que forman parte de una matriz, tal y como se observa en la Fig. 8 (a). inFORM permite la manipulación e interacción con objetos a distancia a través de interfaces tangibles que pueden modificar su forma y reproducir las capturas de la cámara de profundidad. El hecho de que pueda modificarse a tiempo real lleva a las interfaces tangibles a un nivel de flexibilidad y adaptación más allá de las interfaces gráficas.

 

INTERFACES INTELIGENTES

Una interfaz inteligente será aquella que pueda prever nuestras intenciones y actuar en consecuencia. En la introducción pusimos como primer ejemplo de interfaz el pomo de una puerta. Una versión inteligente sería la interfaz que lleva asociada una puerta automática. En realidad, no se trata de nada demasiado inteligente, simplemente es un sensor de presencia que abre las puertas cuando nos acercamos a ellas. Un termostato también sería un caso sencillo de este tipo de interfaces. Si queremos que una sala se mantenga a una temperatura determinada solo hay que indicarlo y el termostato activará la climatización cada vez que sea necesario. Un ejemplo un poco más elaborado sería un termostato que pudiera predecir qué temperatura queremos en nuestra casa en cada momento. ¿Es esto posible? Lo es, al menos en parte. Para ello necesitamos datos, en concreto, los datos del comportamiento del usuario. Supongamos que nuestro termostato los registra. Por ejemplo, cuando se despierta, el usuario activa el termostato, luego lo apaga porqué va a trabajar y ya no lo vuelve a activar hasta la noche que regresa a casa. Antes de acostarse lo apaga. Aquí tenemos un patrón muy claro de comportamiento y que será fácil de replicar de forma automática. El problema aparecerá cuando haya un cambio en la rutina. Si el cambio acaba formando parte clara de un patrón, no será difícil de adaptar. Por ejemplo, el fin de semana o un festivo el compartimiento ya no tiene porqué ser el mismo. Pero si nuestro inquilino se toma un día libre en el trabajo será mucho más difícil que el termostato lo prevea. El sistema funcionará mejor cuantos menos eventos extraordinarios tengamos. Este tipo de eventos no se pueden predecir debido a que el sistema no tiene la información completa. Cuando aparece un patrón de comportamiento muy claro, el sistema es completo y no requiere de información fuera del mismo sistema para hacer sus predicciones. En cambio, si se quiere prever un evento extraordinario muy probablemente se deberá acceder a otros datos del usuario como puede ser su agenda, su correo electrónico, servicio de mensajería instantánea o los datos del GPS de su móvil. El análisis de esa información permitirá al sistema conocer sus planes y sus hábitos mucho mejor. Estos servicios para que funcionen con mayor eficiencia mandan los datos a un servidor que puede estar ubicado físicamente en otro país y es aquí, como ocurre en otras áreas de la tecnología, que se plantea un problema de confidencialidad.

 

CONCLUSIONES

Las interfaces nos permiten relacionarnos con todo tipo de objetos. La tecnología digital ha renovado el diseño de las interfaces y desde hace bastante tiempo las más conocidas y usadas son las interfaces gráficas muy centradas en las pantallas. A diferencia de las gráficas, las interfaces tangibles nos devuelven el contacto con el objeto y nos permiten el diálogo entre el mundo real y el virtual. Repensar las posibilidades que ofrece la tecnología en el diseño de interfaces es una oportunidad para repensar las interacciones con los objetos y sus funcionalidades.
Por otro lado, la inteligencia artificial hace transparente las interfaces. Un sistema asociado al objeto es capaz de predecir su uso, cuándo y cómo, y actuar en acorde. Para ello es necesario obtener información del usuario y que éste esté dispuesto a darla.
Saber cuál será el próximo paso en este ámbito no es tarea fácil. Quizás sea posible crear interfaces sobre objetos que no están conectados como una botella de agua o un libro con la intención de añadirles servicios. Otra posibilidad sería que los objetos que manipulamos en nuestro día a día pudieran capturar a través de algún tipo de sensor cómo actuamos sobre ellos y así poder mejorar la interacción. En cualquier caso, es seguro que en el campo de la interacción humano-máquina nos esperan agradables sorpresas que no tardarán en llegar.

 

AGRADECIMIENTOS

A la Fundació Caixa Vinaròs y al Dr. Jaume Anguera per su dedicación y amabilidad.

 

REFERENCIAS

[1] D. Bishop, “Marble Answering Machine”, https://vimeo.com/183465991 (link consultado el 11/01/2018)
[2] Jordà, Sergi, et al. “The reacTable: exploring the synergy between live music performance and tabletop tangible interfaces.” Proceedings of the 1st international conference on Tangible and embedded interaction. ACM, 2007.
[3] J. Amores, X. Benavides, M. Comín, A. Fusté, P. Pla, D. Miralles. “Smart Avatars: Using Avatars to Interact with Objects” Workshop on Interacting with Smart Objects. IUI, 2014.
[4] J. Amores, X. Benavides, M. Comín, A. Fusté, P. Pla, D. Miralles, “Flexo, a first example of Smart Avatars”, https://www.youtube.com/watch?v=sQicbD29-iA, (link consultado el 12/01/2018)
[5] J. Amores, X. Benavides, M. Comín, A. Fusté, P. Pla, D. Miralles. “Qbox: Smart Avatar application for kids”, https://www.youtube.com/watch?v=OCC5CshnC10, (link consultado el 12/01/2018)
[6] Follmer, Sean, et al. “inFORM: dynamic physical affordances and constraints through shape and object actuation.” Uist. Vol. 13. 2013.

 

AUTOR

DAVID MIRALLES es licenciado y doctor en Física teórica por la Universidad de Barcelona. Parte de su formación la realizó en el IMECC de la Unicamp (Brasil). Ha visitado varios centros de investigación en centros de prestigio internacional como L’Observatoire de París, el ICTP de Trieste o el Media Lab del MIT. Actualmente es profesor de La Salle Campus Barcelona en la Universidad Ramon Llull. Miembro del Grup de Recerca en Tecnologies Media de la misma universidad, lidera la línea de investigación en interacción, focalizado en repensar las relaciones entre personas y objetos. Ha escrito varios artículos en revistas y congresos internacionales. Es cofundador de btripple, un spin-off de La Salle Campus Barcelona en el ámbito de las tecnologías de la interacción y de la educación.