Post on 27-Jun-2022
1
UX para pantallas transparentes
Prototipos para nuevos contextos
Lic. Negocios de Diseño
Jimena Piano
80604
Investigación
Historia y Tendencias
16/09/2021
2
Agradecimientos
Agradezco y dedico este Proyecto de Graduación a todas las personas que me acompañaron
a lo largo de mi carrera académica comprendiendo, alentando y aportando desde el lugar de
cada une.
Gracias a la profesora Flavia Breccia por haberme inspirado, hace ya años, a dedicarme de
lleno al campo de la Usabilidad y Experiencia de Usuario. A su vez, gracias a Marina Mendoza
por las correcciones, el seguimiento, los consejos y la paciencia, en el medio de una
pandemia, clases virtuales y estrés.
A mi madre, por el apoyo incondicional.
A mis amigues, por todos los memes.
A Pabli, por mirarme desde la barra de la cocina mientras escribía de madrugada.
Y a mis colegas, por inspirarme y motivarme todos los días. Nos vemos del otro lado del sprint.
3
Índice
Índice de Figuras y Tablas 4 Introducción 5 Capítulo 1. Experiencia de Usuario 11
1.1 Diseño UX 11 1.2 Elementos de Diseño Visual 14 1.3 Buenas prácticas 17
Capítulo 2. Interacciones e Interfaces 25
2.1 Interacción Humano Computadora 25 2.1.1 Memoria de trabajo, atención y reconocimiento 28 2.2 Interfaces en soportes gráficos 32 2.3 Interfaces de voz 34
Capítulo 3. Displays Transparentes 41
3.1 Realidad aumentada 41 3.2 HUDs 43 3.3 Realidad aumentada en smartphones 46 3.4 Visores 48 3.5 Pantallas transparentes 50
Capítulo 4. Análisis y métricas para pantallas transparentes 56
4.1 Research generativo 56 4.2 Research evaluativo 59 4.3 Tipos de atención 65
Capítulo 5. Cómo testear interfaces en pantallas transparentes 72
5.1 Trabajo de campo con prototipos de baja fidelidad 72 5.2 Análisis y oportunidades de mejora 78 5.3 Siguiente paso: prototipos de alta fidelidad 81 5.4 Consideraciones finales 83
Conclusiones 89 Imágenes seleccionadas 94 Lista de Referencias Bibliográficas 96 Bibliografía 99
4
Índice de Figuras y Tablas
Figura 1: Prueba de Stroop.
Figura 2: Ejemplo de un prototipo de alta fidelidad para evaluar navegación.
Tabla 1: TCR para pruebas de usabilidad
5
Introducción
El presente Proyecto de Graduación, titulado UX para pantallas transparentes. Prototipos
para nuevos contextos, propone comprender cómo las interfaces escapan a los soportes
tradicionales y generan nuevas posibilidades y limitaciones en su interacción.
La pregunta problema que atraviesa la totalidad de las indagaciones expuestas en este
trabajo es cómo afectan las interfaces en pantallas transparentes la experiencia de usuario.
Este proyecto aborda cómo la variedad de contextos de uso de productos y servicios digitales
se separa cada vez más del clásico escenario de los usuarios consumiéndolos desde sus
computadoras o teléfonos.
Se inscribe en la categoría Investigación porque ofrece un panorama exhaustivo sobre el
actual contexto divergente donde una variedad de interfaces van ganando terreno y las
tecnologías de display se sofistican de manera tal que los modos de interactuar con los
sistemas están cambiando. Asimismo, la línea temática seleccionada es Historia y
Tendencias porque se analizan las bases y prácticas del diseño de experiencia de usuario
hasta la actualidad.
En función de lo antedicho, los objetivos que persigue este proyecto son, en primer lugar,
investigar los elementos fundamentales para un correcto análisis de la experiencia del usuario
en pantallas transparentes. Para abordar adecuadamente este propósito, se buscará explicar
los elementos y buenas prácticas del diseño UX, indagar cómo la evolución de las tecnologías
moldeó las interacciones con los sistemas, explorar la evolución de otros soportes de
interfaces gráficas, e identificar técnicas y métricas pertinentes que ayuden a determinar el
éxito o el fracaso de una interfaz en una pantalla transparente.
La hipótesis que se postula en este escrito es que las reglas tradicionales del diseño UX ya
no son suficientes para plantear buenas prácticas a la hora de diseñar para pantallas
transparentes.
Respecto al diseño metodológico que se utilizará en este proyecto, la estrategia teórico
metodológica es de tipo descriptivo-explicativa, puesto que pretende describir el fenómeno de
6
la interacción humano-computadora, explicando en instancias posteriores cómo esto debe
considerarse desde una perspectiva de diseño de interfaces.
La metodología responde a la perspectiva cualitativa de investigación, en la medida en que
aborda la temática planteada desde un enfoque que pretende estudiar cómo puede
determinarse la experiencia de usuario en interfaces sobre pantallas transparentes.
El trabajo de campo requerido para acceder al conocimiento de las personas sometidas a
estudio, exigirá la utilización encuestas y tests de usuarios realizadas a diez individuos. Las
personas seleccionadas deberán ser jóvenes adultos entre 20 y 50 años, consumidores de
tecnologías modernas y usuarios de dispositivos móviles.
En el marco de los estudios sobre diseño UX, el aporte que se plantea en este proyecto resulta
novedoso en tanto permite integrar los conocimientos que existen actualmente sobre el
Diseño de productos digitales y vincularlos con las nuevas oportunidades que se presentan
en el mercado. Actualmente las pantallas transparentes en Argentina son escasas y al no ser
una tecnología masiva, se presentan pocas oportunidades de desarrollar y diseñar para estos
soportes. Incluso en ambientes profesionales las ocasiones que permiten entrar en contacto
con estos proyectos son escasas y hay poco conocimiento organizacional alrededor del tema.
El análisis de tecnologías similares con mayor penetración en el mercado, como la Realidad
Aumentada y las interfaces de voz, permiten un acercamiento que será de gran valor en un
futuro cercano.
En efecto, la revisión de los antecedentes permite contemplar el carácter innovador de la
temática. En principio, en lo que refiere a los antecedentes institucionales, un conjunto de
Proyectos de Grado elaborados por estudiantes de la Universidad de Palermo se consolidan
como un punto de partida insoslayable. Entre ellos, puede citarse el proyecto profesional
realizado por Melon (2013). El relato hipertextual. Marco de convergencia entre los
videojuegos y el cine. Este PID tiene como objetivo investigar la convergencia de medios a
partir del advenimiento y desarrollo de la era digital, planteándose la pregunta de cómo
7
convergen las industrias de ambos medios en cuanto a discurso, lenguaje, complejidad
argumental y tecnología en la actualidad. Se vincula con este trabajo porque investiga la
convergencia de ambos medios.
En segundo lugar se considera a Conforto (2010). Interfaz en el cine y en los videojuegos
(Ciencia ficción, género experimental). Este PID tiene como objetivo estudiar las FUI (Fantasy
User Interfaces) para desglosar composiciones para el cine y los videojuegos en el área de
la ciencia ficción como género proyectual y experimental. Se vincula con este trabajo porque
analiza similitudes, diferencias y convergencias.
En tercer lugar, Paladines (2015). La Evolución del Cine Digital (Flexibilizar la elección de
formatos y flujos de trabajo). Este PID tiene como objetivo analizar las opciones tecnológicas
actuales para hacer cine y se vincula con este trabajo porque analiza tecnologías de captura
y formatos.
En cuarto lugar, el proyecto de Barreto Salamanca (2010). House Interactive (Creación de
entornos virtuales en el mundo 2.0 tiene como objetivo estudiar la publicidad holofónica con
sonido 3D y se vincula con este trabajo porque explora nuevas corporalidades de las
interfaces conversacionales.
En quinto lugar, se toma el proyecto de Indaco (2017). Videos 360o: Otras perspectivas para
el desarrollo de piezas audiovisuales. Este PID tiene como objetivo estudiar el uso de nuevos
recursos visuales, la experimentación en los distintos tipos de montaje y la introducción de
nuevos dispositivos para consumir y generar contenidos. Se vincula con este trabajo porque
estudia un potencial punto de inflexión en la tecnología.
En sexto lugar, se toma el trabajo de Blandón Herrera (2013). ¿Es posible una red social en
3D? que tiene como objetivo analizar representaciones estéticas fuera del 2D tradicional y se
vincula con este trabajo porque ubica las interfaces en el “mundo real”, más allá de las
pantallas.
En séptimo lugar, Severino (2018) en Educación Expandida. Realidad Aumentada como
complemento en la Educación se propone repasar la evolución e inclusión del multimedia en
8
el área educativa, y detenerse a analizar el proceso de enseñanza - aprendizaje desde las
visiones más significativas para, desde allí, acercarse a lo que sucede cuando se incluyen las
tecnologías en este proceso. Propone además, la incursión del diseñador en las etapas de
planeamiento y creación del material didáctico. Se vincula con este trabajo porque indaga
sobre la atención y aspectos a tener en cuenta respecto de la carga cognitiva.
En octavo lugar, el trabajo de Kibudi (2014) La Multipantalla. Su aplicación como recurso
narrativo tiene como objetivo reflexionar sobre la pantalla dividida como recurso y se vincula
con este trabajo porque estudia el funcionamiento y los elementos de la multipantalla y ayuda
a comprender maneras de emplearla para enriquecer la narrativa.
En noveno lugar, Vilaplana (2017) en Nuevas posibilidades creativas. El videoclip en la
realidad virtual tiene como objetivo investigar los aportes de la imagen y el sonido a la realidad
virtual y se vincula con este trabajo porque analiza los conceptos de interactividad,
ciberespacio y multimedia.
En décimo lugar, el proyecto de Borzée Berdejo (2015) El diseño de la experiencia de usuario.
La creación y el desarrollo de un nuevo campo profesional tiene como objetivo reflexionar
cuáles son los factores que hacen a la disciplina de la experiencia de usuario y se vincula con
este trabajo porque se tratan conceptos como contenido, principios y psicología de la
interacción.
En esta misma línea, el Proyecto de Graduación toma como marco teórico el diseño gráfico
digital, el diseño de interacción y los elementos de la atención humana, que contribuyen a
comprender la temática sometida a análisis. En lo que respecta al primer concepto, se utilizan
las reflexiones de Kandinsky, Alan Cooper y la Gestalt sobre la percepción y el diseño, y
Nielsen y Shneiderman sobre las buenas prácticas.
El segundo concepto que rige el escrito es el diseño de interacción y para esto se observan
los escritos de Hall, Norman y Gibson; Lund respecto de la atención; e investigaciones del
Nielsen/Norman group sobre interfaces de voz. El tercer capítulo analiza el mercado y toma
9
como fuentes distintos portales periodísticos especializados en tecnología; documentación
específica de los fabricantes y papers relativos a las pantallas transparentes.
El cuarto capítulo retoma los textos de Lund y Hall para explorar maneras de medir atención,
y explora las observaciones académicas hechas sobre pantallas transparentes en el pasado.
El proyecto se estructura en cinco capítulos. El primero de ellos identifica y explica los
aspectos fundamentales que conforman una experiencia entre un usuario y un sistema, con
foco en los elementos de diseño visual y las buenas prácticas o principios generales del
diseño.
El segundo capítulo ahonda sobre las interacciones posibles entre usuarios y sistemas, los
fenómenos que pueden observarse en estos diálogos y los distintos soportes como medios
que hacen posible dichas interacciones.
El tercer capítulo explora la evolución de soportes físicos menos comunes para alojar
interfaces, la tecnología que los hace posibles, sus desafíos y limitaciones en el mercado
actual y los usos de la misma en un futuro muy cercano.
El cuarto capítulo identifica técnicas y métricas que permitan evaluar interfaces en pantallas
transparentes con especial foco en los aspectos visuales e interactivos de los diseños.
El quinto capítulo propone métodos concretos para probar dichas interfaces en distintos
momentos del proceso de diseño.
Finalmente, el Proyecto de Graduación se vincula con la asignatura Comunicación Interactiva
III, ya que aborda experiencia de usuario (UX), diseño de interfaz e interacción, prototipado y
tests de usuarios.
Se advierte, de este modo, el aporte que ofrece este PG al campo de la Comunicación Digital
porque reafirma el valor agregado al negocio que aporta UX como disciplina, cuando se la
incluye a nivel estratégico y a través de todo el desarrollo de un producto digital. Una UX
orientada a las pantallas transparentes no está siendo contemplada actualmente y permite
una especialización con grandes posibilidades de proyección profesional en los próximos
cinco años, tanto para los futuros Diseñadores UX como para la región. Según la encuesta
10
del Observatorio Permanente de la Industria de Software y Servicios Informáticos (OPSSI) de
2017, la Industria Argentina del Software logró un récord histórico de exportaciones durante
2017. Se observa un crecimiento sostenido del sector en los últimos diez años. Paralelamente
a esto, los displays transparentes están ganando momentum en ferias y eventos reconocidos
internacionalmente. Las marcas de electrodomésticos y consumo privado han presentado sus
variantes en las últimas ediciones de la CES (Feria Internacional de Electrónica de Consumo,
una de las ferias del sector tecnológico orientada a retail más importante y que dicta el rumbo
de la industria). Las grandes marcas están experimentando aún las posibilidades y el alcance
de estos materiales y cómo pueden articular con sus líneas de productos existentes.
11
Capítulo 1. Experiencia de usuario
El objetivo de este capítulo es explicar qué elementos de UX son cruciales para el diseño de
interfaces, y qué buenas prácticas hay que tener en cuenta a la hora de crearlas. Busca
entender los aspectos fundamentales que conforman una experiencia entre un usuario y un
sistema, con foco en los elementos de diseño visual y las buenas prácticas o principios
generales del diseño. Se utilizan las reflexiones de Kandinsky (2010), Alan Cooper (2007) y la
Gestalt sobre la percepción y el diseño, y Nielsen y Shneiderman (2018) sobre las buenas
prácticas.
1.1 Diseño UX
El diseño de experiencia de usuario o UX por sus siglas en inglés (User eXperience) es una
disciplina relativamente joven que tiene como objeto de estudio la interacción entre un usuario
y un producto, sistema o servicio. Busca crear interfaces adecuadas entre las personas y los
sistemas, a fines de mejorar su eficiencia, disminuir la curva de aprendizaje y eliminar las
barreras entre los usuarios y las máquinas. Sus objetos de estudio son las personas, en su
dimensión psicológica, cognitiva y física, y los sistemas que interactúan con ellas, en sus
aspectos estéticos y funcionales que forman la interfaz a través de la cual se exponen a ser
utilizados.
Como diseñador, tienes una enorme y apasionante responsabilidad. Tú defines el mundo humano, un objeto o sistema a la vez. Cada artefacto delicioso y frustrante que existe, existe debido a una serie de decisiones de diseño. El diseño como trabajo es igualmente delicioso y frustrante. Lo que sea que crees tiene que funcionar para una amplia gama de personas que pueden parecerse en nada a tí. Tu trabajo debe ser lo suficientemente novedoso como para atraer la atención, y al mismo tiempo encajar en el mundo de objetos y situaciones existentes de cada usuario sobre los que no tienes control. ¿Cómo se crea un diseño que resuelve un problema para una combinación sinfín de personas y entornos? (Hall, 2013).
Las experiencias suceden espontáneamente o son llevadas a cabo mediante una gestión de
Diseño, definiendo y dando forma a cada punto de contacto entre dichos objetos de estudio.
El proceso de generar y evaluar las experiencias es el trabajo de los diseñadores UX, quienes
tienen en cuenta la naturaleza de las personas, sus deseos, motivaciones, limitaciones, metas
12
y contextos y definen las expresiones de los sistemas en tanto elementos formales que serán
analizados en el capítulo. El diseñador UX es, a grandes rasgos, el responsable de identificar
necesidades y requisitos, generar y probar bocetos a fines de seleccionar el más pertinente,
construir prototipos de alta fidelidad que luego serán desarrollados en producción, y evaluar
los resultados.
El Diseño UX comprende distintas verticales: Interacción, Arquitectura de la Información,
Diseño Visual o Look and Feel, quizás un término más abarcativo que comprende sistemas
no visuales, e Investigación o User Research.
Interacción y Arquitectura de la Información es la subdisciplina encargada de organizar
coherentemente la información y los contenidos de manera tal que tengan sentido para sus
usuarios, generando estructuras comprensibles, interacciones eficientes y espacios
hipermediales navegables. Comprende la jerarquización, el etiquetado, las categorías y la
disposición a grandes rasgos de los elementos en el espacio (como planos o layouts). IxD e
IA respectivamente por sus siglas en inglés, son las áreas que estudian los modelos mentales
bajo los cuales los usuarios operan. Un modelo mental es una abstracción que explica cómo
los usuarios perciben un sistema. Esta percepción y expectativas de funcionamiento están
basadas en experiencias pasadas y creencias, no hechos, y se nutre a partir de lo que los
usuarios saben o creen saber de un sistema. Las experiencias pasadas y creencias
determinan lo que es esperable. En palabras de Erika Hall, co-fundadora y CDO de Estudio
Mule:
Un modelo mental es el concepto interno preexistente de un individuo y las asociaciones con cualquier institución, sistema o situación dada. Cada uno de nosotros tiene un mapa idiosincrásico e imperfecto de la realidad en nuestra cabeza. Sin él, estaríamos completamente perdidos. Con él, nos apoyamos en supuestos basados en experiencias previas que consideramos análogas. Cuanto mejor sea la analogía, más útil será el mapa. Esta es la razón por la que las interfaces que buscan la novedad a menudo no se pueden utilizar. Sin ganchos en un modelo mental existente, tenemos que resolver las cosas desde cero (Hall, 2013).
Diseñar con los modelos mentales adecuados supone organizar la información a través de
estructuras familiares y guiar el recorrido con metáforas pertinentes.
13
El Diseño Visual o Look and Feel es la subdisciplina dentro de UX encargada de la gestión de
los elementos, en su gran mayoría visuales, que se expresan a través de valores y el uso de
propiedades visuales como la forma, el color, la posición y la escala. Su enfoque está en la
presentación de datos de una manera que promueva una comprensión adecuada. En palabras
de Alan Cooper, las interfaces visuales deben
utilizar propiedades visuales para agrupar elementos y crear una jerarquía clara, proporcionar estructura visual y flujo en cada nivel de organización, utilizar imágenes coherentes y adecuadas al contexto, integrar estilo y función de manera comprensiva y con propósito, y evitar el ruido visual y el desorden (Cooper, 2007).
Investigación, UXR o User Research es la subdisciplina que comprende el estudio metódico
de los usuarios, sus necesidades, metas, contextos, limitaciones y puntos de dolor. En su libro
Just Enough Research, Erika Hall (2013) presenta brevemente tres tipos de investigación o
research: la investigación científica pura, basada en la observación y la experimentación y
publicada en journals una vez superada la revisión de pares; la investigación aplicada, que
toma ideas y técnicas de la pura y las aplica a fines comerciales o que responden a una lógica
de producción, en donde sus métodos pueden ser más relajados; y la investigación orientada
al diseño centrado en el usuario (DCU). Asimismo, cita a Jane Fulton Suri, directora creativa
de la reconocida consultora internacional de diseño IDEO, en su artículo de 2008 Informing
Our Intuition: Design Research for Radical Innovation:
La investigación del diseño inspira imaginación e informa la intuición a través de una variedad de métodos con intenciones relacionadas: exponer patrones subyacentes a la rica realidad de los comportamientos y experiencias de las personas, explorar reacciones a prototipos, y arrojar luz sobre lo desconocido a través de hipótesis iterativas y experimentos. (Suri, 2008).
UXR aporta información crucial a lo largo de todo el proceso de diseño y la investigación puede
dividirse en dos grandes categorías: generativa y evaluativa. En los momentos de
investigación generativa, un diseñador UX se dedicará a desarrollar un conocimiento profundo
de los usuarios en relación al sistema: qué piensan, sienten, dicen y hacen, cuáles son sus
puntos de dolor y dónde perciben valor. Estos momentos también comprenden el análisis de
otros artefactos preexistentes como manuales de marca, estudios de marketing como focus
14
groups, analytics y el mapeo de otros canales como redes sociales, sitio institucional, call
center, publicidad e incluso entrevistas con departamentos como infraestructura o desarrollo,
para identificar cuellos de botella en los procesos de backend que puedan estar reflejándose
en el uso de las interfaces que hacen al servicio. Este proceso también puede nutrirse de
investigación competitiva (benchmark) en donde se analiza el panorama de la industria,
servicios o productos que pueden utilizarse en conjunto u otros que se posicionan como
competidores. La investigación evaluativa se enfoca en poner a prueba las hipótesis de diseño
y busca validarlas a través de prototipos que se enfrentan a los usuarios para ser evaluados.
La evaluación de estos prototipos debe ser llevada a cabo en varios momentos del proceso
de diseño, y los métodos de testeo varían según las etapas. Métodos como mapas de afinidad,
y clasificación de tarjetas o card sorting son apropiados en una etapa temprana en donde el
objetivo es definir el modelo mental de los usuarios, mientras que los prototipos de baja
fidelidad buscan testear la efectividad de los flujos de pantallas y la navegación propuesta,
finalmente, los prototipos funcionales interactivos se utilizan en una etapa tardía, para afinar
detalles como iconografía, frases y microinteracciones. En todas las etapas se validan o
descartan hipótesis de uso y se plantean oportunidades de mejora para volver a diseñar en
base al feedback provisto por los usuarios.
El Diseño UX puede abordarse entonces a través del entendimiento de todos los factores que
comprenden las disciplinas mencionadas. El resto de este capítulo explora los factores que
son de relevancia a la hora de diseñar interfaces gráficas.
1.2 Elementos de Diseño Visual
Alan Cooper advierte que el diseño de interfaces gráficas es una disciplina frecuentemente
malinterpretada, en parte por sus similitudes con el arte visual y el diseño gráfico. Los
diseñadores y artistas trabajan sobre el medio visual. Sin embargo ambos tienen objetivos
distintos: mientras que el objetivo del artista es producir una pieza observable que provoque
15
una respuesta estética y su preocupación yace principalmente en la autoexpresión, los
diseñadores visuales tienen como objetivo comunicar claramente. Sin embargo, advierte:
El diseño de las interfaces de usuario no debería excluir por completo las preocupaciones estéticas, sino que debería situarlas dentro de un marco funcional. Si bien siempre hay algún juicio subjetivo involucrado en la comunicación visual, nos esforzamos por minimizar las cuestiones de gusto. Descubrimos que la articulación clara de las metas de la experiencia del usuario y los objetivos comerciales es invaluable incluso cuando se trata de diseñar los aspectos de una interfaz visual que respalden la identidad de marca, la experiencia del usuario y la respuesta visceral. (Cooper, 2007).
Cooper argumenta que cada objeto de una composición visual trabaja con los demás para
crear significado. Individualmente un objeto tiene una serie de propiedades como forma y color
que raramente poseen un significado inherente. Aún así, las diferencias y similitudes en la
forma en la que se aplican estas propiedades hacen que un usuario entienda una interfaz.
Propiedades como la forma y el color son los primeros elementos que un diseñador de
interfaces visuales deberá considerar.
El primer elemento a tener en cuenta es la forma: la manera más importante en la que se
reconoce un objeto. Los humanos reconocen los objetos por sus contornos y límites. Incluso
cuando se le aplica un color artificial, la silueta de una manzana representa inequívocamente
a una manzana. Distinguir entre diferentes formas requiere un mayor nivel de atención que
distinguir entre otras propiedades como color o tamaño, haciendo que este elemento no sea
el más adecuado para contrastar distintos objetos y significar diferencias.
El segundo elemento a observar es el tamaño. Cooper observa que el tamaño es una variable
ordenada y cuantitativa, y esto hace que las personas secuencien automáticamente los
objetos en orden según su tamaño y tiendan a asignar cantidades relativas a esas diferencias.
Esto hace del tamaño una propiedad útil para transmitir jerarquías de información.
El tercer elemento importante es el valor, en términos de color. Dado que los contrastes de
valor son percibidos rápidamente, el valor es una propiedad útil para llamar la atención sobre
objetos que se quiera destacar. El valor como variable ordenada hace que, por ejemplo en un
mapa, las áreas con un valor más oscuro sean fácilmente entendidas como aguas más
profundas o superficies más pobladas.
16
El cuarto elemento es el tono. El tono del color se relaciona a la percepción del ojo de distintas
longitudes de onda en el espectro que contempla a todo el rango de colores identificables por
el ojo humano. Permite transmitir una dimensión adicional de información de una manera no
espacial. Sin embargo, en ocasiones utilizar colores puede restar valor al significado general
en una visualización de datos, transmitiendo información donde no la hay. Incorporar mapas
de color intuitivos en la visualización de datos es una herramienta útil, aunque con un
inconveniente: la información que se transmite únicamente a través del color puede perderse
en usuarios que no pueden distinguirlos. Existen herramientas que permiten diseñar con
colores para daltonismo.
El quinto elemento es la orientación. Aunque el concepto es más fácil de entender en el arte,
porque la orientación de los elementos puede estudiarse en relación a las líneas de
perspectiva y la dirección de las diagonales, líneas de fuerza de la composición o las fuerzas
defensivas de los márgenes de los planos (Kandinsky, 2010), la orientación refiere al sentido
y dirección que tendría un objeto estático si estuviera en movimiento.
El sexto elemento es la textura. Aunque todas las texturas que se observan en una interfaz
gráfica serán de naturaleza óptica y no verdaderamente táctil, la fidelidad y alta resolución de
los efectos y las pantallas son lo suficientemente buenas como para evocar las mismas
imágenes mentales y representaciones que un plano tridimensional. En otras palabras, la
fidelidad de las imágenes es tal que a todos los fines prácticos de una interfaz, una foto de,
por ejemplo, una pared de ladrillos, es una pared de ladrillos. Dado que la información
entregada por las texturas es compleja y requiere de un alto grado de atención a los detalles,
Cooper señala que la textura no es un elemento eficaz a través del cual llamar la atención o
marcar diferencias. Sin embargo, es un buen elemento para transmitir los ofrecimientos de los
objetos (2007), (el concepto de ofrecimiento o affordance será tratado más adelante). El
esqueumorfismo es una tendencia de diseño de GUIs que recurre constantemente a la textura
como elemento fundamental en su manera de significar y dar sentido.
17
El séptimo elemento es la posición, es decir, dónde se coloca cada elemento respecto del
plano básico y en relación a los demás, y qué posibilidades de ubicación permite la grilla en
la cual se ubica. Al igual que el tamaño, la posición es una variable ordenada y cuantitativa,
cualidades que la vuelven ideal para transmitir información sobre jerarquías (Cooper, 2007).
1.3 Buenas prácticas
Existen buenas prácticas y recomendaciones basadas en estudios sobre percepción que
guían el trabajo de los diseñadores de interfaces. Algunas de estas recomendaciones aplican
sólo al sentido visual y otras tienen en cuenta funciones complejas como la atención y
cognición. El diseño gráfico se basa en muchas de estas guías.
La teoría Gestalt de la psicología de la forma es un pilar básico de referencia a la hora de
comenzar un proyecto. Sus principios fueron establecidos en 1954 por Rudolf Arnheim en su
libro “Art and Visual Perception: A Psychology of the Creative Eye” , en el cual mediante ocho
leyes básicas se explica cómo se genera la percepción de los elementos de manera física y
conceptual, creando un todo. Las propiedades emergentes surgen en los saltos de
organización de los elementos o la materia: los tejidos tienen propiedades que las células no
observan y los órganos tienen propiedades que no están presentes en los tejidos. La suma de
las partes es una propiedad emergente del sistema, no reside en ningún elemento en sí mismo
sino en su conexión con el resto de las partes. La experiencia es lo que sucede a partir de la
interacción con el sistema como un todo.
Las leyes de la Gestalt aplicadas al diseño son las de semejanza (similitud de características),
continuidad (percepción de patrones y direcciones en elementos continuos pero
interrumpidos), cierre (tendencia a completar la forma percibida), proximidad (los elementos
más próximos se agrupan formando unidades), figura y fondo (no puede interpretarse un
objeto como figura y fondo al mismo tiempo), simetría y orden (los estímulos ambiguos se
organizan en la formas más estable posible), simplicidad (tendencia a organizar el campo
perceptual en los rasgos simples y regulares), experiencia (la percepción está condicionada
18
por experiencias pasadas). (Arnheim, 1954).
Al mismo tiempo, también existen guías específicas de UX que responden a aspectos
troncales del diseño de interfaces. Dos trabajos fundamentales en esta disciplina son las ocho
reglas de oro de Ben Shneiderman y las 10 heurísticas de usabilidad de Jakob Nielsen. Ambos
trabajos destacan la importancia de la consistencia (en secuencias de acciones, copy, estilo
y terminologías, color y uso de tipografías) y la claridad. Otro aspecto destacado es el control
y la información brindadas al usuario.
En 1985, el científico de la computación por la universidad de Maryland Ben Shneiderman
publicó “The Eight Golden Rules of Interface Design”. Shneiderman es el fundador del
laboratorio de Interacción Humano-Computadora o HCI por sus siglas en inglés (Human-
Computer Interaction) de dicha universidad. Este texto describe ocho reglas básicas que
pueden aplicarse a la mayoría de los sistemas interactivos. Por otro lado, Jakob Nielsen, es
ingeniero de interfaces y uno de los consultores en usabilidad con mayor reconocimiento
mundial: es doctor en Diseño de interfaces de usuario y Ciencias de la Computación por la
Universidad Técnica de Dinamarca. Actualmente es cofundador del Nielsen Norman Group,
una firma estadounidense de consultoría de interfaz de usuario y experiencia de usuario.
Los trabajos de ambos autores se enfocan en principios de usabilidad que deben ser tenidos
en cuenta a la hora de diseñar sistemas interactivos. Tienen la finalidad de guiar el trabajo del
diseñador y son lo suficientemente amplias para ser tomadas como referencia o buenas
prácticas.
La primera heurística de usabilidad de Nielsen “Visibilidad del estado del sistema” (Nielsen,
1994) se relaciona con el tercer y cuarto principio de Shneiderman: “ofrecer feedback
informativo” y “diseñar diálogos con un cierre” (Shneiderman, 2018). “Cuando los usuarios
conocen el estado actual del sistema, conocen el resultado de sus interacciones anteriores y
determinan los próximos pasos. Las interacciones predecibles generan confianza tanto en el
producto como en la marca” (Nielsen, 1994). Cada acción del usuario debe ser acompañada
por una respuesta del sistema, y el tiempo de la respuesta debe mantener la relación con la
19
acción realizada. Las microinteracciones o animaciones dan feedback de causa-efecto,
mientras que una petición que implique una llamada al servidor puede desplegar una barra de
progreso, como al descargar un archivo. “El feedback obtenido tras la realización de un
conjunto de acciones da a los usuarios la satisfacción de haber cumplido, una sensación de
alivio y una indicación de que el camino está libre para prepararse para el siguiente paso”
(Shneiderman, 2018).
La segunda heurística “correlación entre el sistema y el mundo real” (Nielsen, 1994) se
corresponde con el primer principio de Shneiderman: “buscar la consistencia: Secuencias
coherentes de acciones son necesarias en situaciones similares”. (Shneiderman, 2018). La
consistencia es interna en tanto responde a la lógica inherente al sistema y es externa porque
debe buscar acoplarse al modelo mental que el usuario ya ha formado a partir de experiencias
previas. “Cuando los controles de un diseño siguen las convenciones del mundo real y
corresponden a los resultados deseados, es más fácil para los usuarios aprender y recordar
cómo funciona la interfaz. Esto ayuda a crear una experiencia intuitiva” (Nielsen, 1994).
La tercera y séptima heurísticas hacen referencia al “control y libertad del usuario” y la
”flexibilidad y eficiencia de uso” (Nielsen, 1994) y se corresponden con el segundo y séptimo
principio de Shneiderman: “permitir a los usuarios frecuentes utilizar atajos” y “Situar el poder
en el usuario”, que consiste en fomentar una sensación de libertad y confianza en la interfaz
mediante un flujo adecuado que permita retroceder o deshacer una acción, y brindar salidas
para evitar que los usuarios queden atascados y se frustren. Las salidas también fomentan la
navegabilidad y el descubrimiento de otros espacios en un mismo sitio. “Los usuarios
experimentados desean tener la sensación de control y que el sistema responda a sus
acciones adecuadamente. Diseñar el sistema para que los usuarios sean los que inicien cada
acción y no los que respondan”. (Shneiderman, 2018).
La cuarta heurística de Nielsen hace referencia a la “consistencia y estándares” y se relaciona
directamente con el primer principio, ya mencionado, de Shneiderman: un usuario pasa solo
una pequeña parte de su tiempo en un sitio, y la mayor parte de su tiempo en otros. Diseñar
20
para patrones a los que los usuarios ya están acostumbrados garantiza que éstos no tengan
que aprender algo nuevo a la hora de lidiar con un sitio específico.
La quinta y novena heurísticas de Nielsen apuntan a la “prevención de errores”, y a la “ayuda
para reconocer, diagnosticar y recuperarse de errores”, y se corresponden con el quinto y
sexto principio de Shneiderman: “prevención de errores” y “fácil reversión de acciones”. “En la
medida de lo posible, diseña el sistema para que el usuario no pueda cometer un error grave.
Si se comete uno, el sistema debe detectarlo y ofrecer una solución sencilla y comprensible
para poder manejarlo”. (Shneiderman, 2018).
El sistema debe ser capaz de detectar errores y dar una alerta temprana antes de que el daño
sea mayor. Diseñar contemplando los errores implica tener en cuenta el tipo de error, la
ubicación del mensaje advirtiendo el error, el mensaje y el uso de elementos visuales como el
color.
Existen diferentes tipos de errores: los manuales y los automatizados. El error manual
depende de los usuarios y puede ser el ingreso de una contraseña incorrecta o un email
inválido. Este tipo de error está asociado al contexto inmediato de la experiencia, por lo tanto
el mensaje de error o advertencia deberá mostrarse debajo del campo de entrada en donde
ha sucedido, para facilitar asociar la información dada por el sistema y permitir al usuario
corregirlo. Es importante que el mensaje no sea genérico, elimine todo tipo de ambigüedad y
proporcione la información necesaria para recuperarse. El color se utiliza para generar un
correcto contraste con el fondo y atraer la atención del usuario a este elemento. El rojo, aunque
es el más utilizado para señalar errores, debe ser usado con moderación para evitar alarmar
a las personas por accidentes menores. Por otro lado, los errores automatizados son errores
generados por el sistema cuando algo no ha salido como se esperaba, por ejemplo, debido a
una conexión defectuosa o un problema técnico. El usuario no tiene control sobre estos
errores y es posible que no puedan solucionarse inmediatamente. Este tipo de errores suelen
mostrarse con modales, puesto que es una situación que afecta al sistema en general (el error
no está localizado sobre un elemento concreto de la interfaz), y es necesario alertar a la
21
persona cuanto antes para evitar frustraciones mayores más adelante. En este tipo de
mensajes es importante explicar, en lenguaje del usuario, qué salió mal, cuál es la
consecuencia, qué es lo que la persona debería hacer a continuación, y si es posible ofrecer
algún tipo de alternativa para continuar con la tarea. Ya que el uso de modales o páginas
enteras (como para los 404 o errores de página no encontrada) irrumpe el flujo lo suficiente
como para que el usuario preste atención, no es necesario el uso de colores tan contrastantes
para este tipo de errores.
Las validaciones instantáneas en pantalla y los campos que permiten únicamente el tipo de
dato requerido en los formularios en donde los errores de tipeo son comunes son un claro
ejemplo de esta directriz. La función de revertir errores alivia la ansiedad y fomenta la
exploración de opciones desconocidas. Si los usuarios aprenden que no les es costoso
recuperarse de los errores, se manejarán con un mayor grado de libertad y tendrán más
confianza en el sistema.
La sexta heurística de Nielsen afirma que “reconocer es mejor que recordar” y se relaciona
con el octavo principio de Shneiderman: “bajar la carga cognitiva y la memoria a corto plazo”:
El usuario no debería tener que recordar información de una parte de la interfaz a otra. La información requerida para utilizar el diseño debe ser visible o fácilmente recuperable cuando sea necesario. Los seres humanos tienen una memoria limitada a corto plazo. Las interfaces que promueven el reconocimiento reducen la cantidad de esfuerzo cognitivo requerido por parte de los usuarios (Nielsen, 1994).
Las pantallas complejas, los datos innecesarios y las interrupciones actúan en detrimento de
esta regla. Los elementos de una pantalla deben estar agrupados de manera tal que queden
claras las intenciones de ese momento. En general, las pruebas con usuarios demuestran que
las personas no leen los textos aclaratorios de las pantallas sino que escanean visualmente
el contenido hasta llegar al elemento (por lo general un botón) que les permita continuar con
la acción deseada. Una jerarquía correcta permite que los usuarios encuentren la información
que buscan sin tener que leer la totalidad del texto o detenerse en cada elemento para juzgarlo
importante o desestimarlo. El concepto de reconocimiento y memoria será tratado en
profundidad en el siguiente apartado.
22
La octava heurística de Nielsen hace referencia a la “estética y diseño minimalista” y se
relaciona con el octavo principio de Shneiderman ya mencionado. Las interfaces no deberían
contener información extra o irrelevante que distraiga a los usuarios y los desvíen de la
información que necesitan. El contenido debe ser priorizado para apoyar los objetivos
primarios. El contenido y el diseño visual debe enfocarse en lo esencial.
La décima heurística de Nielsen habla de la importancia de la “ayuda y documentación”, y se
relaciona con el octavo principio ya mencionado de Shneiderman, recalcando que aunque es
mejor que los sistemas no necesiten de ayuda adicional, ésta deberá proveerse en contexto
cuando los usuarios así lo requieran.
Muchas veces en la práctica, el análisis de los sistemas bajo estos lineamientos no arroja los
mejores resultados, sin embargo, los usuarios responden bien a ese diseño. Esto es porque
la experiencia emerge a partir de todo el sistema. En este sentido, al momento de ponderar la
importancia de estas directrices en el desarrollo del proyecto, es necesario tener en cuenta
otros factores como limitaciones tecnológicas, reglas de negocio, contextos de uso y objetivos
principales del producto. Un diseño debe ser probado y validado teniendo en cuenta todas
estas cuestiones y no solamente la estética. Por ejemplo, las microinteracciones como
herramienta de feedback elevan el placer estético, pero si un usuario fuera a usar esa
aplicación en una versión antigua de Android o en un dispositivo al borde de la obsolescencia,
la experiencia general sería frustrante. Es menester validar con los equipos de desarrollo e
investigación las posibilidades técnicas, las demográficas que van a atenderse y los hábitos
de uso y las variables conductuales del segmento al que estará destinada el producto.
1.4 Experiencias omnicanal
Hace tan solo unas décadas, solía haber solo un puñado de formas para que los clientes
interactuaran con una organización. Podían visitar su ubicación física, llamarlos y, una vez
que surgió la web, podían visitar su sitio. Hoy en día el surgimiento de tecnologías como tablets
y smartphones abren otros canales de intercambio en donde los consumidores pueden
23
interactuar con las empresas de formas nuevas, como un chat en línea, redes sociales, correo
electrónico, mensajes de texto y a través de aplicaciones. La experiencia de los consumidores
hoy es mucho más dinámica e interconectada. Los usuarios interactúan con una organización
en varios dispositivos y participan en muchos canales para completar una sola actividad.
Entonces, por ejemplo, un cliente puede comenzar a buscar un nuevo gimnasio en su
dispositivo móvil mientras está fuera de casa, enviarse un enlace por correo electrónico para
poder continuar su investigación más tarde y completar la aplicación en su computadora
personal.
Al mismo tiempo, es posible que esté conversando con un representante de atención al cliente
mediante un chat en vivo. Cada una de estas interacciones individuales con las
organizaciones, e incluso la experiencia que tienen esos usuarios al pasar de un canal al
siguiente, se unen para crear una experiencia de usuario más amplia y holística llamada
experiencia de usuario omnicanal o multicanal.
Sin embargo, el pasaje entre canales no suele ser una experiencia fluida. La gestión del
ecosistema de canales se ocupa de diversos aspectos, pero uno fundamental es la
consistencia de la marca y la no dilución de ésta a través de los distintos lenguajes visuales
que maneja cada uno. Es frecuente que conforme los productos o servicios crecen,
numerosos equipos trabajen en distintas partes, creando inconsistencias con el tiempo. Las
inconsistencias en lo visual suelen darse por falta de una dirección clara o equipos
desalineados. Cuando un mismo producto o servicio se desarrolla en distintas plataformas y
para distintos sistemas operativos, estas inconsistencias pueden escalar, resultando en una
imagen de marca fragmentada y una experiencia desconectada. Los departamentos de
Diseño que lidian con este tipo de problemas suelen encontrarse tarde o temprano con el
dilema de la flexibilidad y la consistencia. Cuando prevalece la coherencia visual por sobre la
adaptabilidad del sistema a cada plataforma, se suelen sacrificar los objetivos finales de los
usuarios, pudiendo en última instancia perjudicar la adopción del sistema. Cuando la situación
es inversa, lo que pasa a segundo plano es la imagen de marca. Para lograr conciliar ambos
24
aspectos, los Diseñadores visuales cuentan con herramientas como librerías de estilos,
patrones y componentes denominadas sistemas de diseño o Design Systems. Estos sistemas
brindan una fuente única de verdad, un conjunto compartido de principios y reglas sobre las
cuales generar diseños escalables que satisfagan un mismo lenguaje visual y acompañen a
los usuarios en sus distintos flujos de trabajo. Es natural que los productos o servicios
escalables comprendan un conjunto diverso de usuarios, con sus propios casos de uso y sus
entornos particulares. Los usuarios que ingresan a un sistema desde una computadora de
escritorio probablemente no tengan el mismo objetivo que los que ingresan al mismo sistema
desde un smartwatch. Sin embargo, el sistema debería ser lo suficientemente flexible para
admitir todos los casos de uso frecuentes, y mantener un lenguaje que siempre pueda
identificarse como la misma marca. Los sistemas de diseño facilitan la creación de
experiencias coherentes en distintas plataformas y se alinean a los valores de la marca, a la
vez que proporcionan velocidad y seguridad al equipo de Diseño.
Las personas poseen varios dispositivos y los usan en conjunto para lograr un objetivo. Los
dispositivos se relacionan entre sí de distintas maneras. Pero las personas no necesitan todo,
todo el tiempo, en todos los dispositivos. Los diferentes dispositivos se utilizan a menudo de
diferentes maneras, en diferentes contextos, como parte de diferentes actividades. Adoptar
una perspectiva basada en el contexto significa que se debe comenzar a considerar múltiples
dispositivos como parte de un ecosistema más grande, en lugar de tratarlos como silos. En
este ecosistema, los dispositivos pueden relacionarse entre sí de diversas formas (por
ejemplo, complementando o continuando los roles de los demás) y juntos, como una
estructura holística, equipan mejor a las personas para completar sus tareas. Las
herramientas a través de las cuales las personas cumplen sus objetivos y llevan a cabo sus
tareas serán revisadas en el siguiente capítulo.
25
Capítulo 2. Interacciones e Interfaces.
El objetivo de este capítulo es indagar cómo la evolución de los dispositivos digitales influyó
en la interacción humano-computadora y en el diseño de sus interfaces. Ahonda sobre las
interacciones posibles entre usuarios y sistemas, los fenómenos que pueden observarse en
estos diálogos y los distintos soportes como medios que hacen posible dichas interacciones.
Para esto se observan los escritos de Hall (2013), Norman (2013), Gibson (1977) y Lund
(2001) respecto de la atención; e investigaciones del Nielsen/Norman Group sobre interfaces
de voz.
2.1 Interacción Humano Computadora
La interacción es el proceso por el cual dos sistemas, cualesquiera que sean, se influencian
mutuamente. Una interfaz es el medio a través del cual suceden las interacciones: una
conexión funcional de cualquier tipo entre dos sistemas de cualquier tipo. Permite la
comunicación y el intercambio de información. Las interfaces que median las interacciones
humano-computadora son medios mediante los cuales un usuario puede comunicarse con un
dispositivo o sistema, y comprende todos los puntos de contacto entre dichos usuario y
artefacto. Los puntos de contacto se clasifican en puntos de entrada (input) o de salida
(output). Las interfaces son efectivas en la medida que ayuden a ambas partes a lograr las
interacciones necesarias para obtener lo que necesitan de la otra.
La interfaz humano-computadora es en realidad una seguidilla de capas de interacciones
entre interfaces de bajo nivel hasta interfaces de más alto nivel. En principio, el soporte físico
o infraestructura (microprocesadores y otros circuitos integrados programables), la capa más
básica y tangible, interactúa con programas utilitarios de bajo nivel. Sus instrucciones ejercen
un control directo sobre el hardware y están condicionados por la estructura física de las
computadoras que lo soportan.
Sobre esta capa básica de comunicación se basa la siguiente, que involucra una interacción
26
entre lenguajes de más alto nivel con la capa inferior. Un lenguaje formal artificial, con reglas
gramaticales bien definidas que asiste a los programadores en su capacidad de escribir
(programar) una serie de instrucciones o secuencias de órdenes (algoritmos) con el fin de
controlar el comportamiento físico o lógico de un sistema informático, de manera que se
puedan obtener diversas clases de datos, o ejecutar determinadas tareas.
Sobre esta segunda capa es que se erigen las interfaces que interesan a este trabajo. Sean
gráficas, conversacionales (GUI y VUI respectivamente, por sus siglas en inglés), o mixtas.
Sobre estas capas se crean las nuevas tecnologías y protocolos de comunicación, haciendo
posible que cualquier entidad pueda expresar sus características de manera singular.
La industria informática hace un uso frecuente del término alfabetización informática. Los expertos hablan de cómo algunas personas la tienen y otras no, cómo quienes la tienen triunfarán en la economía de la información y cómo quienes carecen de ella caerán inevitablemente entre las grietas socioeconómicas. Sin embargo, la alfabetización informática no es más que un eufemismo para obligar a los seres humanos a ampliar su pensamiento para comprender una lógica de máquina ajena en lugar de hacer que los productos habilitados por software se estiren para adaptarse a las formas de pensar de las personas. (Cooper, 2013).
Sin embargo, las interfaces existen en soportes físicos mucho más sencillos que una
computadora. Una puerta expone los métodos a través de los cuales puede ser usada
mediante su interfaz: si funciona al ser empujada hacia adelante tendrá una plancha de metal
a la altura de los brazos, pero si se abre en el sentido contrario, exhibirá una manija o perilla.
Un botón puede presionarse, una tecla de luz puede cambiar de estado. Una pava de calentar
agua tiene una base que claramente puede ser expuesta al fuego y un mango recubierto que
aísla el calor para que pueda ser agarrada por una persona. Y al mismo tiempo una taza
rajada puede ser ineficaz para alojar café pero puede ser un excelente lapicero.
Estas propiedades de los objetos cotidianos sons conocida en diseño como affordance u
ofrecimiento: todas las posibilidades de acción que el objeto proporciona o permite. (Gibson,
1977). Don Norman, investigador, profesor, autor y cofundador del Nielsen/Norman Group, las
analiza en su libro The Design of Everyday Things y observa:
27
Cuando se aprovechan los ofrecimientos, el usuario sabe qué hacer con solo mirar: no se requiere ninguna imagen, etiqueta o instrucción. Las cosas complejas pueden requerir una explicación, pero las cosas simples no. Cuando las cosas simples necesitan imágenes, etiquetas o instrucciones, el diseño ha fallado. (Norman, 2013).
Las características físicas tanto de los soportes como de sus usuarios son un factor a tener
en cuenta si lo que se busca es lograr mejores maneras de interactuar. Es clave entender que
las entidades se presentan y son comprendidas únicamente a través de los elementos que
pueden ser aprehendidos por los destinatarios. Cualquier producto, servicio o entidad digital
es abordado por los seres humanos mediante su interfaz.
La interfaz expone elementos útiles y características personales de cada sistema que intenta
comunicarse. Los usuarios destinatarios operan sólo sobre las características que pueden
comprender. Es posible aplicar un simple modelo de emisor, receptor, mensaje y ruido para
explicar esta comunicación.
A su vez, los usuarios responden a la interfaz, recortando las posibilidades de la misma en
torno a sus metas personales. Los seres humanos navegan a través de sistemas ordenados
de información que se adaptan y responden ante sus requerimientos, o al menos eso esperan.
Pero los humanos son, a su vez, sistemas complejos con una interfaz propia: un cuerpo, un
sistema nervioso, una mente y cinco sentidos. Sujeto y objeto están inmersos en un diálogo
que sucede mediado por sus interfaces particulares. Las interacciones que emergen entre
ambos actores son el objeto de estudio de disciplinas como la ergonomía, la psicología, el
diseño gráfico y la experiencia de usuario o UX.
Las interfaces de los sistemas de información pueden tomar muchas formas y atender a uno
o varios sentidos de los seres humanos. Un administrador de sistemas pasa gran parte de su
jornada laboral interactuando con una pantalla negra con texto contrastante, ingresando
caracteres mediante una interfaz de línea de comando.
Cuando una persona llama al servicio de ayuda o 0800 de una empresa y es atendida por una
grabación que le indica qué botones apretar según el inconveniente, está navegando una
interfaz conversacional con menúes numéricos. Cuando decide sacar un turno online en el
28
sitio web de defensa del consumidor, navega una interfaz gráfica. Y cuando busca en el GPS
de su smartphone cómo llegar a su cita, está utilizando una interfaz mixta (visual y auditiva).
Algunas de las metas de los usuarios pueden cumplirse y otras verse truncadas, impactando
positiva o negativamente la experiencia de esa persona, su percepción respecto de los
sistemas con los que interactuó, y sus propias capacidades.
Para proporcionar una correcta experiencia, las interfaces deben ser intuitivas. En su libro
Effective UI, Jonathan Anderson, John McRee y Robb Wilson describen la intuición como
El grado en que el proceso de lograr un objetivo o realizar una tarea dentro de un producto es obvio para el usuario, sin explicación ni confusión. Se relaciona fuertemente con la familiaridad, porque una buena parte de la facilidad intuitiva de una interfaz de usuario proviene de las funciones que se manejan de manera familiar, los botones están en lugares familiares y las cosas tienen nombres familiares. (Anderson, McRee, Wilson, 2010).
En su libro Diseño Conversacional, Erika Hall y John Maeda se refieren a la conversación
como la interfaz original:
Hasta que perfeccionemos la fusión mental, la conversación (incluidos los elementos verbales y no verbales) es la forma en que las personas intercambian información con muchos sistemas y con el menor esfuerzo posible. La conversación es la interfaz que la mayoría de la gente sabe utilizar, incluso si a veces les resulta incómoda la interacción humana en persona. (Hall, 2018).
El hecho de que todos los hispanohablantes conversen en el mismo idioma no significa que
todas las interfaces sean iguales. Aunque muchos humanos usen el mismo lenguaje, las
interfaces que construyen logran ser distintas. Bajo un mismo vocabulario, los sistemas se
expresan de formas singulares, dejando ver sus atributos y personalidades.
2.1.1 Memoria de trabajo, atención y reconocimiento
Este apartado explora conceptos de la psicología cognitiva para entender tres factores
fundamentales a la hora de diseñar en soportes transparentes.
La memoria de trabajo es un concepto que suele confundirse con la memoria a corto plazo,
sin embargo, no son exactamente lo mismo. La memoria a corto plazo hace referencia a los
procesos cerebrales que hacen posible el almacenamiento temporal de información por
29
períodos cortos de tiempo. El concepto de memoria de trabajo combina el almacenamiento
con la manipulación de la información para tareas complejas como lenguaje, aprendizaje y
razonamiento.
El término fue acuñado en 1960 por George Armitage Miller y Eugene Galanter, fundadores
de la psicología cognitiva, y Karl H. Pribram, médico doctor en Medicina especializado en
neurociencia cognitiva, en el contexto de la teoría computacional de la mente, y es uno de los
conceptos teóricos centrales de la psicología cognitiva, neuropsicología y neurociencias. La
memoria de trabajo es un factor importante en lo que en el campo de UX se conoce como
carga cognitiva.
La memoria de trabajo posee una capacidad limitada: cuando la cantidad de información de
entrada excede la capacidad de las personas para manejarla, el desempeño se ve afectado.
Esto significa que los usuarios tardarán más tiempo en completar un objetivo, se perderán
detalles importantes o se verán abrumados y abandonarán la tarea. Diseñar para minimizar la
carga cognitiva ayuda a evitar errores y frustraciones.
En psicología cognitiva, las unidades básicas de memoria son llamadas chunks o pedazos y
la memoria es entendida, a grandes rasgos, como pedazos de información interconectados.
La asociación entre estos pedazos de información está mediada por la capacidad que tiene
un pedazo de activar otros pedazos a los cuales está relacionado. La asociación es la base
del aprendizaje y la resolución de problemas.
En UX, una manera de ayudar a los usuarios a lidiar con el procesamiento de contenido
minimizando la carga cognitiva se denomina chunking, y facilita la lectura rápida de una
página. El chunking se aplica, por ejemplo, al crear bloques cortos de texto con espacio entre
ellos, oraciones cortas entre cincuenta y setenta y cinco caracteres, generar jerarquía visual
clara con grupos de ítems relacionados, en el uso de viñetas, generar un resumen corto de un
párrafo para secciones más largas de texto y en el formateo de ciertos datos como números
largos de tarjetas de crédito (agrupados en cuatro dígitos separados por guiones).
30
La carga cognitiva también describe el esfuerzo que realiza una persona a la hora de aprender
nueva información. La primera vez que los usuarios son presentados con una interfaz, deben
aprender a navegarla, descifrar su lenguaje visual, entender qué acciones son realizables, y
por dónde empezar. Pero incluso cuando una interfaz ya es familiar, los usuarios llevan
consigo información relevante a sus objetivos.
Por ejemplo, al realizar una transferencia bancaria, la carga cognitiva de los usuarios incluye
sus conocimientos relacionados a la interfaz y las limitaciones específicas relacionadas a la
transacción, como ser datos de la cuenta propia y de un tercero, y monto a transferir. En el
caso de una transferencia, el contexto también es importante: no es lo mismo llevar a cabo
una tarea en la que se pueda recuperar fácilmente de un error, que estar atentos a ingresar
los datos correctamente antes de enviar el dinero: distintos tipos de acciones significan más
o menos grado de ansiedad.
Ciertas tareas son naturalmente más complejas y para reducir la carga mental de los usuarios,
los sistemas actúan como memorias externas: los usuarios pueden verter parte de la
información, desde su memoria de trabajo hacia la interfaz, ingresando datos que el sistema
mostrará en el camino.
Un ejemplo de reducción de carga mental son los sitios de agencias de viaje: el usuario
comienza su tarea ingresando origen, destino, fechas de su viaje y cantidad de personas. Al
seleccionar la fecha de finalización, el sistema puede indicarle la cantidad de días y noches
del viaje. Eliminar la carga cognitiva por completo no es posible ni deseable ya que los
usuarios recurren a sistemas para obtener algún tipo de información, sin embargo, un diseño
debería permitir minimizar la carga mental extrínseca causada por la interfaz, y descargar
parte de la carga intrínseca de la tarea.
La atención involucra un proceso cognitivo de concentración selectiva en un pedazo de
información mientras se ignora el resto de la información perceptible. Robert Solso, en su libro
Cognitive Psychology, la describe como "La concentración del esfuerzo cerebral en eventos
sensoriales o mentales" (Solso, 1998). Nick Lund, en su libro Attention and Pattern
31
Recognition (2001) explica que parece haber por lo menos dos tipos de atención: atención
enfocada o selectiva: la habilidad de concentrarse en un pedazo de información sobre una
masa de datos, y atención dividida: la habilidad de atender a dos o más tareas en simultáneo.
La atención (auditiva) selectiva ha sido estudiada mediante el experimento de tarea de
escucha dicótica de Colin Cherry en 1953, en donde los participantes son presentados con
dos estímulos en simultáneo y se les pide que seleccionen uno de los mensajes. Sus
resultados son conocidos como el “efecto de la fiesta de cóctel”, fenómeno que explica por
qué una persona en una fiesta puede concentrar su atención en su interlocutor incluso estando
en un ambiente con muchos más estímulos.
La atención dividida puede ser estudiada mediante experimentos de doble tarea, en donde los
sujetos participantes son presentados con dos o más estímulos y se les pide que respondan
a todos ellos. La habilidad de dividir la atención se ve afectada por variables como la dificultad
o la similitud de las tareas (Lund, 2001).
El reconocimiento es un aspecto vital tanto de la atención como de la percepción. Es la
capacidad de reconocer e identificar objetos del mundo, el entorno. Estos varían en
complejidad desde un simple objeto bidimensional en una página hasta la compleja
combinación de características que constituyen un rostro. El reconocimiento de patrones se
ha definido como "la capacidad de abstraer e integrar ciertos elementos de un estímulo en un
esquema organizado para el almacenamiento y la recuperación de la memoria" (Solso, 1998).
La ya mencionada sexta heurística de usabilidad de Jakob Nielsen, “reconocer es mejor que
recordar” hace referencia al impacto en la carga cognitiva que un diseño puede tener: la gran
diferencia entre el reconocimiento y el recuerdo es la cantidad de ayudas o pistas visuales
que pueden ayudar a recuperar un pedazo de memoria. Recordar implica llevar a cabo una
asociación con menos ayuda. Responder a la pregunta ¿Rayuela fue escrita por Cortázar?
implica reconocimiento: simplemente hay que reconocer si la información proporcionada es
correcta. Si en cambio se preguntara ¿Quién escribió Rayuela? se dispararía un proceso de
recuperación para encontrar la respuesta correcta en la memoria. Ejemplos de reconocimiento
32
en interfaces gráficas son las imágenes en miniatura que acompañan los nombres de artistas,
discos, o libros, o las opciones pre populadas en formularios en donde, en lugar de tipear
desde cero, el usuario puede seleccionar una de las opciones en pantalla.
2.2 Interfaces en soportes gráficos
Las interfaces gráficas son expresiones visuales de los sistemas. El sistema del recorrido de
un aeropuerto se expresa a través de la señalética, que a su vez está soportada por paredes
y carteles de distintos materiales. El servicio de home banking de cualquier banco se expresa
a través de un sitio web y una aplicación móvil que es accesible al usuario a través de
pantallas. Estas pantallas son sucesivas, pero no necesariamente lineales, dan cuenta del
pasaje de un estado inicial a uno final, y son dinámicas en función de cómo el usuario las
opere.
Para que un usuario se guíe y sepa qué tiene que hacer, es necesario cierto grado de
familiaridad y reconocimiento de los elementos que se le presenten en el display. Este
diálogo se lleva a cabo a través de diferentes elementos gráficos: texto, color, iconografía e
ilustraciones, figuras sobre un fondo dispuestas en cierta posición, con una intención
determinada. Existen expresiones establecidas, convenciones más o menos consensuadas
que logran entregar determinados mensajes con más o menos éxito. Una X en la esquina
superior derecha es entendida como un elemento que permite cerrar o salir de esa ventana,
pero esa misma X estará en la esquina superior izquierda en otro sistema operativo. Una lupa
puede significar una búsqueda o un zoom, dependiendo de qué otros elementos la
acompañen y en qué contexto se presente. El consenso es frágil y las suposiciones son
abundantes.
Cuando las interfaces gráficas, o GUI por sus siglas en inglés (Graphical User Interface),
hicieron su entrada en el mundo digital, el mundo analógico y tangible era lo único con lo que
las personas estaban acostumbradas a interactuar. Las metáforas del mundo físico hacían
sentido y generaban mapas mentales fáciles de entender por su familiaridad con lo
33
preexistente.
El escritorio y las carpetas se trasladaron al mundo virtual pero continuaron sirviendo el mismo
propósito que en el analógico. Aunque análoga a carpeta, la palabra directorio hoy en día es
más factible de ser entendida por un usuario que utiliza interfaces de línea de comando
(terminales de texto) que por un usuario común. Esto es porque en el lenguaje de terminal,
los comandos que hacen referencia a las carpetas son del estilo de cd (change directory), pwd
(print working directory), etc. En efecto, la palabra print para un usuario de terminal hace
referencia a mostrar algo en la pantalla, y no a imprimir un documento en un papel.
Xerox Alto, la primer GUI pública en una computadora de escritorio, se implementó en 1973
por el Centro de Investigaciones de Xerox en Palo Alto (PARC) como una herramienta
académica para investigadores universitarios. Le siguieron las primeras interfaces gráficas de
Macintosh en 1983 (Lisa OS), IBM en 1984 (VisiOn), y en 1985 Amiga (Amiga Workbench 1.0)
y Windows (Windows 1.0), siendo estas dos últimas a color.
Los dispositivos periféricos de entrada, como el mouse y el teclado, traducen gestos y también
observan una representación en pantalla. Cuando las computadoras personales de escritorio
ganaron masividad, los sistemas operativos incluyeron juegos cuyo objetivo no era meramente
entretener sino también acostumbrar a los usuarios en el uso de dichos periféricos. Reversi,
Solitario y Buscaminas buscaban entrenar a las personas en el uso del mouse y sus
posibilidades: cliquear, arrastrar, usar el botón derecho secundario. Las posibilidades y
particularidades de cada sistema deben ser aprendidas por el usuario, y su uso describe una
curva de adaptación que puede ser más o menos gradual según la complejidad de la
funcionalidad y la familiaridad respecto de elementos preexistentes.
Los avances en las GUIs son incrementales y éstas se sofisticaron conforme las capacidades
de procesamiento. Los avances en los displays fueron aportando mayores posibilidades.
Independientemente del uso comercial, personal o académico y de la diversificación de los
desarrollos impulsados por las compañías dominantes del mercado en la época, el paradigma
bajo el cual se comprenden es conocido como WIMP por sus siglas en inglés (Window, Icon,
34
Menu, Pointing Device), es decir ventanas, íconos, Menús y Cursor.
Las computadoras de escritorio cuentan con un mouse y/o un teclado, las notebooks o laptops
tienen un teclado y un touchpad, y las tablets y smartphones utilizan pantallas táctiles.
Entendidos bajo el paradigma WIMP, estos elementos crean representaciones de mayor o
menor abstracción de espacios de trabajo y entretenimiento y abren el camino para plantear
sistemas navegables. Es a través de los espacios delimitados que el usuario se ubica. Es por
medio de un cursor que define a dónde ir.
Es gracias a una iconografía que entiende lo que es factible. Entonces, ¿existe un consenso
reconocido de manera tal que su implementación logre estos objetivos? Todas estas
convenciones deben apelar al sentido visual de los usuarios, aunque no necesariamente este
sea el único empleado. ¿Cómo es que un ser humano entiende todos estos elementos?
2.3 Interfaces de voz
Las interfaces conversacionales o VUIs por sus siglas en inglés (Voice User Interface) usan
el sonido (la voz) como entrada y salida. Los comandos se pronuncian en lugar de escribirse
o seleccionarse mediante un menú o un elemento gráfico, y esto supone una mayor libertad
para el usuario, que no está restringido a estructurar su entrada con una sintaxis específica
sino que puede expresarla tal como lo haría en una conversación con otros humanos. La
información devuelta no se muestra en una pantalla, sino que es leída en voz alta por el
asistente (la representación del sistema). En adición a la entrada literal, el sistema se sirve de
información adicional (contexto, comportamientos pasados) para estimar qué se le está
pidiendo. Esta interpretación inteligente requiere que el sistema aprenda sobre el usuario para
poder corregir su comportamiento. La principal ventaja de una VUI es que los usuarios que
interactúen con ella pueden hacerlo sin utilizar sus manos o su vista.
Las interfaces de voz tienen una forma de capturar la imaginación. En 1986, le pedí a un grupo de 57 profesionales de la computación que pronosticaran el mayor cambio en las interfaces de usuario para el año 2000. La respuesta principal fue la entrada/salida de voz, que obtuvo el doble de votos que las interfaces gráficas de usuario. Puede ser difícil de recordar, pero en 1986, no había garantía de que la interfaz gráfica ganara. Fue utilizado principalmente por las máquinas Macintosh
35
´similares a juguetes´, no por los sistemas ´serios´utilizados por los profesionales de IT. Ahora, tres años después del objetivo de la predicción, las GUI son claramente la interfaz de elección. (Nielsen, 2003).
A veces, los comandos hablados son una funcionalidad adicional en un sistema que opera
principalmente sobre una interfaz gráfica, como en el caso de Siri, el asistente de Apple que
coexiste con la interfaz gráfica del iPhone. Las VUIs pueden ofrecer un segundo modo de
interacción cuando otros medios están disponibles. En otros sistemas, las VUIs son la interfaz
principal de dispositivos que no cuentan con un soporte para GUIs, como en el caso de Google
Home o Amazon Echo.
El potencial de las interfaces de voz es notable en situaciones específicas en donde la
combinación más tradicional de teclado-cursor-pantalla podría ser problemática: Para
usuarios con visión nula o reducida, problemas motrices como temblores o espasmos,
usuarios en situaciones que requieran de sus manos o sus ojos como cuando se está
manejando, reparando un artefacto, o cocinando, y para usuarios que no cuenten con los
mencionados dispositivos periféricos y accedan a un sistema a través de una llamada
telefónica.
En 2017, el Pew Research Center, un think tank con sede en Washington D.C (nacido como
un proyecto de encuestas de opinión operado por el Times Mirror, del grupo de Los Angeles
Times, un periódico de circulación diaria de Los Ángeles, California) condujo una investigación
sobre los asistentes de voz inteligentes que arrojó como resultado más importante que el 46%
de los encuestados (sobre una muestra de 1057 ciudadanos de Estados Unidos) utilizaban
asistentes de voz digitales. El 56% de los encuestados lo hacían a través de su smartphone,
tablet o computadora, y el 8% a través de un dispositivo stand alone (aislado, que no depende
de otros dispositivos como un smartphone para funcionar). (Pew Research Center, 2017).
Las interfaces conversacionales habitan tanto dispositivos especiales construidos
especialmente para este tipo de interacción, como Amazon Echo, o conviven en smartphones
con interfaces gráficas, como es el caso de Siri (Apple), Google Assistant o Bixby (Samsung).
Acerca del principal motivo por el cual las personas utilizan dichos asistentes, el 55% de los
36
encuestados coincidieron en poder interactuar sin tener que usar sus manos, el 23% indicó
que lo usaba porque era divertido, y el 22% seleccionó que hablar se sentía más natural que
tipear. Sin embargo, cuando se indagó sobre la performance de estos asistentes, el 39% de
los encuestados dijo que el sistema respondía correctamente a sus comandos la mayor parte
del tiempo, 39% buena parte del tiempo y el 16% no tan frecuentemente. (Pew Research
Center, 2017).
El contexto es un elemento crucial para las interfaces de voz, en tanto que la interpretación
de las necesidades de un usuario está determinada por la acción que está realizando en ese
momento, en ese lugar. Retomando la metáfora de las interfaces como conversaciones, Erika
Hall reconoce que, aunque leer la habitación sea un trabajo arduo, cuando un sistema es
bueno conociendo el contexto, más conversacional puede ser su desempeño: “La capacidad
de responder al contexto es la diferencia fundamental entre documentos y conversación.
Cuanto más pueda un sistema responder adecuadamente y evitar causar dolor, más se
comportará como un buen interlocutor” (Hall, 2018).
Hall resalta que incluso cuando un dispositivo pueda recolectar datos como georreferencia,
fecha, hora o clima, la investigación de usuarios como disciplina UX provee insights
accionables de calidad. Otro estudio, conducido por Kathryn Whitenton y Raluca Budiu,
directoras de Estrategias Digitales e Investigación respectivamente, del grupo
Norman/Nielsen, resalta la paradoja de los asistentes inteligentes: su baja usabilidad y su alta
adopción.
Según insights de este estudio, los usuarios de asistentes de voz interactúan con estos
sistemas para realizar tareas de recuperación de información de baja complejidad, como
obtener información del clima, escuchar música o activar alarmas. Kathryn Whitenton aclara:
Los smartphones con VUIs pueden acompañar a un usuario a todos lados, mientras que los dispositivos como Amazon Echo están restringidos a un sitio específico por su tamaño y su necesidad de estar constantemente conectados a una fuente de alimentación. Pueden operar solo dentro del ambiente hogareño. Pero paradójicamente, dentro de este ambiente este dispositivo comparativamente más aparatoso hace posible mucha más flexibilidad para los usuarios, quienes no necesitan trasladarlo consigo para acceder instantáneamente a sus funcionalidades. (Whitenton, 2016).
37
Las posibles acciones que una persona pueda realizar cuando no está sentada frente a un
monitor o no está sosteniendo un teléfono son mayores y más libres. Teniendo en cuenta la
importancia de la información sobre el contexto, Whitenton advierte:
La usabilidad de un sistema de voz aumenta drásticamente según cuánto sepa sobre el entorno circundante. Debido a que la voz es menos rica que las pantallas visuales, los diseñadores de voz no pueden confiar en que los usuarios seleccionen información importante o creen conexiones entre elementos de datos separados. Hacerlo será responsabilidad del sistema. El diseño contextual se volverá importante, al igual que la administración estricta del tiempo del usuario: la computadora no debería hablar sin parar sobre cosas que son de mínima importancia. (Nielsen, 2003).
Cuando el modo de interacción primario se realiza a través de una interfaz de voz, el sistema
requiere una frase de activación para comenzar a operar. Y para operar exitosamente, el
sistema debe comprender qué se le está pidiendo. En una GUI, los usuarios son presentados
con una serie de opciones sobre la cual pueden elegir.
En cambio, una interfaz de voz requiere que sus interlocutores estén al tanto de qué tipos de
comandos pueden usarse y qué tipo de acciones pueden realizarse, y está limitado a la hora
de brindar esos datos por la cantidad de información que un usuario puede almacenar en su
memoria.
Este escenario presenta varias dificultades: los sistemas que reciben entradas de voz deben
entender los comandos dictados en lenguaje natural y entrenar a los usuarios respecto de las
acciones disponibles. Al mismo tiempo, el diseño de la salida debe tener en cuenta la atención
y la memoria de trabajo del usuario:
Es más fácil seleccionar un ítem deseado de una lista desplegable cuando toda la lista está visible en una pantalla, que seleccionarlo después de haber escuchado, uno por uno, todas las opciones disponibles. La voz es un medio de una dimensión con cero persistencia, mientras que una pantalla es un medio de dos dimensiones que combina persistencia (la lista puede mirarse por el tiempo que se desee) con actualización selectiva (un usuario puede ingresar un valor en un campo de la pantalla, sin alterar todo el resto de lo que está viendo). (Nielsen, 2003).
En el ejemplo de la lista, la memoria humana es una restricción sumamente importante para
una VUI: requiere que el usuario almacene momentáneamente todas las opciones mientras
toma una decisión.
38
La naturaleza social del lenguaje hace que las personas proyecten cualidades
antropomórficas en los asistentes de voz. En un estudio realizado por Page Laubheimer y
Raluca Budiu para el Nielsen/Norman Group en 2018, las autoras analizan las actitudes hacia
distintos asistentes de voz, y dividen a los usuarios en dos grandes grupos: aquellos que usan
la misma estructura de lenguaje que para con otros humanos, y aquellos que intentan formular
sus pedidos de manera más eficiente para aumentar las chances de ser entendidos,
comenzando su pedido con las palabras clave de sus búsquedas, eliminando artículos o
vaciando la oración de estructura gramatical: “OK Google, eventos en Londres última semana
de Julio” (Budiu y Laubheimer, 2018).
El primer grupo solía finalizar la interacción agradeciendo al asistente y formulaba sus pedidos
en la forma de “Podrías decirme”, “Por favor”. Estos participantes mostraban una actitud más
positiva hacia los asistentes, se referían a estos asignándole un género y hablaban de ellos
como si fueran seres humanos, incluso explicando, en posteriores entrevistas, sus
comportamientos como si fueran personas: “Un usuario dijo ´Su mente se queda en blanco.
Ella está como '¿Qué quiere esta señora de mí? ¡Déjame en paz!'´ Cuando Alexa emitió un
pitido, presumiblemente para indicar falta de comprensión”. (Budiu y Laubheimer, 2018).
Ante preguntas más complejas, las autoras señalan que los usuarios consideraban muy difícil
o imposible obtener respuestas satisfactorias. Las frases eran descompuestas en oraciones
más simples y directas.
Sin embargo, existía la sensación de que los asistentes podían responder incluso a preguntas complejas si uno "aprendía a hacer la pregunta". Un participante comparó al asistente con un sistema de archivos con muchos archivos: el truco consiste en encontrar las preguntas adecuadas con las que acceder a la información de esta base de datos. (Budiu y Laubheimer, 2018).
La paradoja de los asistentes de voz es doble: no sólo han logrado una alta penetración en el
mercado a pesar de su baja usabilidad, sino que demuestran que, bajo la definición de Hall,
las interfaces de voz pueden no ser conversacionales, o al menos no tan buenas compañeras
de conversación como las buenas interfaces gráficas tradicionales:
39
Las interacciones conversacionales son intercambios cooperativos que ayudan a los humanos a alcanzar sus metas de una manera agradable, eficiente y natural. Esto no implica que la interacción que se siente más natural y sin esfuerzo será una conversación de lenguaje natural. Ya sea a través de voz o texto, una interfaz de conversación puede ser una carga si la aplicación es compleja o el sistema no es lo suficientemente sólido como para adivinar correctamente la intención del usuario (Hall, 2018).
La promesa de los sistemas de brindar maneras más naturales de interactuar a través de la
voz genera grandes expectativas en los usuarios, quienes esperan, como se les ha hecho
creer, que estos tipos de interacciones serán igual de fluidas que conversar con un amigo por
teléfono. Fallar a esta promesa puede conducir al tipo de frustración que se supone deberían
evitar: “El ser humano y la máquina pueden estar conversando, pero no cooperan” (Hall,
2018).
Alan Cooper realiza la misma observación sobre las expectativas puestas en los asistentes
de voz:
Un problema importante con los agentes animados ‘inteligentes’ es que al emplear el antropomorfismo, el software aumenta la apuesta por las expectativas del usuario sobre la inteligencia del agente. Si no puede cumplir con estas expectativas, los usuarios se enfurecerán rápidamente, tal como lo harían con un empleado de ventas en una tienda departamental que dice ser un experto en sus productos, pero que, después de algunas preguntas simples, demuestra ser incompetente (Cooper, 2007).
Las alternativas ante las interfaces gráficas tradicionales son necesarias, pero también es
necesario entender cómo las interfaces de voz pueden volverse conversacionales en casos
de uso quizás muy distintos a las transacciones para las cuales los productos de hoy en día
están pensados. Desde siempre, las personas se valen de mecanismos intuitivos para
entablar conversaciones, no sería inteligente pretender que lo hagan de otra manera. Pese a
que las interfaces de voz mejoran rápidamente su capacidad para comprender correctamente
el lenguaje humano, todavía existen desafíos importantes en el modelo social y mental que
impiden una interacción natural. Es menester trabajar con las limitaciones de la tecnología
actual, y no esperar que nuevas tecnologías reemplacen los enfoques más tradicionales, allí
donde éstos han probado su eficacia.
40
Si se comprende que a veces las palabras no son el mejor medio para cumplir un objetivo, se
puede imaginar un ecosistema de interacciones fluidas en donde los usuarios se muevan sin
fricciones entre distintos tipos de UIs, según cuál sea la más adecuada para determinada
tarea.
Los sistemas se están expandiendo para brindar soluciones más integradas: el Echo Show
reintroduce una pantalla para acompañar al Amazon Echo original, proponiendo un modo
primario de voz, pero ahora con soportes visuales. Se pretende conciliar lo que pareciera ser
lo mejor de ambos mundos: la voz como método de entrada principal y la pantalla como
método de salida más eficiente. Es posible producir una experiencia de usuario holística
aprovechando las fortalezas de cada estilo de interacción. El capítulo siguiente está orientado
a explorar un conjunto aún más diverso y experimental de interfaces que parecen amenazar
las concepciones tradicionales de lo que es un buen diseño visual.
41
Capítulo 3. Displays transparentes
Este capítulo explora la evolución de otros soportes de interfaces gráficas y estudia la
evolución de soportes físicos menos comunes para alojar interfaces, la tecnología que los
hace posibles, sus desafíos y limitaciones en el mercado actual y los usos de la misma en un
futuro muy cercano. Se analiza el mercado en particular, tomando como fuentes distintos
portales periodísticos especializados en tecnología, documentación específica de los
fabricantes y papers relativos a las pantallas transparentes.
3.1 Realidad aumentada
La realidad aumentada (AR por sus siglas en inglés), Realidad Mixta o Realidad Mediada por
Computadora es una tecnología que integra entradas en tiempo real del mundo existente y
genera una salida que combina dichas entradas con elementos superpuestos que operan y
aumentan la información sobre los datos reales. Toma la capa de realidad y le superpone una
capa adicional de información relevante al contexto, por eso es comúnmente entendida como
una mejora del mundo real.
Aunque comparte las respuestas contextuales en tiempo real a las acciones e interacciones
de los usuarios con el entorno con la realidad virtual (VR por sus siglas en inglés), se diferencia
de ésta en que la AR no aísla a sus usuarios en un entorno completamente simulado: para
experimentar la realidad virtual es necesario contar con unos visores especiales que se
montan en la cabeza para generar una experiencia completamente inmersiva.
En cambio, los visores o dispositivos que soportan realidad aumentada permiten a sus
usuarios continuar interactuando con el mundo físico real. La capa de información superpuesta
por el sistema puede tener elementos constructivos, aditivos al ambiente, o destructivos, que
enmascaran el ambiente. Así, la AR altera la percepción de un entorno real en tanto que lo
aumenta y recorta, pero no lo reemplaza.
Para que una tecnología se entienda como AR debe responder contextualmente a la
información externa, interpretar los gestos y las acciones que se están llevando a cabo en
42
tiempo real sin comandos de por medio, y estar presente sin limitar el movimiento de los
usuarios en el ambiente. Las interfaces de AR son interfaces de usuario sin comandos, en
donde las tareas posibles de ser realizadas se llevan a cabo utilizando información contextual
capturada por el sistema y no a través de comandos explicitados por el usuario. Para
interpretar el ambiente y añadir esta capa de información, un agente del sistema corre en un
plano secundario para analizar la variedad de entradas, procesar la información y actuar sobre
ella.
Aunque el concepto de realidad aumentada no es nuevo, la variedad de industrias que la está
aplicando está consolidando los dispositivos de AR como una de las tecnologías emergentes.
Los usos principales de la realidad aumentada son militares (como se ve en el apartado de
HUDs); industriales o B2B (en donde se introduce AR en la línea de producción de máquinas
complejas como motores, aviones, automóviles, en un mercado dominado ampliamente por
Microsoft Hololens); también es empleada en arquitectura, diseño, urbanismo y real estate;
medicina (cirugía); retail; arte y entretenimiento.
Lo cierto es que los sistemas de asistencia para estacionar automóviles y la industria de la
aviación utilizan AR hace años. En el asistente de estacionamiento, la computadora del auto
toma en cuenta la posición del volante, calcula la distancia entre el vehículo y los objetos que
lo rodean y determina su trayectoria. Como salida, la computadora aumenta esta entrada ya
sea reproduciendo un sonido que varía en intensidad a medida que el vehículo retrocede o
superpone, en el caso de haber una pantalla, símbolos de proximidad e imprime la trayectoria
en la transmisión de video de la cámara trasera.
En materia de educación, la realidad aumentada fomenta la interactividad y el engagement de
los estudiantes al mismo tiempo que minimiza la curva de aprendizaje de nuevas tecnologías.
La presentación de la información de maneras atractivas podría mejorar la capacidad de los
estudiantes para recordar los temas aprendidos.
Arloon y QuiverVision son empresas creadoras de aplicaciones de realidad aumentada que
abarcan más de una disciplina académica: sus soluciones para química, geometría,
43
matemáticas, astronomía, anatomía y plantas están diseñadas para niños y adolescentes en
edad escolar.
La realidad aumentada también está permeando el entretenimiento, especialmente tras la
pandemia. En abril del 2020, la banda estadounidense de rock indie Real Estate impulsó el
Quarantour, una gira virtual en donde los fans podían, a través de sus dispositivo iOS o
Android, colocar el escenario del concierto en la superficie que quisieran.
El retail también está incorporando elementos de AR. Cada vez más marcas permiten a sus
clientes probar virtualmente una variedad de productos antes de comprarlos. La aplicación de
Sephora desarrolló una plataforma para aplicarse maquillaje mediante filtros, las marcas de
pintura permiten probar virtualmente colores en las paredes, y IKEA permite ubicar los
muebles a la venta en el hogar. Estas opciones complementaban las tiendas físicas haciendo
más interesante la experiencia offline, pero ahora potencian el canal de ventas online y
facilitan a los consumidores probar objetos antes de realizar una compra.
3.2 HUDs
Una de las primeras incursiones en el desarrollo e implementación de los displays
transparentes se puede observar en los Head-Up Displays de proyección incorporados en las
aeronaves de uso militar desde 1958. El HUD de proyección obtiene su nombre en parte
debido a una de las principales ventajas que introdujo en el ecosistema de la aviación: la
posibilidad de que los pilotos de las aeronaves pudieran mantener la cabeza erguida (heads-
up) y la vista apuntando hacia adelante en vez de inclinar la cabeza hacia abajo para obtener
información de los instrumentos dentro de la cabina.
El origen de la segunda parte del nombre, de proyección, proviene de la tecnología utilizada
para crear el dispositivo, que consta de una unidad de proyección, un combinador y un
componente computacional para la generación de la imagen. Las principales ventajas que
este dispositivo presentaba cuando la tecnología fue introducida en la aviación no eran propias
del dispositivo en cuestión, sino de los displays transparentes como medio para presentar
44
contenido, en este caso información de los instrumentos de la cabina, frente al piloto sin limitar
la capacidad de observar lo que sucedía detrás del display.
Una de las desventajas de esta tecnología emergente era su costo, tanto en espacio físico
como en manufactura. Adicionalmente, el ángulo de visión de estos displays era limitado, por
lo que el piloto debe ubicarse en una posición precisa para poder observar la información
presentada. Esto se debe principalmente al funcionamiento de la unidad de combinación.
Existe otro tipo de HUDs que se emplean en los videojuegos. Aunque no son de proyección,
estas interfaces difieren de la interfaz de juego propiamente dicha, en tanto que no es
interactiva. Su objetivo es proporcionar información valiosa de la partida. Los HUDs
empleados en los juegos permiten a los usuarios concentrarse en sus metas al mismo tiempo
que pueden volver la vista hacia los márgenes superiores o inferiores de la pantalla para
controlar información vital.
Los HUDs similares a los de la industria de la aviación están siendo implementados en
vehículos comerciales. Empresas como BMW, Audi, Mercedes Benz o Hyundai ya incluyen
HUDs en sus diseños. A diferencia de los HUDs utilizados en aviación, estos agregados no
necesitan proporcionar al conductor información sobre la ubicación respecto de la ruta, ya que
su entorno es suficiente. Según un paper publicado en 2018 sobre Heads-up Displays en
automóviles por Caño, Maroto y Villegas, la información representada en el dispositivo está
relacionada principalmente a:
Características de la vía como límite de velocidad de la carretera; navegación (por ejemplo, visualización de mapas); operaciones del automóvil como la velocidad del automóvil, distancia a una meta o información sobre el camino a una objetivo (GPS) y giros del coche. (Caño, Maroto y Villegas, 2018).
Los elementos que componen un HUD automotriz consisten, principalmente, de una fuente
de imagen, un set de lentes y espejos, y una superficie de combinación en la que se proyecta
la imagen. Esta superficie está colocada generalmente sobre el parabrisas.
Los autores comparan estos dispositivos contra los HDD o Head-Down Display, ubicados
típicamente en el tablero, para encontrar que respecto al “tiempo de respuesta a un evento
45
urgente fue más rápido con el HUD y el control de velocidad fue más consistente (con
variaciones de velocidad bajas) que con el HDD.” (Caño, Maroto y Villegas, 2018).
Además, señalan que el uso del HUD causó menos estrés para los conductores, y dado que
las HDDs están integradas al tablero de control, el uso del HUD redujo “la frecuencia y la
duración de las miradas hacia la pantalla”, y dada la ubicación de la información en el HUD,
los conductores pueden recibir información sin bajar la mirada, evitando así “lagunas de
atención”. Los autores también mencionan que se ha encontrado que “los conductores eran
más conscientes de la velocidad de sus vehículos y se adherían más al límite de velocidad
mientras se usa un HUD”.
El texto así mismo menciona las mejoras que han experimentado este tipo de HUDs. Por
ejemplo, los ajustes a la luz ambiental permiten una mejor calidad de imagen tanto de día
como de noche. Sin embargo, existen aún ciertos problemas. Comparados con los HDDs, los
conductores expresaron mayor incomodidad para familiarizarse con el sistema. Un dato
importante señala que si la información expuesta no está directamente relacionada al acto de
manejar, como por ejemplo mostrar qué música se está reproduciendo, la distracción aumentó
de forma exponencial:
La llamada captura cognitiva o de atención, es decir, cuando la atención del conductor se aleja inconscientemente de la carretera y se centra en procesar la información presentada por el HUD, se ha identificado como una de las desventajas. La resultante tunelización perceptual puede provocar un retraso en la reacción o una ausencia total de respuesta a los cambios situacionales en el entorno. (Caño, Maroto y Villegas, 2018).
Los autores citan otras investigaciones que han propuesto abordar el problema de la atención
dividida utilizando interfaces auditivas para evitar una pérdida de información en la memoria
de trabajo del conductor (Sodnick, 2008).
46
3.3 Realidad aumentada en smartphones
Actualmente la mayor parte de las experiencias con realidad aumentada son mediadas por
los smartphones. Los juegos Ingress y Pokémon Go, en los años 2015 y 2016
respectivamente, fueron los responsables de acercar esta tecnología a las masas a través de
sus aplicaciones para teléfonos móviles. Pokémon Go hizo realidad la fantasía de cientos de
millones de usuarios alrededor del mundo, quienes pudieron cazar pokemones en sus casas,
los parques, y sus lugares de estudio y de trabajo a través de sus teléfonos. El sitio web
Business of Apps ha calculado que los usuarios únicos del juego alcanzaron los 147 millones.
(Business of Apps, 2021). Si Pokémon Go fue el detonante de esta tecnología en el ambiente
gamer, Snapchat hizo lo propio en el reino de las redes sociales. Desde 2016, la realidad
aumentada ha ido ganando popularidad gracias a estas plataformas, especialmente en
Snapchat e Instagram.
Un artículo publicado en 2019 por el estudio independiente de Marketing Interactivo Indestry
repasa la historia de los filtros de AR en social media. Aunque el público general le atribuye a
Snapchat el podio de la realidad aumentada para filtros, la tecnología provino de Looksery,
una startup ucraniana especializada en tecnologías de seguimiento facial, modificación facial
y optimización del ancho de banda para videos en tiempo real.
Snapchat adquirió Looksery en 2015 por la considerable suma de ciento cincuenta millones
de dólares y luego presentó su próximo gran producto llamado Lenses, que utiliza tecnología
de realidad aumentada para integrar elementos renderizados en 3D en la imagen de la
cámara. (Indestry, 2019). Tras el éxito instantáneo de Snapchat Lenses, la compañía creó
más de tres mil filtros en una aplicación de escritorio gratuita llamada Lens Studio en 2017.
El objetivo de esta aplicación era acercar las posibilidades de la AR no solo a los usuarios
promedio sino también a los anunciantes y creadores de contenido, que ahora podrían dar
vida a sus creaciones de una manera sencilla y soportada por una de las redes sociales con
mayor crecimiento. Para 2019, la aplicación de escritorio iba por su segunda versión estable
47
que permitía transformar “mascotas, manos, cuerpos y puntos de referencia icónica de todo
el mundo” (Indestry, 2019).
Aunque tras un período turbulento en 2018 Snapchat perdió parte de sus usuarios debido a
un rediseño que no fue bien recibido, desde entonces sus usuarios activos han aumentado de
manera estable en un 8% hasta llegar a los 203 millones de usuarios únicos activos para el
segundo trimestre de 2019 (Indestry, 2019).
Tras haber -supuestamente- sido rechazado en dos oportunidades por Snapchat, Facebook
creó una aplicación similar que no logró penetrar el mercado y tras dos años de haber sido
publicada, fue removida de las tiendas de aplicaciones de Apple y Google en el 2016, el año
en el que finalmente Instagram lanza sus stories, un formato de post con muchas similitudes
al funcionamiento de Snapchat. La carrera por el podio de la realidad aumentada para fines
sociales entre Snapchat y Facebook continuó, y el mismo día de abril de 2017 en el que
Snapchat presentara sus World Lenses, Facebook presentó a sus usuarios beta Camera
Effects, su herramienta de AR luego rebautizada Spark AR, que se expandió a Instagram
(Indestry, 2019). Dos años después en agosto de 2019 Facebook liberó la aplicación al público
general de anunciantes, permitiendo a todas las personas creadoras de contenido y empresas
fabricar historias con realidad aumentada, lanzar sus campañas publicitarias y medir su ROI,
desde la misma plataforma: los filtros faciales ya no eran solamente para las stories de
usuarios comunes.
Para este momento, la realidad aumentada está a punto de convertirse en un aspecto común
de la vida cotidiana. En 2017, Apple presentó su plataforma ARKit y Google lanza prototipos
de API (interfaz de programación de aplicaciones) web. Sin embargo, la tracción principal de
la realidad aumentada ha sido posible principalmente gracias a las cámaras de los
smartphones. La escala de esta modalidad temprana puede explicarse gracias a la ubicuidad
de estos dispositivos.
Sin embargo, los beneficios observables en cantidad no se trasladan a beneficios cualitativos.
Aunque los teléfonos móviles sean hoy el vehículo de AR por excelencia, estos no son el
48
soporte ideal. Al no ser un dispositivo nativo para esta tecnología, el smartphone eclipsa con
sus actividades primarias el poder de la realidad aumentada. El uso de los teléfonos para
actividades de AR se muestra incómodo y poco ergonómico, obligando a los usuarios a
experimentarla por sesiones cortas que se ven interrumpidas por la fatiga natural de los brazos
al tener que sostener los aparatos a la altura de la cara durante períodos prolongados.
Los teléfonos móviles demuestran tener una orientación natural hacia abajo y, aunque
soporten un desarrollo que integra gráficos con perspectivas lineales, su diseño limita la
duración de las sesiones, que se sienten poco naturales. En otras palabras, la realidad
aumentada es una tecnología que se integra al smartphone, pero no es nativa. Los
dispositivos capaces de alojar cómodamente a la realidad aumentada son los visores,
anteojos o headsets que permiten una orientación natural, liberan ambas manos para
interactuar con los objetos, y siguen naturalmente los movimientos de la cabeza (y algunos,
como HoloLens 2, de los ojos).
El verdadero atractivo para los consumidores promete llegar con la masificación de los visores
o anteojos. En este respecto, los dispositivos más avanzados como HoloLens de Microsoft y
Apple Glass pueden abrir el juego con aplicaciones más versátiles y potentes que exploten
mejor el mayor rango de movilidad que tienen los usuarios al usar este tipo de aparatos,
comparado con un smartphone tradicional.
3.4 Visores
Los dispositivos soporte de AR presentan varias formas, algunos como Google Glass o
HoloLens se utilizan montados a la cabeza como visores o anteojos. Otros, aún en etapa
experimental, se aplican como lentes de contacto o pantallas de retina virtual que proyectan
directamente una trama en la retina del ojo. En un extremo, los funcionales pero aparatosos,
pesados y estilísticamente insostenibles HoloLens dominan el mercado B2B, con Microsoft
orientando su producto al ambiente donde mejor se desenvuelve: el corporativo. Su promesa
se enfoca en reducir los costos operativos de sus grandes clientes a través de visores de 600
49
gramos con un cuerpo de fibra de carbono valuados en tres mil quinientos dólares americanos.
La empresa incluso atiende sectores específicos con HoloLens integrados a cascos de trabajo
o ediciones industriales certificadas bajo normas ISO para trabajo en ambientes altamente
regulados. En la otra punta, Apple anunció a principios del 2021 sus anteojos Glass, sin fecha
de salida al mercado exacta aunque se esperan para el mismo año. Con un peso prometido
que se ubica entre los cien y doscientos gramos, los Glass siguen la línea de diseño de la
compañía: con un marco liviano, moderno y de terminación elegante, estos visores se
muestran como un accesorio cotidiano más que un elemento de trabajo, con el que los
individuos podrían realizar tareas que hoy en día ejecutan desde sus teléfonos, como revisar
correos electrónicos, recorrer la ciudad con navegación asistida o consultar el calendario.
Las interfaces de usuario sin (o casi sin) comandos como las de realidad aumentada brindan
oportunidades únicas para la experiencia de usuario. Considérese un mecánico de aviones
realizando una tarea de mantenimiento, inspeccionando partes específicas para verificar
cuánto tiempo han estado en servicio. Utilizando una interfaz común, el mecánico debería
guardar de algún modo el número de pieza: anotándolo, tomando una foto en su teléfono,
escaneando un código QR presente en la pieza, o escribiéndolo en una hoja de papel, para
luego acceder, en un segundo paso, a la información de la pieza. Pero con un visor como
HoloLens, el ingeniero podría sencillamente y sin mayor esfuerzo posar su vista por unos
segundos sobre la pieza para comprobar su estado. La capa de información ayudaría al
mecánico a verificar la pieza in situ, sin tener que recurrir a otros dispositivos externos más
que su visor, pudiendo repetir la operación para cuantas piezas necesite, rápidamente
pudiendo diagnosticar el estado de toda la máquina.
En este tipo de escenarios, la realidad aumentada optimiza la experiencia de usuario
disminuyendo el costo de interacción para realizar tareas, reduciendo la carga cognitiva y
minimizando los cambios de atención al integrar múltiples fuentes de información.
Microsoft no ha divulgado una fecha para la cual HoloLens estará disponible para el
consumidor común. Respecto a este tema, el líder del desarrollo del proyecto, Alex Kipman
50
afirmó que HoloLens tendrá una versión para el consumidor “sólo cuando el mercado esté
listo.” (BBC, 2016).
3.5 Pantallas transparentes
A grandes rasgos, hay dos tipos de pantallas que aplican tecnología de visualización
transparente: las absorbentes o LCD, y las emisoras (LED, emisores de campo alto y
electroluminiscentes). Los primeros dispositivos funcionan reduciendo la intensidad de luz que
pasa a través de ellos, selectivamente. Los segundos aumentan selectivamente la luz que los
atraviesa. Algunas pantallas combinan ambas tecnologías para superar las limitaciones que
suponen. Las pantallas emisoras intercalan elementos emisores opacos, invisibles al ojo
humano y con áreas parcialmente transparentes, logrando así una transparencia parcial.
Uno de los principales saltos tecnológicos en materia de pantallas fue el LCD o Display de
Cristal Líquido, que utiliza las propiedades de modulación de luz del cristal líquido combinado
con capas polarizadoras que permiten el paso de ondas de luz con una polarización
específica, a la vez que bloquean las ondas de luz con otras polarizaciones.
Esta tecnología fue introducida comercialmente en la década de 1970 como displays
monocromáticos en calculadoras de bolsillo y relojes de pulsera. En la década del 80 se
inventaron los displays LCD a color, dando lugar a un cambio radical en la manufactura y
comercialización de televisores.Las principales ventajas de este tipo de displays fueron
inicialmente una mayor calidad y fidelidad de la imagen, sumado a la diferencia en tamaño y
peso de los dispositivos con pantalla, principalmente televisores y monitores de computadora,
posibilitando la existencia de computadoras portátiles con pantalla a color. Una vez que la
industria de la manufactura electrónica avanzó lo suficiente, la nueva ventaja fue el bajo costo
de fabricación. Aun así, en las tempranas etapas del desarrollo se manifestó una de las
principales limitaciones y desventajas de este tipo de displays: necesitan una fuente de luz
externa para poder ver la imagen claramente, es decir, la imagen debe ser observada a
contraluz. Adicionalmente uno de los efectos secundarios de modular la luz a través del cristal
51
líquido es su absorción, disminuyendo así el brillo de la fuente de luz utilizada para iluminar
los paneles LCD, limitando el brillo máximo de las pantallas de los dispositivos que los utilizan.
En cuanto a la aplicación de estos paneles como display transparente, esta desventaja se
hace aún más presente: al tener una opacidad alta, estos tipos de paneles son realmente
utilizables cuando se encuentran frente a una fuente de luz de gran potencia, por lo que la
aplicación ideal es dentro de un sistema cerrado o controlado, pudiendo así garantizar la
cantidad de lúmenes necesarios para la correcta apreciación del contenido presentado en el
display.
El siguiente descubrimiento que marcó una gran diferencia en la industria de los displays
fueron los paneles LED y OLED (Organic LED). El nombre de estos paneles proviene de la
tecnología utilizada para su construcción: LEDs o Light Emitting Diodes (Diodos emisores de
luz). Estos displays están compuestos por una colección de LEDs, usualmente dispuestos en
conjuntos de tres, uno rojo, uno verde y uno azul, los cuales al variar su intensidad individual
alcanzan el color deseado. Cada uno de estos conjuntos conforman lo que se conoce como
un pixel. Una gran ventaja de estas pantallas es que a diferencia de sus predecesoras, no
necesitan una fuente de luz externa para que la imagen sea visible: los LEDs producen su
propia luz. A su vez, la luz generada es del color deseado, por lo que una capa de
manipulación de luz tampoco es necesaria para su funcionamiento.
De esta manera, no solo se logra reducir la cantidad de capas de diferentes materiales y
compuestos necesarios para la construcción de un panel disminuyendo el grosor del mismo,
sino que al eliminar la capa que anteriormente absorbía la luz, resultan más eficientes y
presentan menor opacidad.
Estas son características que aportan un valor significativo cuando estos paneles se utilizan
para displays transparentes: al no necesitar una fuente de luz externa y tener el potencial de
una opacidad reducida, se vuelven más versátiles, ampliando las posibilidades de ser
implementados en una variedad mucho mayor de aplicaciones, ya que no se encuentran
circunscritos a la utilización en sistemas cerrados.
52
Sin embargo, como desventajas se puede señalar que los materiales orgánicos utilizados para
la fabricación de los paneles LED son sensibles al paso del tiempo, la humedad, luz solar y el
calor. Al ser expuestos a estos factores, los displays experimentan perdida de color y
degradación. Otro inconveniente de estos dispositivos es que a pesar de las superiores
prestaciones gráficas, son más costosos de fabricar que sus predecesores.
Las pantallas transparentes son objeto de experimentación y han sido comercializadas desde
principios del Siglo XXI. En 2009, Sony lanzó al mercado su teléfono celular “Ericsson Xperia
Pureness hands-on”. Sin cámara, sin pantalla de alta resolución, con limitadas bandas para
3G y con el sistema operativo rudimentario de la época, el teléfono ofrecía funcionalidades
básicas, sin embargo, contaba con una pantalla transparente (no táctil) en escala de grises.
Debido a sus limitadas características, el teléfono disfrutó de un corto período de fama debido
únicamente a su pantalla. (Engadget, 2009).
Tres años después, en 2012, NTT Docomo Inc., el operador de telefonía móvil predominante
en Japón, reveló un prototipo de pantalla táctil transparente que podía operarse de ambos
lados, en una demostración con un rompecabezas de un cubo de Rubik que podía manejarse
desde la superficie delantera y trasera, permitiendo maniobras multitouch complejas. El vocero
de NTT Docomo reconoció que la luz del sol aún era un problema, sin embargo, colocar un
objeto oscuro detrás del display parecía mejorar la visibilidad. La presentación se llevó a cabo
en la sede de la compañía, en donde la pantalla, según los dichos de los periodistas que
cubrieron el evento, se veía impresionante, e incluso más agradable a la vista que una pantalla
LCD retroiluminada. (The Verge, 2012).
Un año más tarde, Polytron Technologies, una empresa líder proveedora de electrónica y
vidrios de visión óptica con sede en Taiwán, anunció la comercialización de una pantalla
multitáctil transparente para los fabricantes de equipos originales. Su atractivo yacía en el
material de la pantalla, un OLED conductor que utiliza moléculas de cristal líquido para mostrar
imágenes. Cuando el teléfono está apagado, las moléculas de su pantalla forman una
composición blanca y turbia, pero una vez activadas con corriente eléctrica (que fluye a través
53
de cables transparentes), se vuelven a alinear para formar texto, iconos e imágenes (The
Verge, 2013).
Aunque el dispositivo no era completamente transparente por las limitaciones de espacio para
ubicar otros elementos como la batería tarjeta SIM, micrófono y cámara, el prototipo planteaba
ocultarlos bajo una capa de vidrio más oscura. La empresa prometía que el estadío final del
aparato contaría con dos pantallas multi táctiles, frontal y posterior. El prototipo no presentaba
un sistema operativo.
En una entrevista con The Verge, Sam Yu, el gerente general de Polytron, reconoció que la
compañía todavía está trabajando para integrar una batería de iones de litio más pequeña y
menos llamativa (The Verge, 2013).
Al repasar estos primeros intentos de displays transparentes cotidianos, surge la pregunta de
si una pantalla de estas características, dado el caso de uso de un teléfono, brinda algún valor
más allá de la novedad. Dado que la situación de uso más común para un teléfono es
sostenerlo con la mano, cabe preguntarse si sería de utilidad colocar una pantalla transparente
que deje ver el dorso de la mano. Pareciera ser que el esfuerzo por adaptar esta tecnología a
pantallas pequeñas (incluso a relojes pulsera inteligentes como el caso de Kisai Spider de la
compañía TokyoFlash), no vale la pena: "El desafío de usar una pantalla transparente en un
reloj de pulsera, y supongo que otra tecnología portátil, es que es necesario almacenar las
baterías en otro lugar", comentó Paul Cooper, gerente de marketing de Tokyoflash, en un
intercambio por correo electrónico con The Verge. Y agregó: “La tecnología de visualización
transparente puede ofrecer beneficios más obvios para los anunciantes, o en vidrieras
interactivas” (The Verge, 2013).
Otras aplicaciones y casos de uso son posibles cuando se piensan pantallas más grandes.
Panasonic, Xiaomi, Samsung y LG son los dos gigantes tecnológicos compitiendo por las
pantallas transparentes de gran tamaño: las pantallas presentadas en los últimos años se
orientan a televisores que ofician al mismo tiempo de artefactos decorativos, como es el caso
de la Transparent OLED TV de Shenzhen Konka Electronic, anunciada como “una caja de
54
exposición doméstica inteligente. Los usuarios pueden utilizar el espacio de exhibición para
guardar objetos y utilizar su modo bonsai” (la pantalla muestra pequeños árboles que
encierran objetos decorativos). Sus fabricantes afirman que “no es solo un televisor, sino
también un adorno espacial para mejorar la calidad de vida” (CES, 2021). Konka Electronic
obtuvo una mención de honor en la categoría de Componentes y accesorios de audio o video
para el hogar en la última edición de la CES, (Consumer Electronics Show), un evento anual
celebrado en Las Vegas y considerada una de las ferias de negocio del sector más importante.
Otras pantallas transparentes disponibles al público son Transparent OLED Signage de LG,
televisores de más de cincuenta y cinco pulgadas anunciados a principios de 2019 y Mi TV
LUX OLED Transparent Edition, comercializada por Xiaomi a partir de Agosto del 2020 en
China, a un precio de mercado de siete mil doscientos dólares. Otras aplicaciones de los
grandes displays transparentes son señalización de espacios y decoración de vidrieras o
paneles decorativos orientados al marketing y venta minorista. Las vidrieras con displays
pueden alojar los productos en su interior y mostrar textos o anuncios en los cristales. Algunos
eventos utilizan pantallas transparentes para realizar efectos visuales creativos que añadan a
la experiencia. En Diciembre del 2020, LG anunció su asociación con el fabricante sueco Assa
Abloy Entrance Systems para fabricar puertas corredizas automáticas con tecnología OLED
transparente, dirigidas a empresas. LG afirma que las puertas podrán “saludar a los clientes,
comunicarse con los empleados o mostrar anuncios” (The Verge, 2020).
Aunque Samsung había anunciado su retirada del mercado de pantallas OLED transparentes
en 2016, posiblemente debido a una comercialidad aún baja (The Korea Herald, 2016), el
gigante coreano patentó en Septiembre del 2020 un modelo de smartphone transparente. Un
año antes, LG patentaba su modelo de smartphone transparente plegable (The Verge, 2020).
Aunque en Argentina estas pantallas son aún poco comunes, existen al menos dos ejemplos
que pueden apreciarse en la Ciudad Autónoma de Buenos Aires: el primer caso son las
heladeras con pantalla LCD de Coca-Cola, presentes en las grandes cadenas de
55
supermercados del área. Las puertas de estas heladeras reproducen animaciones del logo y
publicidades de la marca.
El segundo caso de pantallas LCD transparentes puede verse en Foster Nutrition, el
autoproclamado “primer restaurante inteligente de Argentina” (La Nación, 2018). Este local
gastronómico situado en Microcentro propone una experiencia de compra mediada, de cara
al consumidor, enteramente por robots. Los clientes interactúan con pantallas para realizar su
pedido y los platos se entregan en casilleros con puertas de pantallas que anuncian el nombre
del cliente y el pedido, y van informando el estado de la preparación.
Si bien los displays transparentes no gozan de demasiada popularidad hasta el momento,
especialmente en Latinoamérica, el estado de desarrollo de los mismos y los tiempos de la
tecnología parecieran indicar que algún tipo de pantalla transparente interactiva, sea bajo la
forma de televisores o smartphones, llegará en los próximos años. La realidad aumentada y
los displays transparentes están atravesando un período divergente en donde las aplicaciones
son numerosas y las maneras de transformar la realidad abren mundos de posibilidades para
el diseño. En poco tiempo, los usuarios estarán expuestos a una miríada de opciones de
interfaces en soportes transparentes que cambiará la manera en la que interactúan con el
mundo, los dispositivos y su ambiente. Estos avances suponen nuevos desafíos a la hora de
diseñar las interacciones que cambiarán el mundo con ellos.
56
Capítulo 4. Análisis y métricas para pantallas transparentes
El objetivo de este capítulo es identificar técnicas y métricas pertinentes que ayuden a
determinar el éxito o el fracaso de una interfaz en una pantalla transparente, con especial foco
en los aspectos visuales e interactivos de los diseños. Se retoman los textos de Lund y Hall
para explorar maneras de medir la atención, se exploran las observaciones académicas
hechas sobre pantallas transparentes en el pasado, y se introduce el trabajo de campo
realizado de manera original para generar la propuesta final del siguiente capítulo.
4.1 Research generativo
El propósito de la investigación en UX es aprender por qué las personas hacen lo que hacen
frente a una interfaz. La investigación de usuarios es distinta a los testeos de usabilidad, sin
embargo, ambas aproximaciones son necesarias en el proceso de diseño. La investigación
de usuarios y de usabilidad pueden llevarse a cabo a través de distintos métodos, que deberán
elegirse criteriosamente teniendo en cuenta los tiempos del proyecto, el grado de desarrollo
del concepto, el presupuesto alocado y los objetivos específicos de esa ronda de
investigación. A grandes rasgos, las investigación puede dividirse, como se ha explicado
brevemente en el primer capítulo, en generativa y evaluativa.
El primer conjunto de métodos tiene como objetivo definir el entorno, y se inscribe en los
primeros estadíos de las distintas metodologías de diseño, como empatizar y definir dentro
del modelo de Design Thinking, o el primer diamante del modelo de doble diamante del
framework para la innovación creado por el British Design Council, usado mundialmente. Lo
que se busca responder en este primer tiempo son preguntas generales del tipo: cuál es el
problema, quiénes son los usuarios, cuáles son sus necesidades, qué es importante para
ellos, qué valoran y según qué criterios juzgan, cómo se manejan en su cotidianidad y qué
está pasando en su entorno inmediato cuando realizan las tareas relevantes (para un
determinado proyecto), qué áreas de oportunidad existen en los procesos que los potenciales
usuarios ya emplean y cómo resuelven hoy en día sus necesidades, cuáles son las
57
motivaciones internas y externas de estas personas, qué partes particulares del problema
general se espera solucionar. Las preguntas de este estilo ayudan a dirigir correctamente los
esfuerzos de diseño en la ideación de soluciones para problemas reales, entender con qué
limitaciones concretas se deberá trabajar, ya sean respecto de los dispositivos o de los
usuarios, y ajustar las próximas sesiones de investigación a cuestiones más específicas que
ayuden a definir y recortar el problema.
Desde una perspectiva ágil, los esfuerzos de un equipo de Investigación y Desarrollo de un
proyecto siempre deben estar dirigidos a bajar la incertidumbre y la ambigüedad para generar
hipótesis y decisiones informadas: cuanta mayor sea la información y el recorte del problema,
más fácil (y barato) será atacarlo por partes, recuperarse de errores o ideas equivocadas e
iterar el proceso. En este punto es importante el trabajo interdisciplinario colaborativo, a fines
de incluir actores de otras áreas que puedan sugerir otras posibles limitaciones que la solución
deberá contemplar, como por ejemplo cuestiones de presupuesto, equipo, problemas de la
tecnología actual o lecciones ya aprendidas de proyectos pasados que puedan extrapolarse
al actual.
Los métodos empleados en la investigación generativa buscan, entonces, generar insights
que guíen a los diseñadores en la ideación de soluciones. Muchos de los ejercicios empleados
en esta etapa son de naturaleza cualitativa y etnográfica: analizan y describen objetivamente
las dinámicas y los procesos desde el punto de vista de las personas participantes. En
palabras de Hall,
Radicalmente simplificada, la cuestión fundamental de la etnografía es: ‘¿Qué hace la gente y por qué lo hace?’ En el caso de la investigación de usuarios, agregamos ‘... ¿y cuáles son las implicaciones para el éxito de lo que estoy diseñando?’ (Hall, 2013).
El contexto de las personas usuarias incluye su entorno físico, sus modelos mentales, hábitos
y relaciones. El entorno físico es de especial importancia en cualquier proyecto que involucra
interacción con pantallas transparentes.
En primer lugar, se deberá tener en cuenta si los dispositivos estarán fijos, ya sea por su peso
y tamaño, como el caso de una TV, o embebidos en una superficie contenedora, como podría
58
ser el caso de ventanas, puertas o mamparas de vidrio. Cuestiones como distancia y altura
de las pantallas en relación a los movimientos naturales de los brazos, las muñecas y el cuello
(para evitar incomodidad y fatiga muscular) y el grado de privacidad del contenido que se
mostrará en pantalla tendrán un impacto directo en la forma y el tipo información que será
aceptable mostrar, y las interacciones que serán posibles de realizar.
Ahondar respecto de los momentos del día y el lugar específico en los que las personas
podrían interactuar con pantallas transparentes es importante para estimar la importancia de
la luz, sea natural o artificial. La incidencia de la luz solar, los reflejos y el brillo del dispositivo
impactarán directamente en decisiones de diseño visual que deberá contemplar valores
mínimos aceptables de legibilidad y contraste, limitando directamente los tamaños de los
textos, la paleta y la combinación de los colores.
A fin de crear diseños visuales que contemplen este tipo de necesidades, existen las Pautas
de Accesibilidad para el Contenido Web o WCAG por su nombre en inglés (Web Content
Accessibility Guidelines). Las WCAG son estándares técnicos estables y referenciables que
describen aproximadamente una docena de directrices organizadas alrededor de cuatro
principios: percepción, operabilidad, comprensión y robustez. Para cada directriz, existen tres
niveles de criterios de aceptación: A, AA y AAA. El criterio de aceptación al que adhiera un
diseño dependerá de las características de sus usuarios y la naturaleza de la interacción. Es
lógico suponer que, en el caso de pantallas transparentes, el criterio de aceptación bajo el
cual se deberá diseñar será el más alto.
En el análisis del entorno físico inmediato también será de extrema importancia contemplar el
fondo. Más adelante en este capítulo se mencionan experimentos realizados con pantallas de
UI transparentes solapadas, pero a diferencia de estos trabajos, el fondo o segundo plano de
las interfaces para soportes transparentes no es algo que pueda modificarse: solamente
puede operarse sobre el primer plano, la interfaz.
Considerar qué puede suceder en el segundo plano será parte del trabajo de los
investigadores y diseñadores.
59
No es lo mismo diseñar interfaces transparentes para ventanillas de avión, en donde el
segundo plano es relativamente homogéneo y no presenta detalles pequeños, salvo en los
momentos de despegue y aterrizaje, aunque la cantidad de luz varía ampliamente según sea
de noche o de día; diseñar para ventanillas de tren en donde el movimiento de los pasajeros
en la plataforma constituye un segundo plano muy ruidoso; o diseñar para una puerta de un
shopping que está constantemente iluminada por luces artificiales.
Habiendo concluído el proceso inicial de investigación y la consecuente etapa de ideación, las
siguientes etapas de prototipado y testeo presentan su propia batería de ejercicios para poner
a prueba el diseño.
4.2 Research evaluativo
Con el escenario más definido es que se comienzan a idear y prototipar las primeras
soluciones. Erika Hall (2013) recomienda testear de manera barata primero y dejar los
métodos más costosos para más tarde:
Descubre todo lo que puedas con prototipos en papel o bocetos rápidos antes de pasar a un prototipo. Descubre todo lo que puedas en la comodidad de tu propia oficina antes de mudarte al campo. Prueba con una audiencia general antes de probar con audiencias específicas que requieren más tiempo y esfuerzo de encontrar. (Hall, 2013).
Este tipo de investigación busca validar las hipótesis de diseño o refutarlas para iterar la
solución con un mejor diseño que se ajuste más a los usuarios y su contexto. El artículo de
Kara Pernice para Nielsen/Norman Group lo explica de la siguiente manera: “Un prototipo de
interfaz de usuario es una hipótesis: una solución de diseño candidata que se considera para
un problema de diseño específico. La forma más sencilla de probar esta hipótesis es observar
a los usuarios trabajar con ella” (Pernice, 2016).
Los prototipos pueden clasificarse, a grandes rasgos, como prototipos de baja o alta fidelidad.
Dependiendo de qué es lo que se busca evaluar (interacción, diseño visual, contenido o
navegación) un prototipo será de baja o alta fidelidad para cada una de estas verticales.
60
Un prototipo destinado a evaluar la interacción será de baja fidelidad si los enlaces a destino
no funcionan y son emulados por el facilitador del test (el mismo evaluador o un ayudante
pueden ir presentando distintas pantallas en papel a medida que el participante indica dónde
haría click), y será de alta fidelidad si la prueba es conducida mediante una computadora y la
respuesta a las acciones del usuario son automáticas y todos los enlaces del diseño son
funcionales.
Este tipo de prototipos de interacción de alta fidelidad suelen prepararse en programas como
InVision, Axure, Marvel, o en los mismos programas de diseño con funcionalidad de
prototipado incluída, como Adobe XD, Sketch o Figma. Estos programas incluyen distintos
efectos de animación que emulan el comportamiento real de las pantallas, por lo que pueden
incluso llegar a ser usados en presentaciones comerciales o pruebas de concepto. (ver Figura
1: prototipo de alta fidelidad para testear navegación).
Un prototipo destinado a evaluar el diseño visual será de alta fidelidad si los elementos
gráficos, el espacio entre ellos, las columnas o grillas están definidas y el sistema luce
exactamente como el diseño final producto de esa ronda de iteración luciría.
En los prototipos de baja fidelidad visual, muchos de los elementos pueden estar
representados esquemáticamente para indicar el lugar donde iría el futuro elemento correcto.
Por último, un prototipo destinado a evaluar el diseño del contenido y la navegación será de
alta fidelidad si incluye descripciones, títulos, textos y fotografías o ilustraciones reales.
Los prototipos de alta fidelidad permiten que el flujo del usuario no se vea interrumpido por
demoras por parte del facilitador en presentar la siguiente pantalla. Esto es importante porque,
por un lado, permiten al usuario mantener la verosimilitud o la suspensión de la incredulidad
y, además, no proporcionan tiempo extra que el usuario podría usar para notar detalles que
no notaría si la siguiente pantalla estuviese ya presente.
Sin embargo, los prototipos estáticos de baja fidelidad son deseables cuando es necesario
testear en etapas muy tempranas en las que aún no se cuenta con suficientes detalles para
realizar un diseño más acabado. Además, las expectativas de todos los involucrados bajan
61
cuando se presenta un prototipo en papel: por un lado, los usuarios entienden que lo que está
poniéndose a prueba es en verdad el diseño y no sus capacidades. Por otro lado, los clientes
o stakeholders involucrados también reconocen que no es un trabajo terminado. Y por último,
existe menos apego a un diseño en papel, por lo que los mismos diseñadores presentarán
menos resistencia a cambiar algo que no funcione.
Cualquiera sea el grado de fidelidad de los prototipos, estos pueden emplearse en diversos
métodos. Pueden presentarse unas pocas pantallas principales en una entrevista abierta en
donde se le pide al usuario que explique en voz alta qué entiende al ver ciertos elementos, o
pueden utilizarse secuencialmente en un test de usuario en donde a los participantes primero
se les explica el objetivo de la sesión, se los sitúa en un contexto ficticio.
Por ejemplo:
Estás planeando los regalos de navidad para tres de tus amigos. Entrás al sitio web de esta librería. Tenés dos tarjetas de crédito y una de débito para pagar, y contás con un presupuesto aproximado de cinco mil pesos. Viste en redes sociales que hoy hay descuento porque es Black Friday. Vivís en provincia y te gustaría que los libros sean enviados hasta tu casa.
Y luego se los presenta con la primera tarea: “Querés buscar la versión tapa dura de un libro
de Ursula Leguin y ver si llega antes del 22 de diciembre”.
Los tests de usabilidad pueden contar, dependiendo de la cantidad de personas que
conformen el equipo de trabajo, con un facilitador; un evaluador observador; y un ayudante; o
una misma persona que cumpla todos los roles al mismo tiempo. Se recomienda que por lo
menos haya dos personas o que las sesiones se graben (con el consentimiento de los
participantes) para que el facilitador pueda generar un ambiente distendido y dedicar su
atención al participante y no a tomar notas.
Antes de comenzar con el ejercicio, es importante aclarar a los participantes que el fin de la
sesión es evaluar al sistema y que ellos no serán puestos a prueba, y también pedirles que
verbalicen sus pensamientos de manera tal que vayan comentando lo que ven y qué esperan
que suceda.
62
El rol del facilitador no es ayudar al usuario a completar las tareas, sino explicarlas con la
información suficiente, y preguntar en el caso que sea necesario, qué está pasando o qué
esperaba el usuario que suceda.
Se recomienda tener las consignas de cada tarea escritas para evitar usar espontáneamente
palabras ambiguas o que generen algún tipo de sesgo o brinden pistas sobre lo que hay que
hacer a los participantes. A medida que el participante completa las tareas, los evaluadores
completan en un registro si fue realizada satisfactoriamente, parcialmente o no se pudo
realizar.
Los tests de usabilidad pueden finalizar luego de completarse la última tarea, pero
generalmente concluyen pidiendo a los participantes que completen una evaluación subjetiva
(generalmente en forma de calificación) de su experiencia.
Las encuestas post test reflejan cómo los usuarios perciben la usabilidad del sistema en su
conjunto (sus impresiones generales duraderas). El cuestionario más utilizado en UX es el
SUS o Escala de usabilidad del sistema (System Usability Scale), y consiste de una serie de
diez afirmaciones del tipo “Creo que me gustaría usar este sistema con frecuencia”, “Encontré
el sistema innecesariamente complejo”, “Pienso que el sistema es fácil de usar”, “Creo que
necesitaría soporte o ayuda de una persona técnica para poder usar este sistema” y son son
respondidas mediante la escala de Likert. El cuestionario SUS es una herramienta tan
extendida que se recomienda no alterar el orden ni los enunciados de las preguntas, para
poder comparar los resultados de un proyecto con cualquier otro proyecto publicado. Page
Laubheimer, en su artículo sobre cómo medir usabilidad post test para Nielsen/Norman Group,
advierte que dado que el SUS es un instrumento cuantitativo, requiere tamaños de muestra
más grandes (entre veinte a treinta usuarios) para estar seguros de que los resultados son
estadísticamente significativos. No obstante, al combinar esta escala de calificación con
preguntas de seguimiento que busquen saber por qué se calificó una pregunta de cierta
manera, los evaluadores pueden generar insights cualitativos relevantes.
63
Otro cuestionario post test de usabilidad es el NASA-TLX (NASA Task Load Index o Índice de
Carga de Tareas). Como su nombre indica, es un cuestionario creado por NASA para analizar
tareas complejas, y es la herramienta estándar utilizada en estudios de factores humanos y
ergonomía (Laubheimer, 2018). Fue creado en la década de 1980 para medir la fatiga y la
carga de trabajo percibida por tareas complejas y altamente técnicas de los miembros de la
tripulación aeroespacial, y está indicado para entornos similares en donde el error humano
tiene consecuencias graves, como en la industria médica, militar, del transporte o en dominios
financieros complejos, es decir, para tareas llevadas a cabo por personal altamente
especializado y en donde los usuarios no pueden elegir qué aplicación usar.
La administración del cuestionario también es en sí misma compleja, y el trabajo que se
requiere por parte de los participantes contribuye a la fatiga. Dadas estas limitaciones, el
estudio no se recomienda para analizar productos masivos de consumo o flujos de trabajo
sencillos. Sin embargo, es útil para analizar HUDs o dispositivos similares.
Los cuestionarios como el SUS o NASA TLX están diseñados para medir percepciones
subjetivas. Son herramientas útiles que indican niveles de satisfacción que deben ser usadas
en conjunto con métricas de rendimiento objetivo que analizan la performance de un sistema
y ayudan a identificar debilidades y fortalezas de los sistemas diseñados. Ante la pregunta de
si los usuarios prefieren los sistemas con mejor usabilidad, la respuesta de Nielsen es que
“los usuarios prefieren los diseños con métricas de usabilidad más altas el 70% del tiempo” y
explica que los puntajes de desempeño y satisfacción están fuertemente correlacionados
(Nielsen, 2012).
El investigador aclara que el concepto de usabilidad es un constructo de varios atributos de
calidad medibles combinados. Aunque un atributo sea la calidad subjetiva, otros criterios más
objetivos como el tiempo dedicado a la tarea, la tasa de éxito y la cantidad de errores por tarea
son métricas útiles de rendimiento objetivo. Rendimiento y satisfacción son dos métricas de
usabilidad diferentes que deben ser consideradas por igual en el proceso de diseño para
contar una historia más clara.
64
Aunque tiempo, tasa de éxito y cantidad de errores son tres métricas que deben tenerse en
cuenta en todo estudio de usabilidad, el análisis de interfaces en soportes transparentes
demanda que el tiempo dedicado a la tarea sea una métrica a la cual se le preste especial
atención. Debido a que el factor de interferencia mencionado más adelante en este capítulo
está más presente en este tipo de diseños que en aquellos para pantallas tradicionales, y
teniendo en cuenta que ni el grado de transparencia del primer plano, ni la transparencia ni
las tareas que sucedan en un segundo plano pueden ser controladas (por el participante o por
las personas evaluadoras), se espera que el tiempo sea un factor de peso.
La tasa de éxito y la cantidad de errores son métricas sencillas de medir a través del TCR,
Task Completion Rate o Tasa de Realización de Tareas. Para cada escenario, se plantean
una serie de entre tres a cinco tareas con un objetivo individual claro. Esto es, las tareas deben
estar correctamente planteadas de manera tal que una vez que el participante termine cada
una se pueda determinar si ésta fue completada o no. Para cada tarea se completará en un
registro si el participante hizo clics o navegó hacia otras áreas y se contabilizarán estos
retrasos y desvíos como errores o dificultades.
Aunque la propuesta de este trabajo contempla un prototipo económico y sencillo para realizar
en etapas tempranas del proceso de diseño, existen métodos más sofisticados a la hora de
analizar el comportamiento visual de los participantes. El estudio por excelencia para
determinar qué es lo que los usuarios ven a la hora de interactuar con las pantallas es el Eye
tracking o Seguimiento Ocular. Este tipo de test se lleva a cabo con dispositivos compuestos
de cámaras que rastrean el punto exacto en el que la mirada de un usuario se fija en una
pantalla. Esta tecnología agrega una dimensión poderosa a la investigación de usuarios
porque permite determinar exactamente lo que los usuarios ven y lo que pasan por alto. Los
resultados se detallan en mapas de calor que registran cuánto miraron los usuarios las
diferentes partes de una página: las áreas donde los usuarios miraron más se representan en
color rojo; las áreas amarillas indican menos fijaciones; seguidas de las áreas azules, en
donde la vista se posó menos tiempo. El código de colores que presentan los mapas de calor
65
debe ser interpretado analizando los distintos tipos de contenido presentes. Por sí solo, el
hecho de que el ojo se haya posado dos o treinta segundos no dice nada. Sin embargo,
cuando se cruza el dato de cuánto tiempo vio el usuario algo contra qué elemento estaba
viendo, se pueden sacar conclusiones y determinar si hay elementos que no están llamando
la atención que deberían, o si por el contrario existe un elemento en el que las personas están
pasando demasiado tiempo, cuando se espera que sea algo sencillo. Los mapas de calor son
especialmente útiles para identificar áreas problemáticas o puntos del flujo en donde las
personas usuarias se atascan u omiten piezas de información importantes.
4.3 Tipos de atención
Lund (2001) explica que parece haber al menos dos tipos de atención diferentes: la atención
dedicada o selectiva, que involucra la habilidad de distinguir o enfocarse en cierta información
específica dado un conjunto de información más grande, y la atención dividida, que involucra
la habilidad de realizar dos o más tareas de manera simultánea. Sin embargo, aclara, en la
realidad la diferencia entre los dos tipos de atención no tiene límites tan claros. Aunque Lund
menciona experimentos utilizados para estudiar la atención, muchos de estos se llevan a cabo
exclusivamente para estímulos auditivos. Sin embargo, son relevantes para este trabajo
porque proveen un marco metodológico que podría extrapolarse para tests de usabilidad en
interfaces visuales.
Los experimentos de escucha dicótica llevados a cabo a partir de la década de 1950 consistían
en presentar a los voluntarios con dos estímulos auditivos en simultáneo a través de
auriculares. Mientras uno de los mensajes (un estímulo) se reproducía en el oído derecho, el
segundo se reproducía en el izquierdo. Los participantes debían reproducir verbalmente o
reaccionar al mensaje de uno de los dos auriculares, o a ambos. La performance de los
participantes estaba determinada a partir de cuánta información del segundo mensaje
interfería en la reproducción del primero, para estudios de atención selectiva, o qué tan
satisfactoriamente reaccionaban a ambos estímulos, para estudios de atención dividida.
66
Para los estudios de atención selectiva (Cherry, 1953) en donde los participantes debían
repetir uno de los dos estímulos, la tarea no presentó mayores dificultades. Los voluntarios
podían responder cuestiones relacionadas a la naturaleza física del segundo estímulo, como
si el mensaje era una voz humana o un tono, o si la voz era masculina o femenina. Sin
embargo, los participantes parecían no poder recordar de qué se trataba el contenido (la
semántica) del segundo mensaje desatendido. En estudios de atención dividida (Broadbent,
1954) los participantes eran presentados con dos series de tres números cada una, en
simultáneo, una en cada oído. Por ejemplo, la secuencia “5, 6, 3” se reproducía en el oído
izquierdo al mismo tiempo que la secuencia “2, 4, 9” se reproducía en el derecho. Luego, a
los participantes se les pedía repetir los números, bien de a pares izquierda-derecha (“5-2, 6-
4, 3-9”), o por secuencias completas (“5-6-3 y 2-4-9”).
La consigna de secuencias completas probó ser más fácil y con más precisión, con un 65%
de respuestas correctas, que la consigna de repetición por pares, con un 20% de respuestas
correctas. Sin embargo, el mismo experimento fue repetido en 1960 por Grey y Wedderburn
con estímulos más complejos, como sílabas intercaladas con números o palabras
correspondientes a frases cortas: si en un oído se reproducía el mensaje “Dear, 4, Jane” y en
el otro “8, Aunt, 2”, los participantes usualmente reportaban haber escuchado “Dear Aunt
Jane”.
Estos resultados llevaron a teorizar que otro aspecto de la atención parecía estar ligado a la
habilidad de buscar en el entorno elementos que ayuden a dar sentido a la información. En
1964, Treisman descubrió que si a participantes bilingües se les presentaban dos mensajes
simultáneos en distintos idiomas que los sujetos entendieran, estos podían identificar cuándo
los mensajes eran iguales, aunque estuvieran escuchando activamente solo uno de ellos.
En 1973, MacKay descubrió que ante la presencia de un mensaje de contenido semántico
ambiguo en un oído, cuando se les preguntaba por su significado, los participantes parecían
inclinarse por una u otra interpretación dependiendo de las palabras que se hubieran
reproducido en el otro oído. Aunque reportaban no recordar qué palabras se estaban
67
reproduciendo en el oído desatendido, estas parecen haber sido procesadas al menos
parcialmente, lo suficiente como para influenciar la interpretación del mensaje del oído
atendido. Don Norman (1969) sugiere que las palabras escuchadas parcialmente por el oído
desatendido son almacenadas temporalmente en la memoria a corto plazo. En 1974
Underwood retoma el experimento de Broadbent de secuencias de números y propone que la
performance de los participantes aumenta drásticamente conforme los sujetos ganan práctica
en el experimento.
Este descubrimiento es relevante a este capítulo porque la práctica previa a un estudio de
usabilidad, especialmente uno cuantitativo, es importante para asegurarse de que los
participantes hayan comprendido correctamente las instrucciones y ganen familiaridad, no con
el sistema, pero sí con el entorno artificial armado. Las pruebas piloto también se recomiendan
como una oportunidad para los evaluadores de corregir cualquier cuestión metodológica que
requiera ser ajustada.
La conclusión más relevante de los estudios de escucha dicótica es que la capacidad de dividir
la atención se ve afectada por la complejidad de los estímulos y el grado de similitud entre
ambos. (Lund, 2001).
Aunque los experimentos de escucha dicótica puedan ser parcialmente tenidos en cuenta,
porque el procesamiento de la información de distintos sentidos puede ser distinto, Lund
describe otros experimentos conducidos en el estudio del procesamiento automático y los
errores por deslizamiento de acción (action slips) que son directamente relevantes porque se
realizan sobre la visión. El efecto de Stroop (no debe ser confundido con el efecto
estroboscópico) suele usarse para ilustrar “la naturaleza del procesamiento automático y el
control consciente” (Lund, 2001). El efecto se demuestra realizando la prueba de Stroop, que
consiste en presentar una lista con nombres de colores impresos en distintos colores y pedir
a los participantes que lean en voz alta las palabras ordenadas. Cuando existe una
discrepancia entre el nombre de un color y el color de la tinta con el que esa palabra está
impresa, y se les pide a los participantes que nombren el color de la palabra (y no que lean la
68
palabra), los sujetos tardan más tiempo en completar el test y son más proclives a
equivocarse. (ver: Fig. 2 Prueba de Stroop).
Esta baja en la performance observada en la prueba de Stroop sucede cuando una
característica del estímulo es disonante con otra (un segundo atributo del estímulo). El
procesamiento simultáneo de ambos atributos se ve impedido por el fenómeno de
interferencia cognitiva.
El paper Interfaces de usuario en capas transparentes: una evaluación de un diseño de
pantalla para mejorar la atención enfocada y dividida (1995) de Harrison, Ishii, Vicente y
Buxton, estudia las interfaces gráficas desde la perspectiva de la atención en vez del abordaje
tradicional de la percepción visual. El texto propone un análisis de componentes UI (ventanas,
menús y otros componentes de una interfaz gráfica) semi transparentes, presentados en una
pantalla tradicional, para estudiar la atención dedicada o dividida, comparada a la atención
dedicada en componentes opacos.
Aunque el proyecto no contempla la transparencia a nivel hardware sino una transparencia
aplicada por software a los componentes de la interfaz, el trabajo es relevante porque analiza
el mismo problema psicológico subyacente: los modelos de atención dedicada y dividida. La
limitación de diseño principal en este estudio está dada por el tamaño de la pantalla o display
real estate. Dada una pantalla pequeña, el paper introduce tres estrategias para presentar
información.
Las dos primeras, tradicionales, consisten en la estrategia de multiplexación espacial, en
donde múltiples ventanas opacas no se superponen pero se redimensionan para compartir el
espacio, y la estrategia de multiplexación temporal, en donde múltiples ventana opacas se
superponen, ganando dimensión (todas ocupan el 100% de la pantalla) pero sólo una, la
superior, es visible en un momento dado, mientras que el sistema provee una manera sencilla
de alternar entre ventanas.
Al introducir la variable de transparencia, los autores proponen una tercera estrategia: el
multiplexado de profundidad, en donde la transparencia de la ventana superior (en primer
69
plano) permite cierto grado de visibilidad de las ventanas subyacentes (en un segundo plano).
(Harrison, Ishii, Vicente y Buxton, 1995).
A fines de aclarar el experimento, si se estuviera describiendo en lenguaje de CSS, la
estrategia de multiplexado de profundidad puede entenderse como distintos valores para la
propiedad z-index, que determina el nivel de pila de un elemento HTML, o la posición del
elemento en el eje Z (en oposición al eje X o eje Y). Un valor más alto significa que el elemento
estará más cerca de la parte superior del orden de apilamiento. Esta tercera estrategia
pareciera solucionar la necesidad de ver múltiples ventanas al mismo tiempo, pero a la vez
introduce el problema de la interferencia de la información de ventanas subyacentes.
Es dentro de esta tercera estrategia, el multiplexado de profundidad, que el paper propone
una prueba de Stroop para evaluar atención dividida y encontrar el grado óptimo de
transparencia. En el trabajo citado, tanto el primer plano como el fondo pueden modificar su
transparencia.
Las situaciones que presentan los evaluadores comparten un problema de atención: los
participantes necesitan ser conscientes visualmente de múltiples objetos que se superponen.
Para tareas de atención dividida, es necesario observar múltiples elementos superpuestos.
Para tareas de atención selectiva, los participantes necesitan enfocarse en solo una ventana,
excluyendo a las demás. Algunas tareas propuestas tienen implícitamente una tarea activa y
pasiva: esto hace que los participantes puedan mantener en su conciencia periférica la tarea
pasiva mientras dedican la mayor parte de su atención a la tarea activa.
El trabajo citado menciona las investigaciones de Kohler y Neisser sobre mirada selectiva en
el monitoreo de tareas duales para dos imágenes de video superpuestas presentadas en un
solo monitor. En el primer estudio las tareas eran visualmente distintivas porque se
presentaban dos tipos de juegos diferentes. En un estudio posterior, las tareas fueron
visualmente similares y solo variaban los colores de las camisetas de los jugadores. Para
ambos casos, los participantes debían monitorear una de las dos imágenes e indicar si ocurría
70
algún evento irregular en ese juego, mientras que se les presentaban sucesos extraños en el
video no supervisado (la segunda imagen).
Los participantes pudieron monitorear con éxito la imagen principal y excluir la secundaria, sin
notar las ocurrencias extrañas en la imagen desatendida incluso cuando el experimento se
frenara inmediatamente después de que algo extraño ocurriera en la imagen desatendida.
Esto pareciera sugerir que, al contrario de lo que teoriza Norman para los experimentos de
escucha dicótica, este segundo estímulo no permanecía en la memoria a corto plazo.
Pareciera ser que la imagen que no está siendo observada activamente pasa desapercibida.
Los autores concluyen que la interferencia de la segunda imagen para tareas que requieren
atención selectiva es mínima. Los autores adaptan una prueba de Stroop tradicional para
estudiar cómo la transparencia variable puede afectar la interferencia entre la palabra y el
color mostrados en pantalla. En el experimento propuesto, la palabra se ubica en segundo
plano y es vista a través de un bloque de color ubicado en el primer plano, con distintos grados
de transparencia. Las tareas consisten en nombrar los colores o las palabras. Los resultados
de estos experimentos sugieren que para tareas que requieren atención dividida, las
performance mejora sustancialmente en el primer 20% de transparencia pero no parece seguir
haciéndolo del 20% al 100%. La transparencia igual o menor al 5% no parece ser útil. Para
tareas de atención selectiva, la performance decrece rápidamente entre el 5% y el 50% de
transparencia pero el rendimiento no sigue deteriorándose a partir del 50%.
Los niveles mayores de opacidad parecían compensar parcialmente la dificultad, minimizando
la interferencia. Esto pareciera sugerir, según los autores, que el nivel de detalle o la densidad
de la información pueden ser un factor que determine la transparencia, si esta pudiera ser
modificada. (Harrison, Ishii, Vicente y Buxton, 1995). Aunque no se explaya al respecto, el
trabajo citado también sugiere cierta interacción entre saturación, luminancia y legibilidad,
dejando ver que algunos colores podrían emplearse más exitosamente que otros en ventanas
o interfaces transparentes. El trabajo menciona el rediseño de ciertos elementos de la interfaz
a partir del feedback obtenido de los prototipos, para incluir esquemas anti interferentes para
71
los textos y los bordes de los objetos, similares a los bordes con un nivel de contraste opuesto
que incluyen algunos subtítulos para mejorar la visibilidad y el carácter distintivo de los
elementos.
El estudio llevado a cabo por Harrison, Ishii, Vicente y Buxton propone una técnica que puede
ser empleada en prototipos de alta fidelidad para testear interfaces transparentes sin tener
que recurrir a hardware costoso y solamente utilizando una computadora normal.
Asimismo, la prueba de Stroop mencionada tanto por Lund como por Harrison, Ishii, Vicente
y Buxton también parece ser relevante, al menos como instrumento de control, para comparar
diseños en interfaces tradicionales contra pantallas transparentes. Plantear una misma prueba
de Stroop en un soporte tradicional y en una pantalla transparente podría ser un experimento
interesante, aunque sería necesario contar con especialistas para determinar la pertinencia
de este ejercicio. Si los tiempos de interferencia para cada soporte varían, entonces eso podría
sugerir una suerte de benchmark para determinar qué demora para el soporte transparente
es aceptable, y a partir de cuántos segundos extras hay demasiada interferencia entre el fondo
y lo que se está visualizando en la pantalla. Sin embargo, si el tiempo que causa la
interferencia tuviera una raíz puramente cognitiva y no hubiera una componente que aporta
una demora extra por el canal visual, entonces el tiempo de demora para ambos casos debiera
ser el mismo.
Retomando el consejo de Hall respecto de la importancia de testear lo antes posible y para
todas las etapas del diseño, y teniendo en cuenta los artículos de Nielsen/ Norman
mencionados anteriormente, el siguiente capítulo presenta una guía para conducir un estudio
de usabilidad completo para interfaces en soportes transparentes.
72
Capítulo 5. Cómo testear interfaces en pantallas transparentes
El objetivo de este capítulo es proponer y analizar métodos concretos para probar interfaces
transparentes en distintos momentos del proceso de diseño. Para el presente trabajo se
realizaron estudios de campo orientados a determinar si es posible testear prototipos para
pantallas transparentes de manera eficaz, rápida y económica. Dado que la propuesta no
busca analizar un diseño específico, sino ayudar a determinar qué tipos de tests son
relevantes para este tipo de diseños, los escenarios planteados son cotidianos y las interfaces
testeadas son sencillas de comprender y no son en absoluto el factor original del proyecto. Lo
que busca esta propuesta es entender si un prototipo impreso en acetato transparente alcanza
para comenzar a analizar cualquier diseño cuyo destino final sea una pantalla transparente.
Por este motivo se ha resuelto emular un menú de confitería en una interfaz interactiva.
5.1 Trabajo de campo con prototipos de baja fidelidad
Retomando las reflexiones del capítulo anterior, donde se describen los lineamientos a tener
en cuenta a la hora de establecer las condiciones para una prueba de usabilidad temprana,
en este apartado se comentan las decisiones tomadas para generar una ronda de pruebas
satisfactoria.
En primer lugar se determinó el objeto de prueba. Dado que el objetivo de la investigación
consiste en determinar si un prototipo en papel de acetato es adecuado para llevar a cabo
pruebas de usabilidad de displays transparentes, se imprimieron dos flujos de pantallas
idénticas en distinto material: el primero, tradicional, impreso en hojas A4 de papel de obra.
El segundo prototipo, idéntico en diseño al anterior, se presentó impreso en láminas de
acetato transparente, tamaño A4.
En segundo lugar se determinó la metodología. De la batería de ejercicios y pruebas
existentes en el campo de UX, muchas de ellas desarrolladas en el capítulo anterior, se optó
por una primera ronda de entrevistas pre y post prueba, y una prueba de usabilidad sobre los
73
prototipos impresos. Las distintas entrevistas y análisis realizados sobre las pruebas se
explican en detalle más adelante en el siguiente apartado.
En tercer lugar se determinó el entorno, alcance, tiempos y cantidad de participantes.
Respecto del espacio, se seleccionó un café, por ser un lugar público que permite entablar
una conversación relativamente distendida alrededor de una mesa y contar con ventanales
que dieran a la calle para incluir con un fondo dinámico. Otros lugares posibles que no
incluyan una oficina o un laboratorio profesional podrían ser el sector parlante de una
biblioteca pública, o, si los participantes son contactos de confianza, o si se cuenta con la
seguridad adecuada para ambas partes, una casa o departamento privado. Dado que el
objetivo de la prueba no era realmente analizar un producto en un estadío temprano con un
prototipo, sino la factibilidad del prototipo en sí misma, cualquiera de estos lugares hubiera
sido aceptable, en tanto y en cuanto la interfaz se adecuara a ese contexto específico. Es
decir, si el lugar seleccionado hubiese sido la biblioteca, el sistema “de excusa” a analizar
bien podría ser una nueva aplicación para consultar por libros o solicitar un carnet de socio.
Si el espacio fuera, en cambio, un hogar, el prototipo podría simular una aplicación para
controlar las luces y temperatura de los ambientes, los sistemas de entretenimiento o una
agenda compartida para todos los miembros de la casa. En cualquiera de estos casos, el
requerimiento fundamental sería que las pruebas se realicen sobre una ventana o puerta de
vidrio a través de la cual pudiera apreciarse un fondo en movimiento. Sea cual fuera el
ambiente preferido, deberá mantener una relación lógica con el sistema a testear, y este
deberá ser lo suficientemente pertinente como para generar una atmósfera de verosimilitud
que logre comprometer a las personas participantes. También es importante mencionar que,
dado el objetivo del experimento, no es ideal, al menos para las primeras rondas de prueba,
generar sistemas innecesariamente complejos que requieran tareas largas, complicadas o
difíciles de realizar. Aunque estas opciones podrían demostrar ser valiosas en experimentos
más exhaustivos, debe recordarse que el espíritu de este experimento es poder llevar a cabo
una primera evaluación rápida que permita validar aspectos fundamentales de un prototipo,
74
es decir, que pueda probarse interactivo y que logre simular la interacción con una pantalla
transparente de una manera lo suficientemente digna.
Si se contara con más tiempo y recursos para convocar más grupos de participantes,
entonces también podrían variarse los momentos del día o incluso planificar para días
particularmente lluviosos o nublados, y variar los lugares de encuentro. Un plan de
investigación más largo que incluya estos grupos aportará más evidencias que ayuden a
sostener la teoría de que un prototipo en acetato transparente es lo suficientemente bueno
como herramienta de prototipado temprano.
Se contemplaron quince minutos para cada entrevista y treinta minutos para la prueba. Se
optó por incluir a cinco participantes en cada prototipo, basando este número en las
recomendaciones de Nielsen (2000) que indican que ese número acotado de usuarios permite
identificar aproximadamente el 85 por ciento de los principales problemas de usabilidad del
sistema analizado. Nielsen observa que al exponer una misma interfaz a diferentes
cantidades de participantes, los principales hallazgos comienzan a repetirse pasadas las
primeras cinco pruebas iniciales, es decir: cada nuevo usuario aporta menos hallazgos
novedosos y repite los mismos errores que los usuarios anteriores.
Acotar la prueba a solo cinco usuarios por ronda permite, entonces, planificar varias rondas
de testeos, iterando el diseño entre cada ronda, lo que redunda en una evaluación más ágil y
menos costosa. Dado que el experimento requiere evaluar dos prototipos iguales en diseño y
planteados en distintos soportes, el número de participantes debió duplicarse, ya que exponer
el mismo grupo de participantes a una segunda prueba de usabilidad invalidaría los resultados
de la misma, puesto que las personas estarían rehaciendo una tarea sobre una interfaz que
ya aprendieron a usar anteriormente.
En cuarto lugar se determinó el criterio de reclutamiento. La selección se determinó a partir
del estudio de audiencias consumidoras de otros dispositivos que se infieren similares a los
potenciales usuarios de pantallas transparentes: personas adultas jóvenes entre veinticinco y
cuarenta años, con alto o mediano-alto poder adquisitivo y de nivel socioeconómico medio o
75
alto, que gusten de seguir los avances tecnológicos y posean no sólo smartphones, sino
también smartwatches o pulseras deportivas inteligentes, visores de realidad virtual,
asistentes de voz como Alexa o Google Home, sistemas hogareños inteligentes (domótica)
como Phillips Hue, o aspiradoras robot como Roomba. Se consideró este factor como
relevante dado que se asume que estas personas están más acostumbradas a sistemas
multidispositivo integrados y están expuestas a diseños de interfaces gráficas no
tradicionales, o al menos no tan estandarizados como los de la web actual.
El experimento se llevó a cabo en un café de la ciudad de Buenos Aires durante los fines de
semana del mes de Mayo del corriente año. Se reclutó un total de diez participantes por redes
sociales (Linkedin y Twitter), los cuales fueron citados en un café de la ciudad autónoma de
Buenos Aires para realizar el test. Todos los participantes fueron recompensados
económicamente por su participación.
Antes de ser seleccionadas, todas las personas que respondieron al llamado realizado en
redes sociales fueron contactadas por mail para completar un formulario de filtrado o
screening para determinar si eran buenas candidatas para las pruebas. El cuestionario estaba
orientado a filtrar aquellas personas que no cumplieran con los criterios planteados
anteriormente. Los criterios de filtro utilizados fueron residir en la ciudad de Buenos Aires,
estar entre el rango etario determinado, contar con al menos dos dispositivos del tipo
smartphone, tablet o computadora personal de alta gama, y un dispositivo inteligente de los
tipos mencionados anteriormente.
Los participantes fueron citados en intervalos de dos horas, para contemplar llegadas tardes
y permitir al evaluador y asistente la documentación y posterior puesta en común de sus
observaciones. Las sesiones contaron con un participante, un facilitador y un asistente
observador no participante dedicado a grabar la escena para su posterior análisis. Todos los
participantes fueron invitados con una bebida de cortesía. Antes de comenzar cada sesión,
se comentó a cada participante que lo que se llevaría a cabo a continuación era un ejercicio
con fines meramente académicos que consistía de una prueba sobre un prototipo interactivo
76
que emulaba ser un menú del café, y una entrevista posterior para evaluar su percepción de
dicho prototipo. Se les aclaró que tanto la persona facilitando la prueba como el observador
asistente no podrían responder ninguna pregunta o brindar ayuda si tenían dificultades con
alguna de las tareas requeridas, y se enfatizó que bajo ningún concepto eran ellos los que
estaban siendo puestos a prueba, sino el diseño. Asimismo se les pidió que hicieran el
esfuerzo de verbalizar sus pensamientos para compartir sus impresiones con la persona
evaluadora.
El primer grupo de participantes citado en mayo del corriente año participó probando el
prototipo tradicional en papel opaco, constituyendo así el grupo de control. El segundo grupo
de participantes fue citado en junio del corriente año y participó probando el prototipo en
acetato transparente.
Todos los participantes fueron presentados con la misma interfaz, aunque en distintos
soportes según su grupo, y con las mismas tareas, en el mismo orden.
Ambos prototipos consistieron en un flujo de pantallas impresas individualmente en una hoja
tamaño A4, sostenidas contra el vidrio de la ventana, de a una por vez, por la persona
facilitadora de la prueba. A medida que los usuarios interactuaban con cada estado de la
interfaz, la facilitadora presentaba la siguiente pantalla esperable para continuar con el flujo.
Cada hoja o pantalla estaba numerada en la esquina superior derecha para mantener un
orden y reducir la demora entre la presentación de cada una.
Se imprimieron un total de veintiún pantallas con la misma interfaz en distintos estadíos
(componentes prendidos, apagados, órdenes seleccionadas, modales, pedidos cargados) y
se utilizó, por razones de higiene, un juego completo de pantallas por persona. Cabe resaltar
que sin la pandemia de covid-19 presente al momento de las pruebas, el costo de impresión
de pantallas hubiese sido significativamente menor y las pruebas se hubieran podido realizar
con un solo juego de pantallas por grupo.
Con el propósito de evitar introducir más variables, todos los tests se llevaron a cabo en el
mismo lugar, la misma mesa y las tareas se ejecutaron en el mismo orden. Aunque el test
77
tradicional podría haberse realizado apoyando las hojas sobre la mesa, ambos grupos fueron
presentados con los prototipos ubicados en el mismo lugar, sobre la ventana, con un
evaluador sosteniendo la hoja en el vidrio, para descartar potenciales diferencias por posturas
o incomodidades entre el grupo de control y el grupo que necesariamente debía utilizar el
prototipo sostenido contra el vidrio.
Las tareas a realizar fueron tres y consistieron, en primer lugar, ordenar un café con leche
con tres medialunas (dos de manteca y una de grasa), y un café en jarrito; en segundo lugar,
pedir una ensalada Caesar para llevar; y en tercer lugar, pedir la cuenta.
Es importante destacar que para mantener la verosimilitud del ejercicio, a medida que los
usuarios completaban las tareas, se iban colocando en la mesa objetos impresos
representando lo que sería su pedido. A tales fines se imprimieron tazas de café de distintas
medidas, medialunas de grasa y manteca, y distintos tipos de ensaladas, emplatadas y para
llevar. Los objetos a imprimir se seleccionaron teniendo en cuenta los posibles errores o
desviaciones del camino feliz, es decir, la secuencia ideal que se espera que los participantes
recorran durante la utilización de la interfaz. Esto se hizo a fines de que el SUS fuera relevante
a la hora de medir la percepción de satisfacción final que los usuarios experimentarían en un
contexto real. De otro modo, sería imposible para ellos comprender si el sistema cumplió
efectivamente con lo pedido.
Una vez completadas las tres tareas, se procedió a preguntarles sobre distintos aspectos de
la interfaz, completando con ellos el cuestionario SUS, o escala de usabilidad del sistema, en
papel, para medir la usabilidad subjetiva del prototipo. Finalmente, se realizaron algunas
preguntas basadas en las respuestas al cuestionario. Finalizadas la prueba y la entrevista, se
agradeció a cada participante y se los recompensó monetariamente con doscientos pesos
argentinos.
78
5.2 Análisis y oportunidades de mejora
Previo al análisis propiamente dicho de las rondas de pruebas efectuadas, cabe mencionar
que el estudio se vio influenciado de maneras que escapan el alcance de este trabajo por la
situación de pandemia que se está atravesando a nivel mundial. Entre los aspectos que han
impactado negativamente, se considera: incomodidad general de los participantes o falta de
soltura o espontaneidad característica frecuentemente registrada en este tipo de
intercambios, dificultades para escuchar correctamente lo que tanto participantes como
evaluadora decían, posturas poco naturales o levemente incómodas en aras de mantener una
distancia higiénica. Es importante la aclaración puesto que la incomodidad general registrada
puede contener entonces una componente que no sería justo adjudicar al uso del prototipo.
La información procedente de las pruebas efectuadas se volcó en planillas para calcular el
índice de completitud de tareas utilizando el formato TCR, que permite documentar la tasa de
éxito o fracaso de cada actividad, y también notar el grado de éxito con el que las mismas
fueron llevadas a cabo. Para este ejercicio, se consideró que una tarea se realizaba con éxito
absoluto si el usuario colocaba la orden sin errores y exactamente como le era solicitado. Para
que una tarea fuera considerada como completada con éxito con un error menor, un usuario
debía lograr enviar la orden, omitiendo algún detalle poco grave, como ser pedir un café doble
en lugar de un café con leche, un pocillo en lugar de un café en jarrito, o no especificar que
una de las medialunas debía ser salada. Se consideró tarea completada con éxito con un error
grave que el usuario omitiera un paso importante que afectara la orden, como ser no
especificar que la ensalada pedida era para llevar. Finalmente, se consideró que una tarea no
estaba completa si el usuario era incapaz de enviar la orden. Cabe aclarar que la gravedad
de cada error es una decisión subjetiva y lo que se considera un error menor o grave puede
cambiar de acuerdo a la complejidad de cada tarea y las implicancias de que el usuario realice
u omita cierto paso en el contexto del test general.
Finalizadas las pruebas para ambos grupos, se procedió a cargar los datos en las planillas
(adjuntas en el cuerpo C del trabajo) y se compararon los resultados del grupo de control
79
(prototipo opaco) contra el segundo (prototipo transparente). Los resultados de las planillas y
la encuesta se utilizaron para realizar un análisis cuantitativo, y los comentarios surgidos de
la observación y los dichos por los mismos participantes en el transcurso del cuestionario SUS
se utilizaron principalmente para la evaluación cualitativa de la experiencia. Se documentaron
observaciones, opiniones y frases relevantes de cada participante para cada tarea y se las
considera como input para la siguiente iteración como oportunidades de mejora y
recomendaciones.
Las pruebas de usabilidad tuvieron una duración promedio de seis minutos para el grupo de
control, y nueve minutos para el grupo expuesto al prototipo transparente. Es decir, los
usuarios expuestos al prototipo transparente se demoraron un cincuenta por ciento más en
realizar las mismas tareas. La tarea que más diferencia en tiempo de ejecución tuvo fue la
primera, un resultado esperable considerando que era la tarea con más pasos intermedios.
En los tests de usuarios con prototipo opaco, todos los usuarios completaron, con mayor o
menor éxito, todas las tareas.
La primera tarea logró un 60 por ciento de éxito absoluto y un 40 por ciento de éxito parcial.
La segunda tarea, un 40 por ciento de los participantes logró realizarla exitosamente sin
errores, un 20 por ciento con un error menor y un 40 por ciento con errores graves. Por último,
la tercera tarea obtuvo un éxito absoluto en el 100 por ciento de los participantes. Ningún
usuario no completó una tarea.
Los errores graves se observaron en dos participantes que omitieron marcar su ensalada para
llevar. El componente elegido para seleccionar esta opción fue un checkbox ubicado en el
modal de confirmación del pedido. Este modal contaba al mismo tiempo con un botón de
acción primaria para enviar la orden. Se recomienda iterar esta parte del flujo para presentar
en un primer momento la opción de entrega y en un segundo tiempo la opción de enviar el
pedido.
En los tests de usuarios con prototipo en acetato transparente, el 87 por ciento de los usuarios
completó todas las tareas, aunque solo un 13 por ciento de estos logró realizarlas con éxito
80
absoluto. Del 73 por ciento restante, un 53 por ciento logró completarlas con errores menores
y un 20 por ciento con errores graves. El 13 por ciento de los participantes no logró completar
al menos una tarea. Ni la primera ni la segunda tarea lograron realizarse con éxito absoluto,
y solo un participante completó la tercera tarea de esta manera.
Aunque ningún participante logró completar la primera tarea con éxito absoluto, el 60 por
ciento alcanzó a completarla con errores menores y un 40 por ciento no pudo completarla en
absoluto. Respecto de la segunda tarea, un 20 por ciento de los participantes logró realizarla
exitosamente sin ningún error, un 20 por ciento con un error menor y un 60 por ciento con
errores graves. Por último, la tercera tarea obtuvo un éxito absoluto solamente en un
participante, mientras que el 80 por ciento restante logró completarla con errores menores.
Realizando un análisis por tarea, se observa que en la primera tarea los dos errores más
comunes fueron no darse cuenta de que existía un combo que contemplaba un café con leche
con medialunas, y no modificar una de las medialunas de manteca por una de grasa. A pesar
de que la tasa de error para esta actividad fue más alta en el prototipo transparente, los
participantes que utilizaron el prototipo tradicional también incurrieron en el mismo desliz de
no percibir que existía un combo. Inmediatamente finalizada la tarea y presentados los
participantes que habían omitido cambiar una medialuna con su pedido, ante la pregunta de
qué había sucedido, una persona comentó que no estaba segura de si al pedir la promoción
sería capaz de modificar una medialuna de manteca por una de grasa. Esto puede
interpretarse como un atajo que el usuario prefirió tomar para finalizar la tarea más rápido,
pero también podría indicar cierto grado de desconfianza respecto de la flexibilidad del
sistema y qué tanto control permite al usuario. Cualquiera haya sido el motivo, se supone que
el grado de disconformidad con el uso de una pantalla transparente es mayor.
De los participantes que pidieron las medialunas por separado fuera del combo y omitieron
marcar una de grasa, uno comentó que no se había dado cuenta y otro que no se acordó.
Esto podría indicar que, aunque los participantes no estaban interactuando con el prototipo al
momento de recibir la consigna, y por ende no es posible hablar de un estado de atención
81
dividida en ese momento, sí estaban en mayor o menor medida dividiendo su atención cuando
la ejecutaron, presentando una mayor dificultad para recordar lo que tenían que hacer.
Aunque al revisar la grabación no se registró ningún evento significativo ocurriendo en
segundo plano, en este punto es importante notar que la prueba se realizó con una sola
cámara fija sobre la mesa, por lo que el campo de visión del participante y el del aparato eran
ligeramente distintos. Por lo tanto, no se descarta que una interferencia haya disputado la
atención de los participantes, comprometiendo su memoria de trabajo. Se volverá sobre esta
observación en el apartado final.
Respecto de la segunda tarea, tanto los participantes del prototipo opaco como los que
utilizaron el prototipo transparente encontraron cierta dificultad para notar el componente de
checkbox que permitía marcar los ítems para llevar. Aunque todos los participantes
completaron la tarea, los usuarios del prototipo transparente incurrieron en una mayor tasa
de errores graves.
Este hallazgo parece reafirmar la importancia del grupo de control a la hora de proyectar tasas
de error más pronunciadas en el prototipo transparente. Es decir, si existen puntos álgidos en
el flujo del prototipo opaco, es esperable que estos mismos puntos de dolor se manifiesten
con mayor frecuencia en el segundo grupo. Se volverá sobre esta observación en el apartado
final.
5.3 Siguiente paso: prototipos de alta fidelidad
Si bien el alcance del trabajo de campo de este proyecto se limita a probar la usabilidad de
un flujo de pantallas en un prototipo de baja fidelidad, las mismas interfaces son factibles de
ser testeadas en otro soporte capaz de emular un display transparente con un mayor grado
de interactividad, permitiendo escenarios que se asemejen cada vez más a un caso de uso
real.
Retomando la propuesta del paper de Harrison, Ishii, Vicente y Buxton (1995) mencionado en
capítulos anteriores, es posible realizar prototipos de muy alta fidelidad en monitores
82
convencionales con imágenes de pantallas que reproduzcan un video de fondo. Esta clase
de prototipo se considera de muy alta fidelidad puesto que si bien al día de hoy existen
herramientas que permiten compaginar una secuencia de pantallas y vincularlas para
construir flujos complejos, no es posible aún reproducir un video por detrás, por lo tanto, para
poder realizarse, estas pruebas necesitan un grado mucho mayor de desarrollo. Figma, una
de las aplicaciones más populares para diseño y prototipado, contempla montar pequeñas
imágenes animadas en formato GIF. Sin embargo, para lograr emular un fondo animado más
realista, estos bocetos deberían ser construídos con al menos un mínimo de programación
desde el frontend, aplicando HTML, CSS y posiblemente JavaScript. Los prototipos montados
en HTML pueden incluir fácilmente un video desde el atributo source en la propiedad
background del código.
Otra alternativa viable consiste en presentar el prototipo interactivo en herramientas
convencionales como InVision y alterar de alguna manera la transparencia de la ventana del
navegador.
Al día de hoy no existen opciones integradas a los sistemas operativos (al menos para
Windows o MacOS) para gestionar la transparencia de las ventanas, sin embargo, existen
aplicaciones de terceros como LayerX o Deskovery que podrían ser de utilidad para este tipo
de pruebas. Estas alternativas son de gran utilidad puesto que podría copiarse un diseño
rápidamente para plantear un mismo prototipo en dos tests: uno con fondo plano tradicional,
y otro con fondo animado, sin perder tiempo generando dos diseños distintos.
Dado que este tipo de prototipo es considerablemente más costoso de producir, cualquiera
sea el camino elegido para testear con un video de segundo plano que emule un fondo, será
crucial contar con una pequeña librería de videos con distintos fondos, a fines de explotar el
dispositivo al máximo. Esto permitiría alternar los videos para simular distintas situaciones:
momentos del día o fondos más tranquilos (con menos movimiento o menos ruido) contra
fondos más ruidosos, obteniendo así una muestra mucho más rica que permita extraer más
y mejores conclusiones.
83
5.4 Consideraciones finales
Un desafío a la hora de interpretar los resultados cualitativos cuando se analizan los
comentarios es discernir cuáles de ellos están relacionados al objeto de estudio, qué
observaciones están más relacionadas a cuestiones intrínsecas del prototipo, cuáles son
válidas para el producto en general pero no necesariamente para el experimento en cuestión,
y cuáles son opiniones circunstanciales que no son directamente pertinentes o no pueden
tenerse en cuenta en la evaluación. Por ejemplo: una de las participantes del segundo grupo
intentó, en un momento, un gesto de scroll hacia abajo, con la clara intención de seguir
leyendo. Al darse cuenta de su “error”, se río. En una interfaz real, esto no hubiera presentado
mayor problema, de hecho, es un gesto natural y esperado. Sin embargo, en un prototipo en
gran medida estático, este gesto no logró los resultados esperados.
Claramente este tipo de incidentes no deben ser considerados errores sino limitaciones
intrínsecas de la técnica. Por el contrario, otros participantes incurrieron en una omisión que
sí deja ver limitaciones del objeto estudiado, en este caso, el soporte transparente: la cantidad
de errores sobre la segunda tarea puede ser adjudicada completamente al hecho de que el
componente elegido para seleccionar la ensalada para llevar no llamaba la atención.
A partir de esta observación se recomienda probar, en iteraciones posteriores, una
modificación al flujo original: considerar partir el modal en dos momentos, sumando primero
una pantalla de resumen, que permita al usuario releer su pedido y solamente pregunte, con
un elemento distinto a un checkbox (considerar dos botones: Sí y No) si lo desea para llevar,
para luego pasar a la pantalla que le permita enviar la orden. Sin embargo, este tipo de
interrupciones más marcadas podría generar cierto fastidio.
Una hipótesis interesante que se desprende de esta observación, es que los flujos pensados
para pantallas transparentes podrían necesitar separar más las acciones, redundando en una
menor cantidad de llamados a la acción (Calls to Action) por pantalla.
Si la audiencia objetivo del sistema a evaluar no es el público general, es deseable involucrar
al menos un experto en la materia. En el caso de los dispositivos transparentes domésticos,
84
un experto en la materia o SME por sus siglas en inglés (Subject Matter Expert) podría ser
una persona ama de casa, una persona que trabaja de manera freelance o bajo la modalidad
de teletrabajo desde una habitación estudio, o cualquier habitante del hogar que pase
suficiente tiempo en él como para conocer los funcionamientos del lugar a distintas horas y
bajo distintas condiciones.
Si el proyecto estuviera orientado a displays transparentes en medios de transporte, un buen
SME podría ser un trabajador que utiliza más de dos veces al día dicho medio de transporte,
o un oficial de policía o encargado de seguridad destinado a esa posta. En el caso particular
de este proyecto, dos tipos de SMEs que podrían guiar al equipo de diseño son las camareras
y los clientes “de la casa” que visitan asiduamente el café solos durante la semana y junto a
su familia o grupo de amigos durante el fin de semana.
El valor de las entrevistas con expertos yace en encarar las sesiones con otra perspectiva.
Se perderá información valiosa si se trata a un SME como una entrevista con un usuario
normal. Las conversaciones con los expertos se desvían del guión, incluyen preguntas que
no tienen que ver con las pruebas, y es probable que hasta se “pierda el tiempo” charlando
con ellos. Las entrevistas con expertos tienen un propósito diferente y no deben ser usadas
para imaginar, desde la perspectiva del experto, cómo sería la experiencia para nuevos
usuarios. Sin embargo, su valor yace en poder descubrir problemas frecuentes, entender
distintos niveles de gravedad según las implicancias de cada problema, y descubrir los
posibles atajos que un usuario asiduo podría explotar para trabajar más rápidamente con el
mismo sistema. Los profesionales que tengan el desafío de diseñar para pantallas
transparentes necesitarán contar con todo tipo de guías que les orienten y hagan del proceso
de diseño una experiencia colaborativa.
Aunque la práctica de UX cuenta con diversas y numerosas herramientas que permiten
generar prototipos para testear aplicaciones y sitios web, las hay muy pocas que permitan
simular prototipos y diseños para realidad mixta o aumentada. En el caso de los displays
transparentes, estas necesarias herramientas podrían asistir a los investigadores aportando
85
información relevante hoy en día inaccesible. Aprender a realizar pruebas relevantes en estos
nuevos entornos es menester.
Las pruebas con usuarios, así como muchas otras técnicas de análisis cualitativo y
cuantitativo, han sabido perdurar y resistir la prueba del tiempo, posicionándose aún hoy en
día como herramientas efectivas de evaluación. Sin embargo, es necesario revisar los
métodos para comprender qué aspectos pueden ser optimizados o actualizados para
mantenerse pertinentes.
Al momento de realizar pruebas de usabilidad en realidad aumentada existen desafíos únicos
que deben tenerse en mente. Si se analiza el entorno de una prueba estándar en un contexto
profesional, es probable que se cuente al menos con un espacio dedicado con dispositivos
disponibles, configurados para dichas pruebas. Los laboratorios dedicados a este tipo de tests
también cuentan con la tecnología necesaria para grabar la pantalla y los participantes, quizás
incluso cámaras extra que permitan observar la postura y los gestos de los usuarios, e incluso
pueden incluír aplicaciones como keyloggers que permiten documentar qué teclas se
presionan. Los laboratorios más sofisticados cuentan también con aparatos de Eye Tracking
o seguimiento ocular que permiten determinar con exactitud qué sectores de las pantallas
observó el usuario y por cuánto tiempo, o habitaciones acondicionadas con dos espacios
divididos por un panel de vidrio espejado en una dirección que permite evaluar a los
participantes a través de una cámara de gesell, a fines de lograr una situación más distendida
en la cual los participantes no se sientan tan observados.
Al momento de imaginar configuraciones similares para pruebas de usabilidad con pantallas
transparentes, surgen dificultades singulares. La barrera más obvia es que no es posible
controlar el entorno. Aunque la experiencia está parcialmente contenida en una pantalla, las
interacciones con el mundo real son visibles a través del dispositivo, afectando a un nivel más
básico la legibilidad y a un nivel más complejo o difícil de calcular, la atención: es posible que
existan elementos de fondo que compitan por la atención del usuario.
86
Aunque siempre es cierto que la experiencia es algo que emerge a partir del usuario, el
dispositivo y el entorno, para pantallas transparentes el entorno cobra una dimensión aún más
relevante y digna de ser estudiada con detenimiento.
Otra de las limitaciones importantes es que se torna más difícil entender exactamente todo lo
que percibe el usuario. En el caso de dispositivos para realidad aumentada como HoloLens,
estos permiten, a través de una aplicación, transmitir en tiempo real la vista (tanto la pantalla
como lo que hay detrás en segundo plano) que está experimentando el usuario. Para los
displays transparentes, esto podría lograrse colocando una cámara que siga, de la manera
más aproximada posible, los movimientos de la cabeza del usuario. Pero, a su vez, esto
presenta dos dificultades: si la cámara se sitúa por detrás del usuario, se pueden perder
detalles puesto que el participante taparía la cámara en algún momento; y si se incurre en
dispositivos más sofisticados como una vincha con una cámara GoPro en la frente de los
participantes, por un lado esto podría resultar incómodo o, en el mejor de los casos restar a
la verosimilitud del experimento, puesto que un usuario real no experimentaría este peso
extra; y por otro lado, los brillos de la lente o las luces de la cámara podrían verse reflejados
en el display, creando una nueva interferencia que deberá ser tomada en cuenta,
especialmente si las luces titilan o son demasiado brillantes. El detalle de las luces de los
aparatos que están capturando la prueba puede solucionarse fácilmente colocando una cinta
de enmascarar opaca.
El problema del registro insuficiente de la cámara se menciona en el segundo apartado de
este capítulo, debido a que la cámara del experimento estaba fija y era una sola. A los fines
de sortear esta dificultad, se propone sumar una segunda cámara colocada de manera tal
que ocurra un solapamiento entre los dos ángulos de visión, permitiendo capturar más
información del segundo plano. En relación a los registros escritos, particularmente las
planillas en donde se documenta el TCR, se recomienda sumar una fila extra, debajo de las
observaciones relacionadas al participante, para documentar los eventos significativos, ya no
87
del participante, sino del segundo plano: considerar al segundo plano como otro actor
cambiante, que afecta activamente al sujeto y a la interfaz.
El conocido y probado protocolo de pensar en voz alta o think out loud, aunque útil y relevante,
debe ser complementado con una observación cuidadosa del usuario. Se debe observar
atentamente a los usuarios y sus movimientos, dado que esto es una experiencia que ocurre
en el espacio tridimensional.
Es clave analizar cómo se mueven los participantes y cómo interactúan con los elementos de
la interfaz, pero también con el resto de los objetos físicos de su entorno. Al momento de
analizar estos comportamientos, es necesario tener en cuenta qué es lo que se esperaba que
hicieran y compararlo con lo que en realidad hicieron. Quizás la interfaz funciona a través de
un gesto que en otro lugar del flujo se torna problemático, o quizás los controles están
situados en lugares que interfieren con la acción a realizar, especialmente si está acción es
mixta y consta de interacciones con la interfaz y con objetos del mundo físico. Es menester
analizar los gestos y las posiciones de las manos, los brazos, la cabeza y el torso de los
participantes para entender si los gestos y controles diseñados son apropiados para el
espacio, y poder determinar el grado de inmersión de la experiencia: reflexionar acerca de si
la interacción es apropiada para el espacio, si los usuarios estarán familiarizados con el
ambiente que los rodea, qué consecuencias podría tener que las personas se choquen con o
derriben objetos mientras interactúan con el sistema.
Es importante recordar que se está estudiando una interacción que dista lo suficiente de las
interacciones tradicionales, y es factible descubrir inconvenientes en gestos comunes que
normalmente no causarían mayores problemas. Aunque estas interacciones están vinculadas
a una pantalla táctil, todo el entorno debe ser considerado interactivo. Una recomendación en
este respecto es intentar disminuir el grado en el que el facilitador se interpone entre el usuario
y el segundo plano. En el experimento realizado, las distintas hojas del experimento eran
manejadas por la persona facilitadora, de una manera, si se quiere, demasiado torpe: las
mismas debían ser sostenidas desde arriba y abajo con ambas manos, obstruyendo gran
88
parte del fondo con la propia corporalidad de la persona facilitando el test. Una alternativa
económica a este problema podría consistir en un marco fijo, delgado, amurado ligeramente
al panel de vidrio, que permita introducir y retirar rápidamente las distintas láminas
transparentes.
Es crucial poner especial empeño en comprender cómo actúan los usuarios ante reflejos y
fondos ruidosos que causen demasiada interferencia. La experiencia deberá ser rediseñada
para que los usuarios puedan moverse alrededor y a través de una interfaz transparente.
La experiencia debe ser testeada en el entorno lo más real posible. Si el contexto supone que
las personas usuarias estén interactuando con un ventanal, las pruebas deberán contemplar
escenarios en distintos momentos del día, con diferentes climas y diversos fondos como ser
un parque, un edificio en frente o personas y animales domésticos caminando por detrás.
Además de los cambios en el fondo, también deberá considerarse la luminosidad del
ambiente en donde está el usuario, y los reflejos de los posibles objetos que le rodeen. Si se
espera que la interfaz funcione en un espacio público, como ser la ventanilla de un medio de
transporte, deberán considerarse escenarios de prueba con fondos transcurriendo a altas
velocidades, y ambientes en donde la persona usuaria esté limitada en sus movimientos,
como podría estarlo en un tren o subterráneo en hora pico.
Es importante considerar también las normas o expectativas de uso de esos espacios. Las
pruebas en los laboratorios con entornos completamente controlados se demuestran
insuficientes.
No es necesario esperar a contar con el hardware idóneo para realizar las pruebas, pero sí
es necesario recurrir al inventivo y la imaginación para generar una simulación lo
suficientemente comprensiva de todas las variables de entorno relevantes. Esto significa que
no es indispensable tener una pantalla transparente para comenzar a probar, al menos, en
etapas tempranas. Como ya se ha mencionado en el capítulo anterior, no es un problema si
la prueba luce barata, lo importante es contemplar la mayor cantidad de variables que puedan
afectar la experiencia del usuario. Si funciona, es lo suficientemente bueno para avanzar.
89
Conclusiones
Retomando los objetivos propuestos al comienzo, este trabajo investiga los aspectos que
deben ser tenidos en cuenta a la hora de encarar un proyecto de interfaces gráficas sobre
pantallas transparentes de manera exitosa.
Los primeros capítulos definen las bases teóricas del diseño gráfico digital y el diseño de
interacción, estudiando qué aspectos de la naturaleza humana se ponen en juego en el
diálogo que es una interfaz, y qué fenómenos se observan en estos diálogos. El texto invita a
recorrer los elementos más básicos del diseño UI y los principios fundamentales de la relación
entre las personas y los dispositivos, para luego explorar tecnologías que hacen posible el
salto de las interfaces convencionales hacia otro tipo de soportes.
Las interfaces de este trabajo suponen el uso de una tecnología que aún no está disponible
para el consumo masivo: los soportes interactivos transparentes. Sin embargo, el proyecto
estudia dispositivos similares que ya están en uso, como los HUDs y los visores de realidad
aumentada. En el tercer capítulo se exploran interfaces en soportes poco tradicionales que
abren el juego a nuevas interacciones y otras maneras de dialogar con el entorno. Se analizan
cuáles son los puntos fuertes de estas propuestas y qué puntos de dolor dejan ver
oportunidades de mejora, al mismo tiempo que se explora el mercado actual para imaginar
un futuro de sistemas integrados.
Si los capítulos ya mencionados buscan entender la evolución de los soportes físicos que
alojarán las interfaces del futuro, el cuarto capítulo reflexiona sobre los procesos creativos
que hacen posibles las interfaces actuales. Se identifican técnicas y métricas que permiten
evaluar interfaces en pantallas transparentes con especial foco en los aspectos visuales e
interactivos de los diseños.
Se ahonda en los diversos artefactos de análisis cuantitativo y cualitativo que la disciplina de
la experiencia de usuario aplica en su práctica, y se exploran las aplicaciones de cada uno en
investigaciones pasadas, para entender qué experimentos pueden ser útiles a la hora de
90
plantear una propuesta de investigación que sea capaz de determinar la usabilidad de un
sistema expresado en pantallas transparentes.
Para ahondar en los problemas particulares que presentan las interfaces transparentes, se
describen experimentos realizados desde la perspectiva de la atención. Se definen cuestiones
puntuales como atención dividida y la interferencia, para encontrar maneras de medir
eficazmente el éxito de un diseño planteado para dispositivos de esta naturaleza. Se describe
la metodología de trabajo de UX para entender cuáles de todos sus artefactos son
especialmente relevantes para estos diseños, y se busca guiar a los lectores en los métodos
de la disciplina, para que estos logren entender su utilidad y puedan aplicarlos con criterio. El
anteúltimo capítulo también deja ver la importancia de la interdisciplinariedad en los equipos
de trabajo a la hora de definir problemas, teniendo en cuenta limitaciones reales desde el
punto de vista de la gestión del proyecto en un entorno ágil.
El quinto capítulo propone métodos concretos para probar dichas interfaces en distintos
momentos del proceso de diseño. Se plantean soluciones para la falta actual de soportes
transparentes sobre los cuales testear: prototipos de baja fidelidad realizados en acetato, y
prototipos de alta fidelidad en computadora, con transparencia aplicada por software al primer
plano montado sobre videos corriendo en el plano de fondo. Esta propuesta hace posible
conducir pruebas de usabilidad que permitan identificar problemas de manera rápida y
económica en proyectos que de otra manera serían muy difíciles de abordar.
La pregunta problema que atravesó la totalidad de las indagaciones expuestas en este trabajo
es cómo operan las interfaces no tradicionales en la experiencia de usuario. Este proyecto
aborda cómo la variedad de contextos de uso de productos y servicios digitales se separa
cada vez más del clásico escenario de los usuarios consumiéndolos desde sus computadoras
o teléfonos. El texto plantea un panorama sobre el actual contexto divergente en donde una
miríada de nuevos dispositivos e interfaces van ganando terreno y las tecnologías se
sofistican de manera tal que los modos de interactuar con los sistemas están cambiando.
91
La hipótesis postulada en este trabajo fue que los métodos tradicionales del diseño UX ya no
son suficientes para plantear buenas prácticas a la hora de diseñar pantallas transparentes.
Sin embargo, a lo largo del trabajo se puede ver cómo los métodos de la disciplina han
demostrado sobrevivir el paso del tiempo y se revelan aún pertinentes para los desafíos del
futuro. Las prácticas que rigen el diseño UX, lejos de necesitar ser redefinidas, se presentan
como la oportunidad para ganar certezas y seguir construyendo incluso allí donde todavía no
existen demasiadas referencias.
El diseño, por más caótico que pueda parecerle al ojo no entrenado, es una disciplina
proyectual y como tal, encuentra su fortaleza en la cadena de procesos que construyen el
sentido. Revisar estos procesos es saludable para reencontrarse con ellos desde la confianza
que surge tras haberlos puesto a prueba y volver, una vez más, con decisiones que se apoyan
en resultados accionables.
Este proyecto beneficia a estudiantes y profesionales de Diseño de Experiencia de Usuario,
Accesibilidad y Usabilidad, en tanto que analiza las buenas prácticas de la disciplina, al mismo
tiempo que las aplica en su propuesta original. El texto realiza un destacado aporte a la
disciplina del Diseño de Experiencia de Usuario porque integra los conocimientos que existen
actualmente sobre el Diseño de productos digitales y los vincula con las nuevas oportunidades
que se presentan en el mercado.
Es relevante para disciplinas como Diseño Gráfico y Diseño de Interacción en tanto que se
analizan elementos gráficos, colores, texturas y estilos y tendencias para diferentes
interfaces. Finalmente, es de interés a las áreas de Psicología Cognitiva y Estudios sobre la
Percepción en tanto que ahonda sobre cuestiones como la atención y la carga cognitiva. A su
vez, beneficia a la sociedad de consumo en tanto se considera a sus individuos como usuarios
de medios de transporte, habitantes de un hogar, o consumidores de bienes, servicios y
experiencias.
En la actualidad, las pantallas transparentes touch no forman parte de lo cotidiano. Los
lanzamientos de nuevos productos parecen aún enfocarse en tecnologías de display sin
92
posibilidad de interacción táctil. Sin embargo, los soportes transparentes están ganando
momentum en ferias y eventos reconocidos internacionalmente. Las marcas más importantes
de electrodomésticos y aparatos electrónicos para consumo masivo han presentado sus
variantes en las últimas ediciones de la CES (Feria Internacional de Electrónica de Consumo,
una de las ferias del sector tecnológico orientada a retail más importante y que dicta el rumbo
de la industria).
Las grandes marcas están experimentando aún las posibilidades y el alcance de estos
materiales y cómo pueden articular con sus líneas de productos existentes. Las pantallas
transparentes en Argentina aún son escasas, y las pantallas transparentes táctiles,
inexistentes. Existen muy pocas oportunidades para desarrollar y diseñar experiencias en
estos soportes.
Incluso en ambientes profesionales, las posibilidades de formar parte de un proyecto de estas
características es muy poco frecuente, y no existe conocimiento organizacional alrededor del
tópico. Sin embargo, la posibilidad de prescindir de esta tecnología y aún así poder generar
propuestas de valor que permitan atraer proyectos de esta índole en un futuro cercano es una
oportunidad que no debe pasar desapercibida. Este trabajo busca generar la proliferación de
proyectos orientados a interfaces transparentes basados en un análisis lo suficientemente
robusto que permita salir al mercado no solo con ideas creativas, sino con pruebas de
concepto capaces de sostenerse en una ronda de inversión. Asimismo, el proyecto es valioso
porque al ofrecer alternativas de bajo costo abre el juego a profesionales independientes o
grupos de trabajo pequeños para que puedan, en pocos meses de trabajo, generar
propuestas factibles. Poner a disposición de la comunidad local maneras creativas de sortear
la problemática de falta de dispositivos transparentes es una manera de descolonizar la
disciplina, y es un pequeño aporte en aras de continuar demostrando con hechos que la
escena local es capaz de generar proyectos con valor agregado lo suficientemente buenos
para poder competir en el mundo.
93
Según la encuesta del Observatorio Permanente de la Industria de Software y Servicios
Informáticos (OPSSI) de 2017, la Industria Argentina del Software logró un récord histórico de
exportaciones durante 2017. Se observa un crecimiento sostenido del sector en los últimos
diez años. Al mismo tiempo, se reafirma el valor agregado al negocio que aporta UX como
disciplina cuando se la incluye a nivel estratégico y a través de todo el desarrollo de un
producto digital, como todas las currículas de maestrías y diplomaturas en el ámbito digital
dejan ver. Una UX orientada a las pantallas transparentes no está siendo contemplada
actualmente y permite una especialización con grandes posibilidades de proyección
profesional en los próximos cinco años, tanto para los futuros Diseñadores UX como para la
región.
La capacidad prospectiva de este trabajo es amplia pues contribuye a plantear escenarios
futuros que contemplen la liberación de las interfaces de los dispositivos actuales. Ante la
posibilidad de generar sistemas embebidos en superficies transparentes, los hogares
inteligentes, los medios de transporte y los lugares de trabajo, educación y entretenimiento
pueden transformarse en espacios altamente interactivos. La digitalización de estos entornos
abre el juego a nuevas maneras de interactuar con marcas y personas. Las posibilidades
creativas que este tipo de tecnología ofrece son inmensas, y permiten jugar a imaginar futuros
en donde la información fluye sobre la realidad física de forma natural, ya no limitando a las
personas a pequeños dispositivos celulares que concentran toda su atención.
Los dominios de la realidad mixta, virtual y aumentada parece estar actualmente dominada
por ingenieros y desarrolladores, pero los diseñadores deben ser parte de la conversación
para que estas tecnologías alcancen su máximo potencial.
94
Imágenes seleccionadas
Figura 1: Ejemplo de un prototipo de alta fidelidad para evaluar navegación. Fuente: Propia.
ROJO VERDE AZUL NEGRO ROJO AMARILLO
FUCSIA VERDE AZUL NEGRO ROJO
ROJO VERDE AZUL NEGRO ROJO AMARILLO
FUCSIA VERDE AZUL NEGRO ROJO
Figura 2: Prueba de Stroop. Fuente: Propia.
95
Tabla 1: TCR o Tasa de Tareas Completadas. Fuente: propia
96
Listado de Referencias Bibliográficas
Anderson, J., McRee, J., Wilson, R. (2010). Effective UI. (1ª ed). California: O’Reilly Media
Inc.
Arnheim, R. (1954). Art and Visual Perception: A Psychology of the Creative Eye. (1ª e.d).
Londres: University of California Press.
BBC (2016): HoloLens unveils 'teleportation' to Mars. Recuperado el 20/04/2021 de:
https://www.bbc.com/news/technology-35609947
Budiu, R., Laubheimer, P. (2018). Intelligent Assistants Have Poor Usability: A User Study of
Alexa, Google Assistant, and Siri. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/intelligent-assistant-usability/
Budiu, R., Laubheimer, P. (2018). Intelligent Assistants: Creepy, Childish, or a Tool? Users’
Attitudes Toward Alexa, Google Assistant, and Siri. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/voice-assistant-attitudes/
Budiu, R. (2013). Interaction Cost. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/interaction-cost-definition/
Business of Apps, (2021). Pokémon Statistics. Recuperado el 20/04/2021 de:
https://www.businessofapps.com/data/pokemon-go-statistics/
Caño, E., González, P., Maroto, M., Villegas, D. (2018). Head-up Displays (HUD) in driving
[paper] Recuperado el 20/04/2021 de: https://arxiv.org/pdf/1803.08383.pdf
CES (2021). Innovation Award Product Transparent OLED TV By Shenzhen Konka Electronic
Technology Co., Ltd. Recuperado el 20/04/2021 de: https://www.ces.tech/Innovation-
Awards/Honorees/2021/Honorees/T/Transparent-OLED-TV.aspx
Cooper, A., Reimann, R., Cronin, D. (2007). About Face 3. The Essentials of Interaction
Design. (3ª ed). Indianapolis: Wiley Publishing.
Engadget, (2009). Sony Ericsson Xperia Pureness hands-on. Recuperado el 20/04/2021 de:
https://www.engadget.com/2009-12-30-sony-ericsson-xperia-pureness-hands-on.html
Gibson, J., (1977). The theory of Affordances. Citado en: Shaw, R., Brandsford, J. (2019).
97
Perceiving, Acting and Knowing. Toward an Ecological Psychology. (1ª e.d). Londres y
Nueva York: Routledge.
Hall, E. (2013). Just Enough Research. (1ª e.d). Nueva York: A Book Apart.
Hall, E. (2018). Conversational Design. (1ª e.d). Nueva York: A Book Apart.
Harrison, B. L., Kurtenbach, G., Vicente, K.J. (1995). An Experimental Evaluation of
Transparent User Interface Tools and Information Content en Proceedings of User
Interface Software and Technology' 95, Pittsburgh. [Paper] Recuperado el 20/04/2021
de: https://damassets.autodesk.net/content/dam/autodesk/www/autodesk-
reasearch/Publications/pdf/an-experimental-evaluation-of.pdf
Harrison, B. L., Ishii, H., Vicente, K. J., Buxton, W. A. S. (1995). Transparent Layered User
Interfaces: An Evaluation of a Display Design to Enhance Focused and Divided Attention.
Toronto. [paper] Recuperado el 20/04/2021 de:
https://www.billbuxton.com/transparency.html
Indestry, (2019). The brief history of social media AR filters. Recuperado el 20/04/2021 de:
https://www.indestry.com/blog/the-brief-history-of-social-media-ar-filters
Kandinsky, W. (2010). Punto y Línea sobre el plano. (1ª ed). Buenos Aires: Libertador.
Laubheimer, P. (2018). Beyond the NPS: Measuring Perceived Usability with the SUS, NASA-
TLX, and the Single Ease Question After Tasks and Usability Tests. Recuperado el
13/05/21 de: https://www.nngroup.com/articles/measuring-perceived-usability/
Lund, N. (2001). Attention and Pattern Recognition. (1ª ed). East Sussex: Routledge.
Nielsen, J. (1994). 10 Usability Heuristics for User Interface Design. Recuperado el 13/06/19
de: https://www.nngroup.com/articles/ten-usability-heuristics/
Nielsen, J. (2003). Voice Interfaces: Assessing the Potential. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/voice-interfaces-assessing-the-potential/
Nielsen, J. (2012). User Satisfaction vs. Performance Metrics. Recuperado el 01/06/21 de:
https://www.nngroup.com/articles/satisfaction-vs-performance-metrics/
Norman, D. (2013). The Design of everyday things. (2ª e.d). Nueva York: Basic Books.
98
Pernice, K. (2016). UX Prototypes: Low Fidelity vs. High Fidelity. Recuperado el 24/05/21 de:
https://www.nngroup.com/articles/ux-prototype-hi-lo-fidelity/
Pew Research Center. (2017). Nearly half of Americans use digital voice assistants, mostly on
their smartphones. Recuperado el 01/05/2021 de: https://www.pewresearch.org/fact-
tank/2017/12/12/nearly-half-of-americans-use-digital-voice-assistants-mostly-on-their-
smartphones/
Shneiderman, B., Plaisant, C., Cohen, M., Jacobs, S., Elmqvist, N., Diakopoulos, N. (2018)
Designing the User Interface. Strategies for effective Human-Computer Interaction. (6ª
e.d). Inglaterra: Pearson Education Limited
Solso, R.L. (1998). Cognitive Psychology (5ª ed). Boston: Allyn and Bacon.
The Verge (2013). Has the transparent smartphone finally arrived?. Recuperado el 20/04/2021
de: https://www.theverge.com/2013/2/15/3966950/will-we-see-a-transparent-phone-
polytron-prototype-display
The Verge (2013). NTT Docomo Double-sided Transparent Touchscreen Prototype.
Recuperado el 20/04/2021 de: https://www.theverge.com/2012/5/21/3033569/ntt-
docomo-double-sided-transparent-touchscreen-prototype
Whitenton, K. (2016). Voice First: The Future of Interaction?. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/voice-interaction-ux/
Young, I. (2008). Mental Models. Aligning Design Strategy with Human Behavior. (1ª ed).
Nueva York: Rosenfeld Media.
99
Bibliografía
Aarron, W. (2011). Designing for Emotion. (1ª e.d). Nueva York: A Book Apart.
Anderson, J., McRee, J., Wilson, R. (2010). Effective UI. (1ª ed). California: O’Reilly Media
Inc.
Arnheim, R. (1954). Art and Visual Perception: A Psychology of the Creative Eye. (1ª e.d).
Londres: University of California Press.
BBC (2016): HoloLens unveils 'teleportation' to Mars. Recuperado el 20/04/2021 de:
https://www.bbc.com/news/technology-35609947
Budiu, R., Laubheimer, P. (2018). Intelligent Assistants Have Poor Usability: A User Study of
Alexa, Google Assistant, and Siri. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/intelligent-assistant-usability/
Budiu, R., Laubheimer, P. (2018). Intelligent Assistants: Creepy, Childish, or a Tool? Users’
Attitudes Toward Alexa, Google Assistant, and Siri. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/voice-assistant-attitudes/
Budiu, R. (2013). Interaction Cost. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/interaction-cost-definition/
Business of Apps, (2021). Pokémon Statistics. Recuperado el 20/04/2021 de:
https://www.businessofapps.com/data/pokemon-go-statistics/
Caño, E., González, P., Maroto, M., Villegas, D. (2018). Head-up Displays (HUD) in driving
[paper] Recuperado el 20/04/2021 de: https://arxiv.org/pdf/1803.08383.pdf
CES (2021). Innovation Award Product Transparent OLED TV By Shenzhen Konka Electronic
Technology Co., Ltd. Recuperado el 20/04/2021 de: https://www.ces.tech/Innovation-
Awards/Honorees/2021/Honorees/T/Transparent-OLED-TV.aspx
Chimero, F. (2012). The Shape of Design. (1ª ed). Minnesota: Shapco Printing.
Choudhury, N. (2014). World Wide Web and Its Journey from Web 1.0 to Web 4.0. [Paper]
Recuperado el 20/04/2021 de:
http://ijcsit.com/docs/Volume%205/vol5issue06/ijcsit20140506265.pdf
100
Cooper, A., Reimann, R., Cronin, D. (2007). About Face 3. The Essentials of Interaction
Design. (3ª ed). Indianapolis: Wiley Publishing.
Crumlish, C., Malone, E. (2009). Designing Social Interfaces. (1ª e.d). California: O’Reilly
Media Inc.
Engadget, (2009). Sony Ericsson Xperia Pureness hands-on. Recuperado el 20/04/2021 de:
https://www.engadget.com/2009-12-30-sony-ericsson-xperia-pureness-hands-on.html
Garrett, J.J., (2011). The elements of User Experience: User-Centered Design for the web and
Beyond. (2ª ed). Berkeley: New Riders.
Gibson, J., (1977). The theory of Affordances. Citado en: Shaw, R., Brandsford, J. (2019).
Perceiving, Acting and Knowing. Toward an Ecological Psychology. (1ª e.d). Londres y
Nueva York: Routledge.
Hall, E. (2013). Just Enough Research. (1ª e.d). Nueva York: A Book Apart.
Hall, E. (2018). Conversational Design. (1ª e.d). Nueva York: A Book Apart.
Harrison, B. L., Kurtenbach, G., Vicente, K.J. (1995). An Experimental Evaluation of
Transparent User Interface Tools and Information Content en Proceedings of User
Interface Software and Technology'95, Pittsburgh. [Paper] Recuperado de:
https://damassets.autodesk.net/content/dam/autodesk/www/autodesk-
reasearch/Publications/pdf/an-experimental-evaluation-of.pdf
Harrison, B. L., Ishii, H., Vicente, K. J., Buxton, W. A. S. (1995). Transparent Layered User
Interfaces: An Evaluation of a Display Design to Enhance Focused and Divided Attention.
Toronto. [paper] Recuperado de: https://www.billbuxton.com/transparency.html
Indestry, (2019). The brief history of social media AR filters. Recuperado el 20/04/2021 de:
https://www.indestry.com/blog/the-brief-history-of-social-media-ar-filters
Kandinsky, W. (2010). Punto y Línea sobre el plano. (1ª ed). Buenos Aires: Libertador.
Kahneman, D. (2011). Thinking, Fast and Slow. (1ª e.d). Nueva York: Farrar, Straus and
Giroux.
Kaptelinin, V. (2013). Affordances and Design. (1ª ed). Nueva York: The Interaction Design
101
Foundation.
Laubheimer, P. (2018). Beyond the NPS: Measuring Perceived Usability with the SUS, NASA-
TLX, and the Single Ease Question After Tasks and Usability Tests. Recuperado el
13/05/21 de: https://www.nngroup.com/articles/measuring-perceived-usability/
Levin, M. (2014). Designing Multi-Device Experiences. (1ª e.d). California: O’Reilly Media Inc.
Lund, N. (2001). Attention and Pattern Recognition. (1ª ed). East Sussex: Routledge.
McLuhan, M. (1964). Understanding Media. The extensions of man. (1ª e.d). Canada:
McGraw-Hill.
Mickley, Z. (2008). Flexible Web Design. Creating Liquid and Elastic Layouts with CSS (1ª
e.d). California: New Riders.
Nielsen, J. (1994). 10 Usability Heuristics for User Interface Design. Recuperado el 13/06/19
de: https://www.nngroup.com/articles/ten-usability-heuristics/
Nielsen, J. (2003). Voice Interfaces: Assessing the Potential. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/voice-interfaces-assessing-the-potential/
Nielsen, J. (2012). User Satisfaction vs. Performance Metrics. Recuperado el 01/06/21 de:
https://www.nngroup.com/articles/satisfaction-vs-performance-metrics/
Norman, D. (2013). The Design of everyday things. (2ª e.d). Nueva York: Basic Books.
Pernice, K. (2016). UX Prototypes: Low Fidelity vs. High Fidelity. Recuperado el 24/05/21 de:
https://www.nngroup.com/articles/ux-prototype-hi-lo-fidelity/
Pew Research Center. (2017). Nearly half of Americans use digital voice assistants, mostly on
their smartphones. Recuperado el 01/05/2021 de: https://www.pewresearch.org/fact-
tank/2017/12/12/nearly-half-of-americans-use-digital-voice-assistants-mostly-on-their-
smartphones/
Rosenfeld, L., Morville, P., Arango, J. (2015). Information Architecture, for the web and
Beyond. (4ª e.d). California: O’Reilly Media Inc.
Rowland, C., Goodman, E., Charlier, M., Light, A., Lui, A. (2015). Designing Connected
102
Products: UX for the consumer IoT. (1ª e.d). California: O’Reilly Media Inc
Shneiderman, B., Plaisant, C., Cohen, M., Jacobs, S., Elmqvist, N., Diakopoulos, N. (2018)
Designing the User Interface. Strategies for effective Human-Computer Interaction. (6ª
e.d). Inglaterra: Pearson Education Limited
Solso, R.L. (1998). Cognitive Psychology (5ª ed). Boston: Allyn and Bacon.
Steyerl, H. (2020). Los condenados de la pantalla (1ª ed). Buenos Aires: Caja Negra.
The Verge (2013). Has the transparent smartphone finally arrived?. Recuperado el 20/04/2021
de: https://www.theverge.com/2013/2/15/3966950/will-we-see-a-transparent-phone-
polytron-prototype-display
The Verge (2013). NTT Docomo Double-sided Transparent Touchscreen Prototype.
Recuperado el 20/04/2021 de: https://www.theverge.com/2012/5/21/3033569/ntt-
docomo-double-sided-transparent-touchscreen-prototype
Whitenton, K. (2016). Voice First: The Future of Interaction?. Recuperado el 24/04/21 de:
https://www.nngroup.com/articles/voice-interaction-ux/
Wroblewski, L. (2011). Mobile First. (1ª ed). Nueva York: A Book Apart.
Young, I. (2008). Mental Models. Aligning Design Strategy with Human Behavior. (1ª ed).
Nueva York: Rosenfeld Media.