UX/UI: Figma y el diseño colaborativo

Hace un año, echábamos un vistazo a seis herramientas de diseño de interfaces que según el diseñador Ji Hong Kim iban a ser especialmente influyentes en 2017. Una de ellas es Figma, una plataforma online que se distingue por facilitar a los miembros de un equipo la posibilidad de colaborar en tiempo real en el diseño de una interfaz de usuario. Si bien no es tan popular como Sketch, esta aplicación ha ido generando un creciente interés desde su lanzamiento y hace unos meses contaba ya con clientes de la talla de Microsoft, Uber y Slack.

Como comentábamos ya en un post anterior, Figma se diferencia por ser una aplicación en la nube, a la que se accede por medio del navegador en una cuenta privada, a la manera de Google Drive. Y, de la misma manera en que la serie de aplicaciones de oficina de Google permite trabajar en documentos de texto, hojas de cálculo o presentaciones en la nube, compartirlas con otros usuarios y trabajar conjuntamente viendo en tiempo real los cambios efectuados, Figma lleva el trabajo remoto en colaboración al ámbito del diseño de interfaces. La plataforma cuenta con varias características que la hacen especialmente indicada para el trabajo en equipo:

  • La colaboración en vivo permite ver en tiempo real los cambios que se están efectuando en un diseño, enviar comentarios y responderlos. Esto agiliza en gran medida la labor del diseñador, quien en lugar de crear una versión del diseño, enviarla, esperar comentarios y luego trabajar a partir de la lista de comentarios recibidos para crear una nueva versión, puede llevar a cabo cambios y ajustes en un diálogo directo con el resto del equipo.
  • El control de versiones guarda un registro detallado de los cambios realizados en el proyecto, con lo cual permite revisar el desarrollo del mismo y evita que los colaboradores deshagan el trabajo hecho.
  • El “modo código” facilita la consulta del código que se haya bajo la apariencia visual del proyecto, lo cual permite revisar posibles errores debidos a la programación y hacer los ajustes necesarios, de la misma manera que suele hacerse con los sitios web en html y php.
  • El “modo prototipo” es una herramienta con la cual los diseñadores pueden crear, presentar y modificar prototipos de productos digitales que funcionan, sin necesidad de escribir código.

Figma evita tener que emplear diferentes aplicaciones al diseñar, prototipar y compartir un proyecto, además de los problemas que genera el constante envío de versiones y la necesidad de guardar los archivos en discos locales. Pese a ser una aplicación en la nube, permite trabajar ágilmente con gráficos de vectores e imágenes que se guardan en una librería compartida. Esta librería, al estar vinculada al proyecto y sus miembros, puede avisar cuando se modifica un elemento, de manera que no sólo está siempre disponible sino que además permite un control de versiones. Los diseños pueden luego previsualizarse en un dispositivo móvil, de manera que resulta sencillo llevar a cabo un test de uso y detectar posibles problemas o mejoras. Por último, Figma incorpora herramientas de comunicación que facilitan la presentación del proyecto, así como el intercambio de comentarios entre miembros del equipo.

La importancia que Figma da al trabajo en equipo como eje del valor de su producto se demuestra en que su uso es completamente gratuito para usuarios únicos (diseñadores que no trabajen con un equipo). Para los equipos, se dan actualmente dos niveles de suscripción: uno básico (Starter Team) con un máximo de dos editores y tres proyectos, así como un control de versiones limitado a 30 días. La versión de pago (Professional Team) cuesta entre 12 y 15 dólares por editor y mes, que dan derecho a un número ilimitado de proyectos, control de versiones ilimitado, librería de componentes compartida e integración con Slack. Al igual que hacen otros desarrolladores de herramientas de diseño, Figma apuesta por un producto como servicio, al que se accede por suscripción y que conserva todos los archivos en sus servidores. Esto también facilita crear una comunidad en torno a la propia herramienta, de manera que se hace más fácil compartir proyectos y soluciones.

 

 

 

Kinect y la Zero UI

Microsoft ha anunciado recientemente que deja de fabricar Kinectel popular dispositivo de visión por ordenador y reconocimiento de voz que introdujo con la consola de videojuegos XBox 360 en 2010. Creado para aumentar las formas de interacción con la consola más allá del clásico gamepad y competir con la Wii de Nintendo, Kinect permitía jugar a juegos y controlar personajes virtuales por medio de gestos y movimientos del cuerpo, sin necesidad de emplear ningún mando. Lo que el ingeniero y artista Myron Krueger había ideado y prototipado con su instalación pionera Videoplace (1974-1984) y muchos otros artistas y desarrolladores habían ido empleando en su trabajo durante las décadas siguientes llegaba por fin al consumidor medio: la posibilidad de interactuar con un ordenador simplemente con la propia presencia y los gestos del cuerpo. Microsoft centró inicialmente el potencial de Kinect en su consola Xbox 360 y luego Xbox One buscando captar a un nuevo sector de jugadores y competir con sus rivales, principalmente la PlayStation de Sony. Microsoft apostó por Kinect y para asegurarse un gran número de usuarios incluyó el dispositivo en cada Xbox One, con lo cual los usuarios no debían adquirir el periférico si querían jugar a videojuegos que requerían esta forma de interacción. Esto también supuso que el sensor fuese fácil de adquirir, lo cual atrajo a muchos artistas que vieron la posibilidad de emplearlo para sus propios proyectos. Con todo, Kinect limitaba hasta cierto punto los recursos de la consola, que no podía emplear el cien por cien de su capacidad de procesamiento ni de su tarjeta de gráficos. Sony explotó esta debilidad dando mayor protagonismo a la capacidad de su consola para generar mejores gráficos y por tanto escenarios más complejos, de los que hacían gala sus títulos más populares. Microsoft no logró contar con grandes títulos para Kinect y ante la elección entre interactuar con un juego moviéndose por el salón o hacerlo con un mando, la mayoría de jugadores optaron por o segundo. Así, al mismo tiempo en que Kinect resultaba cada vez más útil para artistas que desarrollaban piezas interactivas, perdía el interés de los jugadores y por tanto pasaba a un segundo plano en el contexto de las consolas de videojuegos.

Así, tras vender 35 millones de unidades, Kinect queda descartado del ámbito de los videojuegos como un accesorio fallido, pero se consolida como uno de los dispositivos más importantes desarrollados en los últimos diez años. Según afirma Mark Wilson: “no creo que sea una exageración afirmar que Kinect ha sido el hardware más influyente, o al menos premonitorio, desde el iPhone.” Su función de reconocimiento de voz ha sido imitada por Apple para la asistente Siri y posteriormente por Amazon y Google para sus respectivos asistentes de voz en el hogar. La visión por ordenador se ha popularizado para un gran número de usos, desde las apps de realidad aumentada y redes sociales como Snapchat a Amazon Go, una tienda que cobra automáticamente a los compradores detectando qué productos ponen en sus cestas, o el reciente sistema de reconocimiento facial en el iPhone X. La tecnología de Kinect, facilitada por una progresiva miniaturización, sigue desarrollándose en otros productos de Microsoft, como su visor de realidad aumentada Hololens, el asistente de voz Cortana y otros sistemas de interacción con el usuario. Por último, la popularidad de este dispositivo entre los artistas y desarrolladores de sistemas interactivos ha hecho que hoy en día una gran cantidad de obras de arte, sistemas de entretenimiento y anuncios interactivos dependan de Kinect.

Más allá de hacer que millones de jugadores saltasen o adoptasen posturas ridículas en el salón de casa, Kinect ha introducido en los hogares la interacción gestual y de voz, por medio de la consola de videojuegos pero anticipando una situación que va más allá del mero entretenimiento. Las posibilidades que planteaba Kinect están siendo desarrolladas en un contexto más amplio por los múltiples dispositivos conectados que buscan un lugar discreto en nuestros hogares, se integran en nuestra ropa y los complementos que llevamos a diario. Siguiendo el principio de lo que Andy Goodman describe como Zero UI, nos facilitan maneras de interactuar con los ordenadores, con las redes de datos y con nuestro entorno sin necesidad de mirar pantallas ni apretar botones. Esta tendencia sigue en alza y hace fácil predecir un futuro en el que cada espacio de la casa o la oficina está controlado por un sensor que permite interactuar uno o varios dispositivos por medio de la presencia, los movimientos, determinados gestos, comandos de voz o incluso por huellas biométricas como los latidos del corazón, la temperatura corporal o el ritmo de la respiración. En este futuro se plantea claramente la preocupación por la pérdida de privacidad, algo que se da en el momento en que se integran las webcams en las pantallas de los ordenadores personales y que el jugador olvida mientras interactúa con un videojuego dando saltos y agitando los brazos frente a un sensor. Sin duda, Kinect desaparece de la consola de videojuegos, pero lo hace para integrarse en el resto de la casa, y muy pronto en cada una de nuestras interacciones con las máquinas que nos rodean.

Diseño e Inteligencia Artificial

Joaquin Phoenix como Theodore en el film “HER” (Spike Jonze, 2013). Warner Bros. Pictures.

En su film Her (2013), el director Spike Jonze perfiló un posible (y muy real) futuro de nuestra interacción con los ordenadores a través de un asistente dotado de Inteligencia Artificial (IA). A partir de una idea que tuvo casi una década antes, el director plantea una relación romántica entre un usuario, Theodore Twombly, y el sistema operativo de su ordenador, que se comunica con él a través de un asistente de voz inteligente con voz femenina que se identifica a sí misma como Samantha. En la dirección de arte del film se acierta al presentar la tecnología con la que interactúa el protagonista como algo cotidiano y discreto, no en la manera fantasiosa que suele ser común en las películas de ciencia ficción (como, por ejemplo, Minority Report). La relación entre Theodore y Samantha se establece a través de un diálogo hablado, gracias a un diminuto dispositivo similar a un smartphone y un auricular, que permiten al usuario mantener un contacto constante con su asistente en cualquier lugar. El futuro imaginado por Jonze se basa en la manera en que se ha ido desarrollando la interacción con sistemas de Inteligencia Artificial durante décadas, ya sea a través de chats de texto o por medio de programas de reconocimiento de voz y voces sintéticas como las de Siri o Alexa. La actual proliferación de asistentes de voz para el hogar, así como sensores y altavoces inteligentes confirma el escenario planteado en Her, lo cual perfila una parte del panorama futuro del diseño de experiencias de usuario. Pero la IA también afectará al diseño de otras maneras.

Según afirma Rob Girling, co-fundador del estudio Artefact, una de las principales consecuencias de la introducción de la IA es que los diseñadores dejarán de tener el monopolio de la creatividad y no se centrarán tanto en la mera creación, sino que deberán trabajar en contextos interdisciplinares con otros profesionales que también aplicarán principios de Design Thinking asistido con IA. En concreto, como ya se está produciendo en el diseño de producto con programas como Autodesk Dreamcatcher, los diseñadores pasan a ser curadores o selectores: deben centrarse no tanto en un acto de creación único, sino en trabajar con unos parámetros que se facilitan al programa y a partir de los cuales se va escogiendo la solución más óptima a partir de los numerosos prototipos que se generan automáticamente. Así, como indica Girling (2017, 2 junio),

“en el futuro los diseñadores enseñarán a sus herramientas de IA a resolver problemas de diseño creando modelos basados en sus preferencias.”

Como ocurre con los artistas que crean instalaciones interactivas, no se trata ya de crear un único objeto, sino de plantear una situación y establecer unos parámetros dentro de los cuales pueden darse diferentes resultados. Como ocurrió con la irrupción de la autoedición, la evolución y popularización de estas herramientas implicará que un número cada vez mayor de diseñadores podrá crear y verá aumentada su capacidad de producción. Con todo, esto no afectará al estatus de los grandes diseñadores, puesto que factores como la creatividad y la capacidad para encontrar las mejores soluciones seguirán siendo diferenciadores. La IA aportará mejores herramientas pero, de momento, no es previsible que pueda suplantar la capacidad creativa de un buen diseñador ni generar por si misma ideas innovadoras.

Esto no quiere decir que los cambios que introduzca la IA no sean profundos y requieran adaptarse a situaciones y formas de trabajar novedosas. Según John Zimmerman, la mayoría de los diseñadores de experiencias de usuario no están preparados para trabajar con interfaces centradas en la Inteligencia Artificial (Schwab, 2017, 2 octubre). Esto se debe a que hay poco conocimiento acerca de esta tecnología y que el aprendizaje automático (machine learning) no forma parte aún de la formación en diseño ni está presente en las principales herramientas que emplean los diseñadores. El método de trabajo que los diseñadores conocen mejor, a partir de bocetos y en contacto directo con los materiales, resulta complejo de llevar a cabo con IA puesto que no es tan sencillo como hacer pruebas con un tipo de madera determinado en un taller. Para “enseñar” a un ordenador es preciso tener un conocimiento avanzado de matemáticas, datos y estadística que no está al alcance de muchos diseñadores ni forma parte de su método habitual de trabajo. En este aspecto, Zimmerman apunta que, al igual que ha pasado con la autoedición, algunas empresas están creando programas que resuelven parte de este complejo proceso, pero a la vez deja determinadas decisiones de diseño en mano de los programadores y limita las opciones del diseñador.

Por ello, es preciso que los diseñadores empiecen a entender las posibilidades del diseño asistido con IA, como por ejemplo la posibilidad de adaptar el producto a las características del usuario de forma automática, aprendiendo qué necesita en cada momento a partir de sus propias acciones. Esto requiere pensar más en un sistema adaptable que en un producto específico, y prever las situaciones que pueden producirse a medida que dicho sistema toma decisiones a partir de lo que ha aprendido del usuario. Por ejemplo, incluir la posibilidad de deshacer una acción es crucial, puesto que el asistente puede equivocarse al prever lo que el usuario quiere o necesita, y también este último puede simplemente cambiar de opinión. Un comando aparentemente sencillo como es el de “deshacer” puede plantear un serio reto al diseño de UX. Para incorporar la IA en su trabajo, los diseñadores deben aprender a trabajar con sistemas inteligentes al mismo tiempo que aprenden a diseñar, según afirma Zimmerman. Otra opción es que los estudiantes de diseño trabajen con estudiantes de análisis de datos y así entender mejor cómo se crean modelos de aprendizaje automático. Posiblemente la solución a medio plazo será la inclusión de la IA en los programas de diseño que se emplean regularmente, pero esto, como se ha indicado, limita sus opciones y no ayuda a los diseñadores a replantearse su método de trabajo.

Otro aspecto a tener en cuenta es cómo la IA afecta a la propia percepción que el usuario tiene de su entorno y de sí mismo. Mark Rolston (2017, 19 octubre), co-fundador de Argo Design, emplea el término “meta yo” (MetaMe) para referirse a la proyección del yo en las redes sociales y entornos virtuales con los que interactuamos a diario. Este “meta yo” se convierte progresivamente en un golem que controlamos cada vez menos, y que por medio de la IA se convierte en una entidad con una cierta conciencia. El asistente, mejorado y perfeccionado, pasa de ser una compañía inseparable (como se sugiere en Her) a sustituir al propio usuario en algunas tareas comunes, como felicitar cumpleaños o enviar respuestas rápidas. Como indica Rolston, actualmente recibos notificaciones que nos recuerdan cosas que podríamos o deberíamos hacer y reduce nuestra respuesta a pulsar un botón, pero pronto incluso ese botón podría desaparecer a medida que nuestro “meta yo” tiene la información suficiente para saber cuál será nuestra respuesta. El correo de Google también genera automáticamente sugerencias de respuestas a los emails recibidos, algo que podría igualmente ser gestionado por un asistente inteligente. Lo mismo ocurrirá con otros numerosos servicios y dispositivos que nos rodean.

Pero, advierte Rolson, cabe recordar que las acciones de este “meta yo” vendrán determinadas por un diseño cuyas directrices ha determinado un grupo de personas, o una empresa, con sus propias ideas, intenciones y motivos. La manera de entender el mundo de la empresa puede por tanto influenciar las acciones del usuario, lo cual tiene implicaciones éticas que deben tenerse muy en cuenta. Además, cabe tener en cuenta hasta qué punto el “meta yo” puede sustituir a la persona real, que en última instancia deberá responder a las situaciones creadas por las acciones de su yo virtual. Por tanto, es preciso que haya unos sistemas de control, tanto a nivel social como legal, para minimizar las consecuencias de un “paso en falso” del asistente. Este también es un problema de diseño, que requiere un enfoque transdisciplinar y que vaya mucho más allá del contexto concreto de la UX.

 

Referencias

Girling, R. (2017, 2 junio) AI and the Future of Design: What will the designer of 2025 look like?. Artefact. https://www.artefactgroup.com/articles/ai_design_2025/

Rolston, M. (2017, 19 octubre). AI Is Changing Our Brains. FastCo Design. https://www.fastcodesign.com/90147162/ai-is-changing-our-brains

Schwab, K. (2017, 2 octubre). Designers Aren’t Prepared To Make AI–Here’s How To Get Ready. FastCo Design. https://www.fastcodesign.com/90145027/designers-arent-equipped-to-make-ai-heres-how-to-prepare

 

 

 

La prenda como interfaz

Levi’s y Jaquard (un proyecto de Google centrado en desarrollar tejidos inteligentes) han lanzado recientemente una nueva versión de la popular chaqueta Commuter Trucker que incluye la posibilidad de controlar diversas funciones del smartphone (tales como la reproducción de música o la conducción guiada) a través de gestos en la manga izquierda de la prenda. La idea en sí no es nueva, puesto que ya en 1996 el MIT Media Lab trabajaba en el proyecto Musical Jacket, que consistió en una chaqueta vaquera en la que se bordó un pequeño teclado conectado con un circuito integrado que permitía convertir la prenda en un instrumento musical. En los últimos veinte años han sido numerosos los proyectos que se han desarrollado con lo que hoy en día se llaman “tejidos inteligentes,” así como otros tipos de interfaces destinadas a integrarse en el cuerpo (DuoSkin es un ejemplo) y lograr que no dependamos constantemente de la pantalla de un ordenador o dispositivo móvil. La exploración de las posibilidades de desarrollo de las prendas inteligentes se ha llevado incluso a condiciones medioambientales extremas, como las que resiste una chaqueta diseñada para sobrevivir en el ártico (Rantanen, J., Impiö, J., Karinsalo, T. et al., 2002), en la que se ha aprovechado el volumen y peso del abrigo para introducir diversos componentes electrónicos e incluso una interfaz visual en un pequeño dispositivo que se puede sujetar con una mano y se une a la chaqueta por un cable. Con todo lo novedoso de la Commuter Trucker es que se trata de una prenda inteligente producida a gran escala y lista para su comercialización en tiendas, lo cual marca una nueva etapa en la producción y popularización de este tipo de ropa.

La chaqueta es el resultado de un trabajo de dos años por parte del equipo de Project Jacquard, liderado por el diseñador Ivan Poupyrev, que se ha dedicado a desarrollar un hilo conductivo que se puede emplear con cualquier máquina industrial e integrarse en todo tipo de tejidos. Al integrar este hilo en la prenda y conectarlo con un controlador de pequeñas dimensiones, alimentado por una pila de botón y con conectividad Bluetooth, se logra que ésta funcione como lo haría una pantalla táctil: basta con hacer un gesto sobre la tela (tocar, dar dos toques seguidos, desplazar los dedos en diferentes direcciones) para activar una determinada orden que el controlador envía a un dispositivo móvil como un smartphone o tablet. En colaboración con Levi’s, Jacquard ha incorporado este sistema a su chaqueta vaquera de la línea Commuter, pensada para ciclistas urbanos. Siguiendo con los principios de diseño de esta línea de productos, que se distingue por elaborar prendas pensadas para personas que van en bicicleta cada día, la chaqueta incorpora una manga con interfaz táctil en la que el usuario puede hacer gestos con una mano para controlar la reproducción de la música en su smartphone, recibir indicaciones de voz para guiarle mientras se desplaza por la ciudad o recibir notificaciones de emails y mensajes de texto.

Según Paul Dillinger, vice presidente de innovación de productos de Google, el objetivo al diseñar esta chaqueta no era crear una prenda de ciencia ficción, sino añadir una nueva función a una prenda que debía ser atractiva y funcional por sí misma. Con todo, pese a ser idéntica a otra chaqueta de la misma colección, la prenda ha debido ser rediseñada para incorporar el hilo conductivo, el controlador Bluetooth (que se integra en la manga como un broche) y resistir las condiciones de fabricación de la prenda, que incluyen procesos de lavado, tinte, planchado y otras manipulaciones (Budds, 2017). A nivel de la interacción con la prenda, el hilo de Jacquard se ha dispuesto de manera que no destaque visualmente pero a la vez sea posible detectar la zona “sensible” de la chaqueta. Esto se ha logrado añadiendo en la manga unas costuras que describen varias líneas que se pueden notar al tacto. La manga, a su vez, se escogió como la zona ideal para la interacción dado que es fácil para un ciclista sujetar el manillar con una mano y llevar su otra mano a la muñeca opuesta. Además de las consideraciones prácticas, también se tuvieron en cuenta las implicaciones culturales de ciertos gestos, a fin de evitar que la posición de la zona táctil en la prenda implicase un gesto corporal que pudiese ser mal interpretado. Finalmente, el software asociado a la prenda permite al usuario decidir qué gestos corresponden a qué acciones, lo cual otorga una gran flexibilidad a la hora de establecer sus posibles usos.

La prenda inteligente de Levi’s y Jacquard proporciona además un ejemplo plenamente desarrollado de lo que se ha venido esbozando en los diversos prototipos de interfaces textiles. Partiendo de los retos y limitaciones enumerados por Simona Dakova y Norbert Dumont (2010), investigadores del Media Computing Group de la RWTH Aachen University, podemos analizar las aportaciones de este nuevo producto. Entre los retos que plantean las interfaces textiles, Dakova y Dumont señalan los siguientes:

  • Consumo de energía: el peso y volumen de una batería es un factor determinante en el caso de una prenda, por tanto es necesario un consumo bajo y emplear una batería ligera. La Commuter centra todos los componentes electrónicos en un broche que usa una pila de botón.
  • Cableado: integrar cables en la prenda requiere conseguir que estos no resulten incómodos para el usuario, con lo cual se deben ser flexibles y evitar zonas sometidas a muchos estiramientos o compresiones. Además, la prenda debe ser lavable. La chaqueta de Levi’s y Jacquard resuelve ambos problemas con el hilo de última generación, que se concentra en la manga.
  • Durabilidad: dado que solemos tratar con menos cuidado la ropa que un dispositivo digital, los componentes de la prenda debe ser resistentes. El controlador de la Commuter está revestido de una carcasa de plástico que lo hace resistente a salpicaduras y golpes. Además, puede separarse de la prenda para que esta pueda lavarse.
  • Conectividad: a fin de reducir el consumo de energía, es preciso que los elementos de la prenda estén conectados por cables en vez de por conexiones inalámbricas. En la chaqueta inteligente, todo el sistema está conectado directamente al controlador, que a su vez se comunica por Bluetooth con el teléfono, pero sólo lo hace cuando recibe un comando por medio de los gestos del usuario, de manera que el consumo de batería es menor que si estuviese todo el tiempo conectado, a la espera de una señal.
  • Interacción: la interacción con la prenda debe ser intuitiva, no dejar lugar a la incertidumbre y facilitar una respuesta inmediata. Según apuntan Dakova y Dumont a partir de un trabajo de campo, los usuarios prefieren tener botones invisibles en la ropa por cuestiones estéticas, pero luego les resulta más fácil interactuar con botones visibles y tangibles. En la Commuter, la solución descrita anteriormente resulta discreta y a la vez ofrece al usuario una indicación clara de la zona en la que puede interactuar.
  • Accesibilidad: los botones de la prenda deben ser muy accesibles y poder manipularse con una sola mano, puesto que en caso contrario dificultan la interacción. En línea con estas directrices, la manga de la Commuter es el lugar escogido para la zona táctil dado que resulta accesible, requiere un gesto natural que no supone un esfuerzo y puede emplearse con una mano mientras se va en bicicleta. Con todo, un contratiempo que puede presentar esta interfaz es la posible activación involuntaria de un comando. Esta situación es poco probable dado que la zona táctil se sitúa hacia la cara interior de la manga, pero no deja de ser una posibilidad.

La chaqueta de Levi’s y Jacquard sin duda marca un modelo que otras empresas querrán seguir, aplicando un principio similar a otras prendas. Con todo, no todas las prendas pueden o necesitan convertirse en inteligentes. La chaqueta es un buena prenda puesto que está pensada para un contexto concreto (ir en bicicleta por la ciudad), no es preciso lavarla a menudo y se lleva por encima de otras prendas, por tanto tiene una larga vida y un uso frecuente. Una chaqueta es, en cierto modo, el equivalente a una mochila y por tanto puede enriquecerse con funciones adicionales, pero es dudoso que se pueda aplicar el mismo principio a una camisa o camiseta. Otras prendas, como pantalones y guantes, podrían convertirse también en inteligentes pero requieren por una parte que el componente electrónico sea más ligero y por otra encontrar un tipo de interacción que sea útil y cómoda: no es un gesto frecuente tocarse los pantalones ni tampoco las manos (en todo caso, dirigimos una mano a la muñeca opuesta, como estamos acostumbrados a hacerlo para consultar el reloj).

Las prendas inteligentes aún requieren mucho desarrollo y, como otros dispositivos tecnológicos, hallar un uso y una cierta aceptación en nuestras interacciones sociales y actividades cotidianas. Según afirma Poupyrev, “estoy convencido de que los comandos de voz y táctiles tendrán un papel importante en nuestros dispositivos en el futuro.” Los smartphones ya han demostrado la usabilidad de las interfaces táctiles, mientras que los numerosos asistentes de voz procuran hacer de nuestros hogares entornos que controlamos hablando a las máquinas. Las prendas se suman ahora al creciente número de objetos conectados que nos rodean. Pero cabe tener en cuenta que, por un lado, las prendas pueden tener una vida mucho más corta que la de los dispositivos digitales, puesto que se ven sometidas a los vaivenes de la moda y los cambios de talla de muchos compradores. Por otra, pueden tener una vida más larga que la del hardware que les otorga nuevas funciones: la interfaz de la Commuter sólo está garantizada para aguantar los primeros 10 lavados y aunque una chaqueta no se lava tan a menudo como otras prendas, no deja de ser una limitación que acortará su vida útil como prenda inteligente.

 

Referencias

Budds, D. (2017). What Happened When I Wore Google And Levi’s “Smart” Jacket For A Night. FastCo Design. https://www.fastcodesign.com/90145030/what-happened-when-i-wore-google-and-levis-smart-jacket-for-a-night

Dakova, S., Dumont, N. (2010). An Overview of Textile Interfaces. https://hci.rwth-aachen.de/tiki-download_wiki_attachment.php?attId=1176

Rantanen, J., Impiö, J., Karinsalo, T. et al. (2002). Smart Clothing Prototype for the Arctic Environment. Personal Ub Comp, 6: 3. https://doi.org/10.1007/s007790200001

Estética contra usabilidad en el diseño de Apple

Tras el reciente lanzamiento del iPhone X, Apple ha recibido numerosas críticas por la “pestaña” que cubre la parte superior de la pantalla, dejando dos extraños huecos en los lados que generan todo tipo de problemas, tales como la desaparición de la barra de desplazamiento al consultar contenidos en formato panorámico o la molestia que produce ver un vídeo con una pestaña negra en un lado. Algunos desarrolladores ya han propuesto incluir en sus apps una barra negra que haga menos visible la pestaña, lo cual resta unos milímetros a las dimensiones totales de la pantalla. Esto resulta contradictorio si tenemos en cuenta que Apple ha creado por vez primera un smartphone cuya pantalla cubre toda (o casi toda) su superficie, eliminando el popular botón inferior, que en sus últimas versiones ha incorporado un lector de huella digital.

En el contexto de estas críticas y una sorprendente decisión de diseño que, según algunos, Steve Jobs no habría permitido, conviene recordar un artículo que publicaron en 2015 los expertos en diseño y usabilidad Don Norman y Bruce Tognazzini. Titulado “How Apple is Giving Design A Bad Name,” el texto ataca duramente la falta de usabilidad de los productos de la empresa californiana, en especial el iPhone y el iPad, así como el sistema operativo iOS. Si bien algunas de las críticas se dirigen a elementos del software que se han mejorado posteriormente, es interesante revisar los comentarios de Norman y Tognazzini en este momento. Cabe recordar que ambos autores están especialmente cualificados para criticar a Apple: Bruce Tognazzini trabajó durante 14 años en la empresa, donde fue fundador del Apple Human Interface Group y redactó la primera edición de su guía de interfaz de usuario en 1978; Don Norman trabajó en Apple Computer en los años noventa, donde acuñó la expresión “Experiencia de Usuario” y fue también Vicepresidente del Advanced Technology Group.

Comparando su experiencia con la producción actual de Apple, Norman y Tognazzini consideran que la empresa ha pasado de ser “el máximo exponente de la interfaz gráfica de usuario,” conocida por crear productos fáciles de usar, a abandonar sus principios en favor de un diseño más estilizado pero menos útil:

“Apple está destruyendo el diseño. Peor aún, está dando nueva vida a la vieja creencia de que el diseño sólo consiste en hacer que las cosas se vean bonitas. ¡No, no es así! El diseño es una manera de pensar, de determinar cuales son las necesidades reales y subyacentes de las personas para posteriormente facilitarles productos y servicios que les ayuden.”

Este cambio de dirección, en opinión de los autores, empieza con el iPhone y el desarrollo de productos cuya interacción se basa en gestos. La interfaz se vuelve entonces más limpia y ligera, desaparecen los botones y los menús, la tipografía es más elegante pero también más difícil de leer. Esta simplicidad a nivel visual conlleva aprender a usar el aparato mediante gestos que uno debe memorizar y no se hacen explícitos: no se pueden averiguar las funciones del teléfono simplemente mirando a la pantalla. Otra crítica importante es la desaparición del comando “deshacer,” un recurso muy útil puesto que permite al usuario corregir un error y mantener un cierto control sobre su uso del aparato. En los ordenadores de sobremesa, la combinación de teclas cmd+z siempre está a mano en el teclado o en el menú de cada programa. En iOS, es necesario agitar el aparato, un gesto algo ridículo que no está implementado en todas las apps y que en ocasiones se activa involuntariamente, generando en el usuario el pánico de perder por error algo que sí quería escribir o hacer. La interfaz carece de lo que Norman denomina “indicadores”, que deben dar al usuario claves visuales acerca de lo que puede hacer, y por tanto no sabe si debe apretar dos veces, una vez, deslizar el dedo a izquierda o a derecha, etc. En suma, esto lleva a los autores a considerar que Apple se ha alejado de los principios del buen diseño:

“El buen diseño debe ser atractivo, placentero y fácil de usar. Pero la facilidad de uso requiere que el dispositivo sea comprensible y permita rectificar. […] Estos son principios que enseñamos a los estudiantes de primer curso de diseño de interacción. Si Apple estuviese en esa clase, habría suspendido.”

Norman y Tognazzini admiten que los dispositivos táctiles son más fáciles de usar y hasta cierto punto intuitivos, pero mantienen esa facilidad en las acciones más sencillas, siendo mucho más complicado realizar acciones avanzadas. Esto implica que el producto sea inicialmente más atractivo pero a la larga genere frustración en unos usuarios que creen que son ellos los que no saben usar el aparato, en vez de criticar sus errores de diseño.

principios de diseño

Partiendo de su experiencia con la redacción e implementación de la guía de interfaz de usuario de Apple desde sus orígenes, los autores desglosan los cambios que se han producido en los principios de diseño a lo largo de los años. Examinando las ediciones de la guía de 1995 a 2015, puede verse cómo los principios de diseño son cada vez menos numerosos, llegando a reducirse en un 50%. En la última versión, centrada en iOS, el aspecto estético ocupa un lugar preeminente y desaparecen algunos principios que los autores consideran fundamentales:

  • La capacidad para descubrir las acciones posibles sin necesidad de recurrir a un manual o tutorial previo.
  • La retroalimentación, en forma de información facilitada al usuario cuando realiza una acción o incluso que pueda saber qué ocurrirá si realiza dicha acción. Cabe comentar que el creciente uso de microinteracciones en las apps está contrarrestando esta falta percibida por Norman y Tognazzini.
  • La recuperación de acciones o estados anteriores, ejemplificado por las acciones “deshacer” y “rehacer”, la primera de las cuales se introdujo ya en el sistema operativo desarrollado en el el PARC de Xerox en 1974.
  • La consistencia de las acciones en todos los dispositivos, necesaria para que el usuario pueda usarlos con confianza, se pierde en las opciones táctiles, que son diferentes en el iPhone, iPad, ratón y trackpad.
  • Incentivar el perfeccionamiento del uso del dispositivo o el sistema operativo, facilitando al usuario convertirse en experto, es más difícil con iOS, que más invita a la mayoría de usuarios a limitarse a unas acciones básicas.

Los autores también critican que Apple pretenda basarse en los conocidos principios de diseño de Dieter Rams, entre los cuales el famoso 10º principio: “tan poco diseño como sea posible.” Según afirman, no hay que confundir este principio con una depuración total a nivel estético que haga el producto menos comprensible y dificulte su utilización. En todo caso, se trata de mantener un equilibrio y no complicar las cosas más de lo necesario, algo que Norman ha criticado frecuentemente como featuritis, o la tendencia a añadir funciones sin atender a la pérdida de usabilidad que puede suponer la creciente complejidad del producto.

Norman y Tognazzini también critican que haya una falta de conexión entre los diferentes equipos de diseñadores y que las pruebas de usabilidad se hagan entre colegas. Este último punto sin duda es criticable desde la perspectiva de los expertos, pero sin duda se debe en parte a las presiones de la propia industria. Por una parte, la celeridad con la que se deben lanzar nuevos productos limita la posibilidad de hacer pruebas y más aún desarrollar un estudio con un grupo de personas de diversos entornos. Los primeros compradores de un nuevo producto suelen ser sus beta-testers, y por lo general no es hasta la siguiente versión del dispositivo cuando se logra un producto más estable y mejor diseñado. Por otra parte, el miedo a las filtraciones de información hace difícil confiar las pruebas de un nuevo producto a personas ajenas a la empresa, o incluso a aquellas que no están directamente ligadas al desarrollo del propio producto. Los lanzamientos de las últimas versiones del iPhone se han visto empañados por varias informaciones, fotos y vídeos que se filtraron a los medios.

En resumen, la crítica que dirigen Don Norman y Bruce Tognazzini a Apple plantea un interesante debate acerca del equilibrio que se debe lograr entre estética y usabilidad. Esto es especialmente relevante en el caso de unos productos cuyo uso cotidiano se basa en su interacción con el usuario por medio de un software que puede ser totalmente arbitrario en su manera de establecer este diálogo entre persona y máquina. Con todo, las presiones de la industria también limitan la capacidad que tienen las empresas para desarrollar sus productos debidamente, y aquí interviene una cultura de consumo constante que a su vez merece una profunda reflexión.

Democratic Design Day 2017

Hoy se celebra en el ECAL de Lausana el DEMOCRATIC DESIGN DAY con una serie de conferencias organizadas por IKEA que tienen por objetivo explorar ideas y visiones acerca del futuro de la vida en los hogares. Los conferenciantes son: Antonio Scarponi, arquitecto y fundador de Conceptual DevicesMatali Crasset, diseñadora de producto; Simonetta Carbonaro, investigadora en psicología del consumo; Marcus Engman, jefe del departamento de diseño de IKEA en Suecia; Kim Colin, arquitecta y diseñadora, co-fundadora del estudio Industrial Facility; el reconocido arquitecto y diseñador Mario Bellini; y por último Oliver Herwig, periodista y escritor.

Estos expertos debatirán cuestiones acerca de cómo viviremos y diseñaremos los espacios y productos que definen y constituyen nuestros hogares y nuestra vida cotidiana. Las conferencias podrán seguirse en directo desde la web de Designboom.

 

Algunas claves acerca del futuro del diseño

Con motivo de la entrega de los galardones Innovation by Design Awards 2017, Diana Budds de Fast Company ha entrevistado a algunos finalistas para conocer sus opiniones acerca del futuro del diseño. De sus comentarios se extraen algunas claves acerca de cómo debería ser esta profesión en los próximos años, y sobre todo cuál debería ser su implicación en el contexto social, cultural, económico y político en el que sin duda participa. Estas predicciones o aspiraciones aportan una visión más global del desarrollo actual y futuro del diseño a las tendencias dominantes en 2017 que hemos comentado en otro artículo. Se trata aquí, no sólo de ver qué se hará en diseño (ya sea editorial, web, de producto, de experiencia de usuario, etc.) sino también hacia dónde debería ir el diseño y qué principios debe seguir en el futuro.

Pensar más allá del producto

Una de las características de los diseñadores del futuro, según Carlo Ratti, director del MIT Senseable City Lab, debe ser su capacidad para actuar como mediadores y conectores entre personas y disciplinas, ayudando a operar un cambio a nivel estructural:

“Creo que los arquitectos y diseñadores están bien situados hoy en día para desempeñar un rol organizativo que podríamos definir como ‘coral’: son aquellos que pueden coordinar varias voces y hacer que formen un conjunto armónico. Los diseñadores deberían ser lo que, en biología, se denomina un mutagen, un agente que produce mutaciones en el mundo artificial.”

Esto implica pensar más allá del producto y centrar el trabajo del diseño en la innovación, investigando en los más recientes avances tecnológicos para afrontar los nuevos problemas que van surgiendo constantemente. Tim Brown, CEO de Ideo, indica que es preciso pensar en el diseño como en un sistema y abordar las maneras en que afecta al entorno y las personas, en un ciclo de aprendizaje continuo:

“Todo lo que hacemos debe ser un sistema de aprendizaje, no puede ser simplemente un artefacto. La tecnología actual lo hace posible. Sensores, software inteligente que percibe lo que ocurre, aprende lo que hacen las personas y cuáles son sus efectos en el sistema. Podemos aprender qué pueden conseguir los diseños, y así estos serán cada vez más poderosos.”

Las afirmaciones de ambos expertos conducen a considerar que el papel del diseñador debe ser mucho más activo a nivel social, no sólo como creador de nuevos productos sino como agente implicado.

Diseño consciente y activista

Los diseñadores son cada vez más conscientes de su papel en el desarrollo de una cultura consumista y de los efectos medioambientales del consumo de “usar y tirar” que potencian la mayoría de las empresas. Un diseño atractivo o ingenioso puede hacernos desear un producto aunque realmente no lo necesitemos. Pero, ¿se justifica en la venta de un producto más el participar en este ciclo de consumo y desecho, que claramente ya no es sostenible?

Según afirma Florian Idenburg, co-fundador del estudio de arquitectura SO-IL, la industria del diseño es parte del problema que supone una economía basada en la producción constante de nuevos objetos, que conlleva diseñar conscientemente productos que no tengan una larga duración (lo que se conoce como obsolescencia programada). Para combatir este ciclo, es preciso salir de la mera justificación económica y el diseño como una característica de los productos de lujo:

“Nuestros esfuerzos como diseñadores deberían centrarse en crear cosas que tengan sentido para un gran público en vez de ser caprichos para un sector reducido. […] Un modelo de diseño que haga que las cosas duren es menos lucrativo, pero podemos imaginar una manera de que funcione con la realidad de la economía.”

Los diseñadores pueden aplicar sus conocimientos a algo más que una industria que busca beneficios económicos a partir de la comercialización de objetos de consumo. Asta Roseway, co-creadora de DuoSkin (que hemos comentado en otro post), opina que no es posible ignora los retos globales a los que nos enfrentamos, ya sean políticos, sociales o medioambientales, y que es tarea de los diseñadores consideran cómo su trabajo afecta a los productos y las experiencias que crean. El diseño puede emplearse para buscar soluciones a problemas tales como la difusión de noticias falsas, la atención a las víctimas de desastres naturales o la mejora de las condiciones de vida de las personas en países en vías de desarrollo.

“El diseño puede inspirar colaboraciones y soluciones que se enfrenten a estos retos y animen al público a tomar conciencia. El diseño puede dar visibilidad a soluciones sostenibles, combatir prejuicios e inspirar un urbanismo más sensato, entre muchas otras cosas.”

La implicación de los diseñadores no se limita a temas medioambientales o de diseño para situaciones de emergencia, sino que también puede entrar en la esfera política, según Jay Osgerby, co-fundador del estudio de diseño Barber Osgerby. El diseñador propone aplicar los métodos de design thinking a la política, centrando los esfuerzos en la búsqueda de soluciones a problemas geopolíticos o sociales más allá de los esquemas establecidos y la habitual dependencia de los intereses económicos. En este aspecto, Osgerby considera que los diseñadores podrían ser asesores en estas cuestiones, aportando nuevas perspectivas y métodos.

Esta mayor implicación de los diseñadores en cuestiones sociales, medioambientales o políticas conlleva una reflexión acerca de la ética del diseño. La cuestiones éticas se llevan también a otro nivel al considerar que queda en manos de los diseñadores determinar los parámetros en los que se desarrollará la inteligencia de los objetos, esto es, los objetos con capacidad para detectar e interpretar su entorno, aprender e incluso prever las acciones del usuario. En opinión de Rob Girling, co-fundador y co-CEO de Artefact, esto tiene consecuencias a largo plazo:

“… la disciplina de diseño se verá obligada a pensar acerca de las consecuencias de nuestro trabajo en un context a mucho más largo plazo: literalmente, se tratará de decidir qué futuro queremos crear y, más importante aún, cuál queremos evitar.”

Un diseño más auténtico e innovador

La proliferación de mensajes que buscan llamar nuestra atención generan una saturación visual que ya denunciaba Dieter Rams en los años setenta y es hoy en día más acusada aún gracias a la combinación de los medios tradicionales con los dispositivos digitales. Ante tal sobrecarga de estímulos visuales, se hará necesario regresar a un diseño más simple y auténtico que permita crear relaciones más significativas entre las empresas y los usuarios. Esta es la opinión de Min Lew, co-fundador del estudio Base Design, que ha realizado recientemente la comunicación visual de la terminal 4 del aeropuerto JFK de Nueva York.

Este retorno a la autenticidad no está reñido con una mayor atención a la innovación, que implica adoptar una dinámica más flexible en la práctica del diseño. Según señala Mark Davis, jefe de investigación en diseño en Autodesk, el ritmo de cambio en los métodos y recursos que se emplean en esta profesión es demasiado lento, y se queda atrás ante la acelerada evolución de la tecnología, que no sólo aporta nuevas herramientas sino que requiere replantear flujos enteros de trabajo e incluso la propia manera de concebir el proceso de diseño:

“Todos los diseñadores, ingenieros y artistas deben ser curiosos y explorar nuevos métodos de producción, experimentar con nuevos materiales. Si no están dispuestos a aceptar cambios en el proceso y experimentar con cada proyecto, entonces toda la maquinaria se detiene.”

 

El retorno de la Realidad Aumentada

Hace unos días Apple anunció el lanzamiento del iPhone X, una de cuyas nuevas prestaciones es la integración de contenidos en Realidad Aumentada (RA), gracias a la plataforma ARKit, que dio a conocer a los desarrolladores en el mes de junio y que estará disponible para la mayoría de modelos de iPhone y iPad con la actualización a iOS 11. ARKit permite a los desarrolladores crear objetos digitales que reaccionen al espacio real por medio de la información registrada por la cámara y los sensores del dispositivo móvil. Por medio del análisis de las imágenes registradas por la cámara y los registros de movimiento detectados por los sensores del iPhone o iPad, el software marca una serie de puntos de referencia en el espacio real, por medio de los cuales establece la posición y acciones de los objetos virtuales. No se trata de un modelo en 3D del espacio real, sino de una malla de puntos de referencia, de forma similar a cómo funciona un escáner 3D, que a partir de un láser elabora una “nube de puntos” de un entorno real con la cual es posible crear un modelo virtual detallado.

Además de introducir una innovación tecnológica (que sin duda requerirá potentes procesadores como los que integra el iPhone X y pronto dejará obsoletos a otros modelos), la apuesta de Apple por la RA marca un punto de inflexión en la popularización de esta tecnología, que se viene desarrollando desde hace décadas y había perdido gran parte de su atractivo en los últimos años. Facebook y Google habían mostrado ya un decidido interés en desarrollar hardware y aplicaciones de Realidad Aumentada, como demuestran la patente de unas gafas de RA por parte de Facebook y el reciente lanzamiento de ARCore de Google. No obstante, Apple (que también había considerado desarrollar unas gafas de RA) trae la Realidad Aumentada a millones de dispositivos que ya están en manos de los usuarios, y de manera integrada en su sistema operativo. Teniendo en cuenta la popularidad del iPhone, iPad y la AppStore, esto dará lugar a un gran número de aplicaciones de RA, tanto en juegos como en utilidades, entretenimiento y todo tipo de recursos de información. Si bien hace años que existen numerosas apps para smartphones que emplean tecnología de Realidad Aumentada (como la plataforma Layar, muy empleada por artistas para crear obras virtuales que han emplazado en museos y bienales, sin permiso), la experiencia que han facilitado al usuario ha sido más bien rudimentaria y limitada, sin lograr la ilusión de una auténtica integración del objeto virtual en el entorno. A juzgar por las demostraciones presentadas por Apple esta semana, la experiencia con los contenidos de RA en iPhones y iPads puede ser mucho más realista que lo que se ha logrado hasta ahora y generar un renovado interés por la Realidad Aumentada. La nueva app de IKEA que permite colocar muebles virtuales en un apartamento es un buen ejemplo: para ser efectiva, esta aplicación necesita poder mostrar el objeto de la manera más realista posible y en la escala correcta. No basta con un sillón esculpido con unos pocos polígonos que flota torpemente sobre un rincón de una habitación, tiene que parecer que el mueble está realmente allí.

Con todo, y como demuestra este mismo vídeo de la app de IKEA, experimentar la RA en un smartphone implica moverse frente a un espacio vacío, con la mirada fija en la pantalla del dispositivo, adoptando posturas que resultan un tanto ridículas a un observador externo. Y no se trata tan sólo de lo embarazoso que puede resultar para el usuario, sino también de lo agresivo o invasivo que puede ser para otras personas encontrarse frente a alguien que apunta con la cámara de su smartphone en todas direcciones. Es precisamente la presencia de una cámara a la altura de los ojos lo que causó el rechazo de Google Glass y lo mismo puede suceder en este caso, por más que haya una clara diferencia entre el dispositivo de Google, que no permitía saber cuándo estaba grabando o captando una foto, y la postura de una persona que evidentemente está haciendo algo con su teléfono. Aunque pueda incluir sonido envolvente, la experiencia de la Realidad Aumentada es principalmente visual y por ello resulta más lógico experimentarla a través de un dispositivo que se lleve a la altura de los ojos, unas gafas o un visor. En este punto es donde la RA que facilita Apple a través de iPhones y iPads puede encontrar su límite, puesto que nadie quiere ir con el teléfono frente a la cara en todo momento, y el movimiento de “escaneo” que supone recorrer un espacio virtual o examinar un objeto generado por la aplicación puede resultar hasta cierto punto incómodo o inconveniente en determinados contextos. Por tanto, es previsible que gran parte de las aplicaciones de RA se centren en espacios cerrados y preferiblemente domésticos, como es el caso de la app de IKEA, o dirijan la atención del usuario a un lugar específico, como puede ser la superficie de una mesa, en la que tiene lugar un juego o se muestra determinada información.

Al igual que ocurrió con la Realidad Virtual hace unos años (con la carrera de las grandes empresas por desarrollar visores y plataformas de RV), la RA vuelve a centrar la atención de empresas y usuarios gracias al desarrollo de una tecnología más avanzada y a la vez más accesible. Con todo, paradójicamente, el mayor impedimento de estas tecnologías son actualmente los propios dispositivos que las hacen posibles: experimentar RV o RA debería ser algo en lo que el usuario debería sentirse totalmente inmerso, sin limitaciones de movimientos ni de su ángulo de visión, pero los visores de RV requieren largos y pesados cables conectados a un ordenador, así como un espacio previamente definido y rastreado por dos cámaras, mientras que las aplicaciones de RA se ven limitadas a las pantallas de smartphones y tablets. Ciertamente ambas tecnologías seguirán desarrollando y popularizándose, pero parece lógico prever que la Realidad Virtual quedará limitada a espacios cerrados y controlados, principalmente para juegos, entretenimiento o contenidos culturales, mientras que la Realidad Aumentada tenderá a integrarse con mejores dispositivos e interfaces en nuestra experiencia de los entornos cotidianos. El hecho de no perder el contacto con el espacio real es, de momento, un requisito necesario para poder emplear esta tecnología en el día a día. Queda por ver cómo se desarrollará el uso de la RA, pero sin duda, como ya hemos comentado previamente, la Realidad Aumentada es una de las tendencias del diseño en 2017.

Diseño sostenible: The Algae Dome

Hace unos días, la feria de arte contemporáneo CHART de Copenhague acogió una singular pieza que no era una obra de arte ni un proyecto de arquitectura, sino una estructura capaz de producir microalgas comestibles. The Algae Dome es un proyecto de SPACE10, el laboratorio de investigación sobre el futuro de la vida en las ciudades vinculado a IKEA, del cual hemos mencionado previamente otro proyecto en forma de pabellón, The Growroom, un huerto urbano habitable. La misma estructura esférica (o más bien ovoide en este caso) se aplica a este otro tipo de huerto, diseñado por los arquitectos Aleksander Wadas, Rafal Wroblewski, Anna Stempniewicz y el bioingeniero Keenan Pinto, formado por una estructura de madera de cuatro metros de alto cubierta por 320 metros de tubo de plástico transparente capaz de producir 450 litros de microalgas durante los tres días en que duró el evento.

En el marco de una investigación acerca del futuro de la comida, el equipo de SPACE10 se ha centrado en el trabajo con las algas como potencial comida del futuro. Según afirman, las algas contienen el doble de proteínas que la carne, además de muchas vitaminas y minerales (más beta caroteno que las zanahorias y más hierro que las espinacas). Como organismos fotosintéticos, las algas emplean la luz del sol para convertir el dióxido de carbono y el agua en energía útil, emitiendo oxígeno durante el proceso. Además, las algas son uno de los organismos que crecen más rápido: las micro-algas pueden llegar a duplicarse en volumen en apenas 6 horas. Estas algas pueden cultivarse prácticamente en cualquier lugar y con gran rapidez, con grandes beneficios para personas, animales y el medio ambiente: pueden ayudar a combatir la malnutrición gracias a sus vitaminas, minerales y proteínas; pueden emplearse para alimentar a los animales de granja; pueden mejorar la calidad del aire gracias a que absorben el dióxido de carbono y emiten oxígeno; incluso pueden emplearse para limpiar la polución en el agua. Algunos tipos de microalgas, como la spirulina, pueden ser consumidas por humanos y animales, aportando más vitaminas, hierro y proteínas que otros alimentos, y además de una manera que es asimilada con mayor efectividad por el cuerpo humano. La efectividad de la spirulina es conocida desde hace tiempo, puesto que ya la consumían los Aztecas y en 1974 fue declarada por las Naciones Unidas como “el alimento ideal para la humanidad.” Con todo, es un alimento que debe ser preparado para resultar sabroso e incorporarse a la dieta diaria.

A fin de generar interés por la spirulina y sus posibilidades, el equipo de SPACE10 ha creado The Algae Dome como una demostración de la posibilidad de cultivar las algas en prácticamente cualquier lugar. Situado en el exterior, este pabellón es a la vez una estructura habitable en la que, según afirman sus creadores, se respira mejor aire gracias al oxígeno emitido por las algas, y un huerto urbano que facilita la duplicación de las algas y su recolección para convertirlas en alimento. A fin de hacer más atractivo su consumo, se pidió al chef Simon Perez que experimentase con la spirulina, dando como resultado unas chips que se ofrecían a los asistentes. El proyecto cumple así su cometido por medio de un diseño llamativo pero a la vez efectivo, que puede construirse con bajo coste y por tanto supone un prototipo que podría producirse a menor tamaño para su uso en el hogar. Esta es la idea que visualizan sus creadores:

“Imagina un bloque de apartamentos equipado con un foto-bioreactor que aportase oxígeno y a la vez produjese spirulina que los residentes podrían emplear como suplemento a su dieta diaria.”

Sin duda, un futuro así debe empezar por un prototipo y el conocimiento de las propiedades de la spirulina, que es lo que ofrece este proyecto. Si se populariza el consumo de esta micro-alga, se generará una mayor producción y se imaginarán nuevas soluciones como las que ahora propone SPACE10.

 

Facebook desarrolla unas gafas de Realidad Aumentada

Hace unos días, se conoció que Facebook ha tramitado una patente para unas “gafas inteligentes” que permitirían al usuario ver contenidos generados digitalmente superpuestos a la visión del entorno real, lo que se conoce como Realidad Aumentada (RA). Según se puede ver en la ilustración que acompaña a la patente, no se trata de un aparatoso visor como los que actualmente se comercializan para experimentar contenidos de Realidad Virtual (RV) o el visor HoloLens de Microsoft, que parte de un principio similar, sino algo parecido a unas gafas de sol, por tanto más cercano a Google GlassSpectacles, las gafas con cámara incorporada de la empresa Snapchat. La integración de tecnología de RA en unas gafas indica que la intención de Facebook es hacer de la visión de objetos virtuales en nuestro entorno algo cotidiano e integrado en nuestro uso diario de las redes sociales y otros servicios en Internet. Sin duda una de las intenciones de la empresa que lidera Mark Zuckerberg es hacer que las notificaciones de su red social nos acompañen allá donde miremos, pero las aplicaciones de esta tecnología, sobre todo en un dispositivo de uso común que no despertaría las reticencias que acabaron con Google Glass, particularmente por la ausencia de cámaras. Según indican en la patente los miembros de la división de investigación de Oculus, subsidiaria de Facebook dedicada a la RA y la RV, las gafas funcionan por medio de la proyección de luz sobre el cristal de tal manera que los objetos virtuales aparecerían proyectados en esta superficie con el tamaño necesario para ser captados por el ojo como si estuviesen flotando a unos centímetros o varios metros de distancia. No queda claro si estas imágenes proyectadas sobre los cristales de las gafas serían perceptibles para otras personas o bien si se trataría de algún tipo de cristal polarizado que limitaría la visualización de estas imágenes al propio usuario. En cualquier caso, el prototipo parece centrado exclusivamente en facilitar contenidos visuales y auditivos al usuario, careciendo de medios para captar su entorno, como cámaras o micrófonos (aunque posiblemente se sincronizaría con un smartphone para captar su localización geográfica y contaría con sensores para detectar movimientos de la cabeza).

La patente indica una apuesta por un futuro que tal vez no llegue antes de cinco o diez años, o incluso más. Según indica Michael Abrash, científico jefe de Oculus, la gafas de RA no empezarán a reemplazar a los smartphones hasta 2022, aunque a partir de allí vaticina que se dejarán de usar los teléfonos para usar gafas en todo momento. Zuckerberg, por otra parte, ha manifestado anteriormente su convicción de que la RA será la principal plataforma de computación en el futuro, y que incluso hará posible reinventar la manera en que concebimos los ordenadores. De momento, la patente de las gafas indica un claro interés en hacer de la RA algo cotidiano, que idealmente sea sencillo de usar y se integre en nuestra actividad diaria. Cabe recordar que Samsung registró el año pasado una patente para unas “lentillas inteligentes” que potencialmente permitirían ver contenidos virtuales ante nuestros ojos, de manera que la apuesta de Facebook por las gafas resulta incluso conservadora.