Diseño e Inteligencia Artificial

Joaquin Phoenix como Theodore en el film “HER” (Spike Jonze, 2013). Warner Bros. Pictures.

En su film Her (2013), el director Spike Jonze perfiló un posible (y muy real) futuro de nuestra interacción con los ordenadores a través de un asistente dotado de Inteligencia Artificial (IA). A partir de una idea que tuvo casi una década antes, el director plantea una relación romántica entre un usuario, Theodore Twombly, y el sistema operativo de su ordenador, que se comunica con él a través de un asistente de voz inteligente con voz femenina que se identifica a sí misma como Samantha. En la dirección de arte del film se acierta al presentar la tecnología con la que interactúa el protagonista como algo cotidiano y discreto, no en la manera fantasiosa que suele ser común en las películas de ciencia ficción (como, por ejemplo, Minority Report). La relación entre Theodore y Samantha se establece a través de un diálogo hablado, gracias a un diminuto dispositivo similar a un smartphone y un auricular, que permiten al usuario mantener un contacto constante con su asistente en cualquier lugar. El futuro imaginado por Jonze se basa en la manera en que se ha ido desarrollando la interacción con sistemas de Inteligencia Artificial durante décadas, ya sea a través de chats de texto o por medio de programas de reconocimiento de voz y voces sintéticas como las de Siri o Alexa. La actual proliferación de asistentes de voz para el hogar, así como sensores y altavoces inteligentes confirma el escenario planteado en Her, lo cual perfila una parte del panorama futuro del diseño de experiencias de usuario. Pero la IA también afectará al diseño de otras maneras.

Según afirma Rob Girling, co-fundador del estudio Artefact, una de las principales consecuencias de la introducción de la IA es que los diseñadores dejarán de tener el monopolio de la creatividad y no se centrarán tanto en la mera creación, sino que deberán trabajar en contextos interdisciplinares con otros profesionales que también aplicarán principios de Design Thinking asistido con IA. En concreto, como ya se está produciendo en el diseño de producto con programas como Autodesk Dreamcatcher, los diseñadores pasan a ser curadores o selectores: deben centrarse no tanto en un acto de creación único, sino en trabajar con unos parámetros que se facilitan al programa y a partir de los cuales se va escogiendo la solución más óptima a partir de los numerosos prototipos que se generan automáticamente. Así, como indica Girling (2017, 2 junio),

“en el futuro los diseñadores enseñarán a sus herramientas de IA a resolver problemas de diseño creando modelos basados en sus preferencias.”

Como ocurre con los artistas que crean instalaciones interactivas, no se trata ya de crear un único objeto, sino de plantear una situación y establecer unos parámetros dentro de los cuales pueden darse diferentes resultados. Como ocurrió con la irrupción de la autoedición, la evolución y popularización de estas herramientas implicará que un número cada vez mayor de diseñadores podrá crear y verá aumentada su capacidad de producción. Con todo, esto no afectará al estatus de los grandes diseñadores, puesto que factores como la creatividad y la capacidad para encontrar las mejores soluciones seguirán siendo diferenciadores. La IA aportará mejores herramientas pero, de momento, no es previsible que pueda suplantar la capacidad creativa de un buen diseñador ni generar por si misma ideas innovadoras.

Esto no quiere decir que los cambios que introduzca la IA no sean profundos y requieran adaptarse a situaciones y formas de trabajar novedosas. Según John Zimmerman, la mayoría de los diseñadores de experiencias de usuario no están preparados para trabajar con interfaces centradas en la Inteligencia Artificial (Schwab, 2017, 2 octubre). Esto se debe a que hay poco conocimiento acerca de esta tecnología y que el aprendizaje automático (machine learning) no forma parte aún de la formación en diseño ni está presente en las principales herramientas que emplean los diseñadores. El método de trabajo que los diseñadores conocen mejor, a partir de bocetos y en contacto directo con los materiales, resulta complejo de llevar a cabo con IA puesto que no es tan sencillo como hacer pruebas con un tipo de madera determinado en un taller. Para “enseñar” a un ordenador es preciso tener un conocimiento avanzado de matemáticas, datos y estadística que no está al alcance de muchos diseñadores ni forma parte de su método habitual de trabajo. En este aspecto, Zimmerman apunta que, al igual que ha pasado con la autoedición, algunas empresas están creando programas que resuelven parte de este complejo proceso, pero a la vez deja determinadas decisiones de diseño en mano de los programadores y limita las opciones del diseñador.

Por ello, es preciso que los diseñadores empiecen a entender las posibilidades del diseño asistido con IA, como por ejemplo la posibilidad de adaptar el producto a las características del usuario de forma automática, aprendiendo qué necesita en cada momento a partir de sus propias acciones. Esto requiere pensar más en un sistema adaptable que en un producto específico, y prever las situaciones que pueden producirse a medida que dicho sistema toma decisiones a partir de lo que ha aprendido del usuario. Por ejemplo, incluir la posibilidad de deshacer una acción es crucial, puesto que el asistente puede equivocarse al prever lo que el usuario quiere o necesita, y también este último puede simplemente cambiar de opinión. Un comando aparentemente sencillo como es el de “deshacer” puede plantear un serio reto al diseño de UX. Para incorporar la IA en su trabajo, los diseñadores deben aprender a trabajar con sistemas inteligentes al mismo tiempo que aprenden a diseñar, según afirma Zimmerman. Otra opción es que los estudiantes de diseño trabajen con estudiantes de análisis de datos y así entender mejor cómo se crean modelos de aprendizaje automático. Posiblemente la solución a medio plazo será la inclusión de la IA en los programas de diseño que se emplean regularmente, pero esto, como se ha indicado, limita sus opciones y no ayuda a los diseñadores a replantearse su método de trabajo.

Otro aspecto a tener en cuenta es cómo la IA afecta a la propia percepción que el usuario tiene de su entorno y de sí mismo. Mark Rolston (2017, 19 octubre), co-fundador de Argo Design, emplea el término “meta yo” (MetaMe) para referirse a la proyección del yo en las redes sociales y entornos virtuales con los que interactuamos a diario. Este “meta yo” se convierte progresivamente en un golem que controlamos cada vez menos, y que por medio de la IA se convierte en una entidad con una cierta conciencia. El asistente, mejorado y perfeccionado, pasa de ser una compañía inseparable (como se sugiere en Her) a sustituir al propio usuario en algunas tareas comunes, como felicitar cumpleaños o enviar respuestas rápidas. Como indica Rolston, actualmente recibos notificaciones que nos recuerdan cosas que podríamos o deberíamos hacer y reduce nuestra respuesta a pulsar un botón, pero pronto incluso ese botón podría desaparecer a medida que nuestro “meta yo” tiene la información suficiente para saber cuál será nuestra respuesta. El correo de Google también genera automáticamente sugerencias de respuestas a los emails recibidos, algo que podría igualmente ser gestionado por un asistente inteligente. Lo mismo ocurrirá con otros numerosos servicios y dispositivos que nos rodean.

Pero, advierte Rolson, cabe recordar que las acciones de este “meta yo” vendrán determinadas por un diseño cuyas directrices ha determinado un grupo de personas, o una empresa, con sus propias ideas, intenciones y motivos. La manera de entender el mundo de la empresa puede por tanto influenciar las acciones del usuario, lo cual tiene implicaciones éticas que deben tenerse muy en cuenta. Además, cabe tener en cuenta hasta qué punto el “meta yo” puede sustituir a la persona real, que en última instancia deberá responder a las situaciones creadas por las acciones de su yo virtual. Por tanto, es preciso que haya unos sistemas de control, tanto a nivel social como legal, para minimizar las consecuencias de un “paso en falso” del asistente. Este también es un problema de diseño, que requiere un enfoque transdisciplinar y que vaya mucho más allá del contexto concreto de la UX.

 

Referencias

Girling, R. (2017, 2 junio) AI and the Future of Design: What will the designer of 2025 look like?. Artefact. https://www.artefactgroup.com/articles/ai_design_2025/

Rolston, M. (2017, 19 octubre). AI Is Changing Our Brains. FastCo Design. https://www.fastcodesign.com/90147162/ai-is-changing-our-brains

Schwab, K. (2017, 2 octubre). Designers Aren’t Prepared To Make AI–Here’s How To Get Ready. FastCo Design. https://www.fastcodesign.com/90145027/designers-arent-equipped-to-make-ai-heres-how-to-prepare

 

 

 

La prenda como interfaz

Levi’s y Jaquard (un proyecto de Google centrado en desarrollar tejidos inteligentes) han lanzado recientemente una nueva versión de la popular chaqueta Commuter Trucker que incluye la posibilidad de controlar diversas funciones del smartphone (tales como la reproducción de música o la conducción guiada) a través de gestos en la manga izquierda de la prenda. La idea en sí no es nueva, puesto que ya en 1996 el MIT Media Lab trabajaba en el proyecto Musical Jacket, que consistió en una chaqueta vaquera en la que se bordó un pequeño teclado conectado con un circuito integrado que permitía convertir la prenda en un instrumento musical. En los últimos veinte años han sido numerosos los proyectos que se han desarrollado con lo que hoy en día se llaman “tejidos inteligentes,” así como otros tipos de interfaces destinadas a integrarse en el cuerpo (DuoSkin es un ejemplo) y lograr que no dependamos constantemente de la pantalla de un ordenador o dispositivo móvil. La exploración de las posibilidades de desarrollo de las prendas inteligentes se ha llevado incluso a condiciones medioambientales extremas, como las que resiste una chaqueta diseñada para sobrevivir en el ártico (Rantanen, J., Impiö, J., Karinsalo, T. et al., 2002), en la que se ha aprovechado el volumen y peso del abrigo para introducir diversos componentes electrónicos e incluso una interfaz visual en un pequeño dispositivo que se puede sujetar con una mano y se une a la chaqueta por un cable. Con todo lo novedoso de la Commuter Trucker es que se trata de una prenda inteligente producida a gran escala y lista para su comercialización en tiendas, lo cual marca una nueva etapa en la producción y popularización de este tipo de ropa.

La chaqueta es el resultado de un trabajo de dos años por parte del equipo de Project Jacquard, liderado por el diseñador Ivan Poupyrev, que se ha dedicado a desarrollar un hilo conductivo que se puede emplear con cualquier máquina industrial e integrarse en todo tipo de tejidos. Al integrar este hilo en la prenda y conectarlo con un controlador de pequeñas dimensiones, alimentado por una pila de botón y con conectividad Bluetooth, se logra que ésta funcione como lo haría una pantalla táctil: basta con hacer un gesto sobre la tela (tocar, dar dos toques seguidos, desplazar los dedos en diferentes direcciones) para activar una determinada orden que el controlador envía a un dispositivo móvil como un smartphone o tablet. En colaboración con Levi’s, Jacquard ha incorporado este sistema a su chaqueta vaquera de la línea Commuter, pensada para ciclistas urbanos. Siguiendo con los principios de diseño de esta línea de productos, que se distingue por elaborar prendas pensadas para personas que van en bicicleta cada día, la chaqueta incorpora una manga con interfaz táctil en la que el usuario puede hacer gestos con una mano para controlar la reproducción de la música en su smartphone, recibir indicaciones de voz para guiarle mientras se desplaza por la ciudad o recibir notificaciones de emails y mensajes de texto.

Según Paul Dillinger, vice presidente de innovación de productos de Google, el objetivo al diseñar esta chaqueta no era crear una prenda de ciencia ficción, sino añadir una nueva función a una prenda que debía ser atractiva y funcional por sí misma. Con todo, pese a ser idéntica a otra chaqueta de la misma colección, la prenda ha debido ser rediseñada para incorporar el hilo conductivo, el controlador Bluetooth (que se integra en la manga como un broche) y resistir las condiciones de fabricación de la prenda, que incluyen procesos de lavado, tinte, planchado y otras manipulaciones (Budds, 2017). A nivel de la interacción con la prenda, el hilo de Jacquard se ha dispuesto de manera que no destaque visualmente pero a la vez sea posible detectar la zona “sensible” de la chaqueta. Esto se ha logrado añadiendo en la manga unas costuras que describen varias líneas que se pueden notar al tacto. La manga, a su vez, se escogió como la zona ideal para la interacción dado que es fácil para un ciclista sujetar el manillar con una mano y llevar su otra mano a la muñeca opuesta. Además de las consideraciones prácticas, también se tuvieron en cuenta las implicaciones culturales de ciertos gestos, a fin de evitar que la posición de la zona táctil en la prenda implicase un gesto corporal que pudiese ser mal interpretado. Finalmente, el software asociado a la prenda permite al usuario decidir qué gestos corresponden a qué acciones, lo cual otorga una gran flexibilidad a la hora de establecer sus posibles usos.

La prenda inteligente de Levi’s y Jacquard proporciona además un ejemplo plenamente desarrollado de lo que se ha venido esbozando en los diversos prototipos de interfaces textiles. Partiendo de los retos y limitaciones enumerados por Simona Dakova y Norbert Dumont (2010), investigadores del Media Computing Group de la RWTH Aachen University, podemos analizar las aportaciones de este nuevo producto. Entre los retos que plantean las interfaces textiles, Dakova y Dumont señalan los siguientes:

  • Consumo de energía: el peso y volumen de una batería es un factor determinante en el caso de una prenda, por tanto es necesario un consumo bajo y emplear una batería ligera. La Commuter centra todos los componentes electrónicos en un broche que usa una pila de botón.
  • Cableado: integrar cables en la prenda requiere conseguir que estos no resulten incómodos para el usuario, con lo cual se deben ser flexibles y evitar zonas sometidas a muchos estiramientos o compresiones. Además, la prenda debe ser lavable. La chaqueta de Levi’s y Jacquard resuelve ambos problemas con el hilo de última generación, que se concentra en la manga.
  • Durabilidad: dado que solemos tratar con menos cuidado la ropa que un dispositivo digital, los componentes de la prenda debe ser resistentes. El controlador de la Commuter está revestido de una carcasa de plástico que lo hace resistente a salpicaduras y golpes. Además, puede separarse de la prenda para que esta pueda lavarse.
  • Conectividad: a fin de reducir el consumo de energía, es preciso que los elementos de la prenda estén conectados por cables en vez de por conexiones inalámbricas. En la chaqueta inteligente, todo el sistema está conectado directamente al controlador, que a su vez se comunica por Bluetooth con el teléfono, pero sólo lo hace cuando recibe un comando por medio de los gestos del usuario, de manera que el consumo de batería es menor que si estuviese todo el tiempo conectado, a la espera de una señal.
  • Interacción: la interacción con la prenda debe ser intuitiva, no dejar lugar a la incertidumbre y facilitar una respuesta inmediata. Según apuntan Dakova y Dumont a partir de un trabajo de campo, los usuarios prefieren tener botones invisibles en la ropa por cuestiones estéticas, pero luego les resulta más fácil interactuar con botones visibles y tangibles. En la Commuter, la solución descrita anteriormente resulta discreta y a la vez ofrece al usuario una indicación clara de la zona en la que puede interactuar.
  • Accesibilidad: los botones de la prenda deben ser muy accesibles y poder manipularse con una sola mano, puesto que en caso contrario dificultan la interacción. En línea con estas directrices, la manga de la Commuter es el lugar escogido para la zona táctil dado que resulta accesible, requiere un gesto natural que no supone un esfuerzo y puede emplearse con una mano mientras se va en bicicleta. Con todo, un contratiempo que puede presentar esta interfaz es la posible activación involuntaria de un comando. Esta situación es poco probable dado que la zona táctil se sitúa hacia la cara interior de la manga, pero no deja de ser una posibilidad.

La chaqueta de Levi’s y Jacquard sin duda marca un modelo que otras empresas querrán seguir, aplicando un principio similar a otras prendas. Con todo, no todas las prendas pueden o necesitan convertirse en inteligentes. La chaqueta es un buena prenda puesto que está pensada para un contexto concreto (ir en bicicleta por la ciudad), no es preciso lavarla a menudo y se lleva por encima de otras prendas, por tanto tiene una larga vida y un uso frecuente. Una chaqueta es, en cierto modo, el equivalente a una mochila y por tanto puede enriquecerse con funciones adicionales, pero es dudoso que se pueda aplicar el mismo principio a una camisa o camiseta. Otras prendas, como pantalones y guantes, podrían convertirse también en inteligentes pero requieren por una parte que el componente electrónico sea más ligero y por otra encontrar un tipo de interacción que sea útil y cómoda: no es un gesto frecuente tocarse los pantalones ni tampoco las manos (en todo caso, dirigimos una mano a la muñeca opuesta, como estamos acostumbrados a hacerlo para consultar el reloj).

Las prendas inteligentes aún requieren mucho desarrollo y, como otros dispositivos tecnológicos, hallar un uso y una cierta aceptación en nuestras interacciones sociales y actividades cotidianas. Según afirma Poupyrev, “estoy convencido de que los comandos de voz y táctiles tendrán un papel importante en nuestros dispositivos en el futuro.” Los smartphones ya han demostrado la usabilidad de las interfaces táctiles, mientras que los numerosos asistentes de voz procuran hacer de nuestros hogares entornos que controlamos hablando a las máquinas. Las prendas se suman ahora al creciente número de objetos conectados que nos rodean. Pero cabe tener en cuenta que, por un lado, las prendas pueden tener una vida mucho más corta que la de los dispositivos digitales, puesto que se ven sometidas a los vaivenes de la moda y los cambios de talla de muchos compradores. Por otra, pueden tener una vida más larga que la del hardware que les otorga nuevas funciones: la interfaz de la Commuter sólo está garantizada para aguantar los primeros 10 lavados y aunque una chaqueta no se lava tan a menudo como otras prendas, no deja de ser una limitación que acortará su vida útil como prenda inteligente.

 

Referencias

Budds, D. (2017). What Happened When I Wore Google And Levi’s “Smart” Jacket For A Night. FastCo Design. https://www.fastcodesign.com/90145030/what-happened-when-i-wore-google-and-levis-smart-jacket-for-a-night

Dakova, S., Dumont, N. (2010). An Overview of Textile Interfaces. https://hci.rwth-aachen.de/tiki-download_wiki_attachment.php?attId=1176

Rantanen, J., Impiö, J., Karinsalo, T. et al. (2002). Smart Clothing Prototype for the Arctic Environment. Personal Ub Comp, 6: 3. https://doi.org/10.1007/s007790200001

Estética contra usabilidad en el diseño de Apple

Tras el reciente lanzamiento del iPhone X, Apple ha recibido numerosas críticas por la “pestaña” que cubre la parte superior de la pantalla, dejando dos extraños huecos en los lados que generan todo tipo de problemas, tales como la desaparición de la barra de desplazamiento al consultar contenidos en formato panorámico o la molestia que produce ver un vídeo con una pestaña negra en un lado. Algunos desarrolladores ya han propuesto incluir en sus apps una barra negra que haga menos visible la pestaña, lo cual resta unos milímetros a las dimensiones totales de la pantalla. Esto resulta contradictorio si tenemos en cuenta que Apple ha creado por vez primera un smartphone cuya pantalla cubre toda (o casi toda) su superficie, eliminando el popular botón inferior, que en sus últimas versiones ha incorporado un lector de huella digital.

En el contexto de estas críticas y una sorprendente decisión de diseño que, según algunos, Steve Jobs no habría permitido, conviene recordar un artículo que publicaron en 2015 los expertos en diseño y usabilidad Don Norman y Bruce Tognazzini. Titulado “How Apple is Giving Design A Bad Name,” el texto ataca duramente la falta de usabilidad de los productos de la empresa californiana, en especial el iPhone y el iPad, así como el sistema operativo iOS. Si bien algunas de las críticas se dirigen a elementos del software que se han mejorado posteriormente, es interesante revisar los comentarios de Norman y Tognazzini en este momento. Cabe recordar que ambos autores están especialmente cualificados para criticar a Apple: Bruce Tognazzini trabajó durante 14 años en la empresa, donde fue fundador del Apple Human Interface Group y redactó la primera edición de su guía de interfaz de usuario en 1978; Don Norman trabajó en Apple Computer en los años noventa, donde acuñó la expresión “Experiencia de Usuario” y fue también Vicepresidente del Advanced Technology Group.

Comparando su experiencia con la producción actual de Apple, Norman y Tognazzini consideran que la empresa ha pasado de ser “el máximo exponente de la interfaz gráfica de usuario,” conocida por crear productos fáciles de usar, a abandonar sus principios en favor de un diseño más estilizado pero menos útil:

“Apple está destruyendo el diseño. Peor aún, está dando nueva vida a la vieja creencia de que el diseño sólo consiste en hacer que las cosas se vean bonitas. ¡No, no es así! El diseño es una manera de pensar, de determinar cuales son las necesidades reales y subyacentes de las personas para posteriormente facilitarles productos y servicios que les ayuden.”

Este cambio de dirección, en opinión de los autores, empieza con el iPhone y el desarrollo de productos cuya interacción se basa en gestos. La interfaz se vuelve entonces más limpia y ligera, desaparecen los botones y los menús, la tipografía es más elegante pero también más difícil de leer. Esta simplicidad a nivel visual conlleva aprender a usar el aparato mediante gestos que uno debe memorizar y no se hacen explícitos: no se pueden averiguar las funciones del teléfono simplemente mirando a la pantalla. Otra crítica importante es la desaparición del comando “deshacer,” un recurso muy útil puesto que permite al usuario corregir un error y mantener un cierto control sobre su uso del aparato. En los ordenadores de sobremesa, la combinación de teclas cmd+z siempre está a mano en el teclado o en el menú de cada programa. En iOS, es necesario agitar el aparato, un gesto algo ridículo que no está implementado en todas las apps y que en ocasiones se activa involuntariamente, generando en el usuario el pánico de perder por error algo que sí quería escribir o hacer. La interfaz carece de lo que Norman denomina “indicadores”, que deben dar al usuario claves visuales acerca de lo que puede hacer, y por tanto no sabe si debe apretar dos veces, una vez, deslizar el dedo a izquierda o a derecha, etc. En suma, esto lleva a los autores a considerar que Apple se ha alejado de los principios del buen diseño:

“El buen diseño debe ser atractivo, placentero y fácil de usar. Pero la facilidad de uso requiere que el dispositivo sea comprensible y permita rectificar. […] Estos son principios que enseñamos a los estudiantes de primer curso de diseño de interacción. Si Apple estuviese en esa clase, habría suspendido.”

Norman y Tognazzini admiten que los dispositivos táctiles son más fáciles de usar y hasta cierto punto intuitivos, pero mantienen esa facilidad en las acciones más sencillas, siendo mucho más complicado realizar acciones avanzadas. Esto implica que el producto sea inicialmente más atractivo pero a la larga genere frustración en unos usuarios que creen que son ellos los que no saben usar el aparato, en vez de criticar sus errores de diseño.

principios de diseño

Partiendo de su experiencia con la redacción e implementación de la guía de interfaz de usuario de Apple desde sus orígenes, los autores desglosan los cambios que se han producido en los principios de diseño a lo largo de los años. Examinando las ediciones de la guía de 1995 a 2015, puede verse cómo los principios de diseño son cada vez menos numerosos, llegando a reducirse en un 50%. En la última versión, centrada en iOS, el aspecto estético ocupa un lugar preeminente y desaparecen algunos principios que los autores consideran fundamentales:

  • La capacidad para descubrir las acciones posibles sin necesidad de recurrir a un manual o tutorial previo.
  • La retroalimentación, en forma de información facilitada al usuario cuando realiza una acción o incluso que pueda saber qué ocurrirá si realiza dicha acción. Cabe comentar que el creciente uso de microinteracciones en las apps está contrarrestando esta falta percibida por Norman y Tognazzini.
  • La recuperación de acciones o estados anteriores, ejemplificado por las acciones “deshacer” y “rehacer”, la primera de las cuales se introdujo ya en el sistema operativo desarrollado en el el PARC de Xerox en 1974.
  • La consistencia de las acciones en todos los dispositivos, necesaria para que el usuario pueda usarlos con confianza, se pierde en las opciones táctiles, que son diferentes en el iPhone, iPad, ratón y trackpad.
  • Incentivar el perfeccionamiento del uso del dispositivo o el sistema operativo, facilitando al usuario convertirse en experto, es más difícil con iOS, que más invita a la mayoría de usuarios a limitarse a unas acciones básicas.

Los autores también critican que Apple pretenda basarse en los conocidos principios de diseño de Dieter Rams, entre los cuales el famoso 10º principio: “tan poco diseño como sea posible.” Según afirman, no hay que confundir este principio con una depuración total a nivel estético que haga el producto menos comprensible y dificulte su utilización. En todo caso, se trata de mantener un equilibrio y no complicar las cosas más de lo necesario, algo que Norman ha criticado frecuentemente como featuritis, o la tendencia a añadir funciones sin atender a la pérdida de usabilidad que puede suponer la creciente complejidad del producto.

Norman y Tognazzini también critican que haya una falta de conexión entre los diferentes equipos de diseñadores y que las pruebas de usabilidad se hagan entre colegas. Este último punto sin duda es criticable desde la perspectiva de los expertos, pero sin duda se debe en parte a las presiones de la propia industria. Por una parte, la celeridad con la que se deben lanzar nuevos productos limita la posibilidad de hacer pruebas y más aún desarrollar un estudio con un grupo de personas de diversos entornos. Los primeros compradores de un nuevo producto suelen ser sus beta-testers, y por lo general no es hasta la siguiente versión del dispositivo cuando se logra un producto más estable y mejor diseñado. Por otra parte, el miedo a las filtraciones de información hace difícil confiar las pruebas de un nuevo producto a personas ajenas a la empresa, o incluso a aquellas que no están directamente ligadas al desarrollo del propio producto. Los lanzamientos de las últimas versiones del iPhone se han visto empañados por varias informaciones, fotos y vídeos que se filtraron a los medios.

En resumen, la crítica que dirigen Don Norman y Bruce Tognazzini a Apple plantea un interesante debate acerca del equilibrio que se debe lograr entre estética y usabilidad. Esto es especialmente relevante en el caso de unos productos cuyo uso cotidiano se basa en su interacción con el usuario por medio de un software que puede ser totalmente arbitrario en su manera de establecer este diálogo entre persona y máquina. Con todo, las presiones de la industria también limitan la capacidad que tienen las empresas para desarrollar sus productos debidamente, y aquí interviene una cultura de consumo constante que a su vez merece una profunda reflexión.

Democratic Design Day 2017

Hoy se celebra en el ECAL de Lausana el DEMOCRATIC DESIGN DAY con una serie de conferencias organizadas por IKEA que tienen por objetivo explorar ideas y visiones acerca del futuro de la vida en los hogares. Los conferenciantes son: Antonio Scarponi, arquitecto y fundador de Conceptual DevicesMatali Crasset, diseñadora de producto; Simonetta Carbonaro, investigadora en psicología del consumo; Marcus Engman, jefe del departamento de diseño de IKEA en Suecia; Kim Colin, arquitecta y diseñadora, co-fundadora del estudio Industrial Facility; el reconocido arquitecto y diseñador Mario Bellini; y por último Oliver Herwig, periodista y escritor.

Estos expertos debatirán cuestiones acerca de cómo viviremos y diseñaremos los espacios y productos que definen y constituyen nuestros hogares y nuestra vida cotidiana. Las conferencias podrán seguirse en directo desde la web de Designboom.

 

Algunas claves acerca del futuro del diseño

Con motivo de la entrega de los galardones Innovation by Design Awards 2017, Diana Budds de Fast Company ha entrevistado a algunos finalistas para conocer sus opiniones acerca del futuro del diseño. De sus comentarios se extraen algunas claves acerca de cómo debería ser esta profesión en los próximos años, y sobre todo cuál debería ser su implicación en el contexto social, cultural, económico y político en el que sin duda participa. Estas predicciones o aspiraciones aportan una visión más global del desarrollo actual y futuro del diseño a las tendencias dominantes en 2017 que hemos comentado en otro artículo. Se trata aquí, no sólo de ver qué se hará en diseño (ya sea editorial, web, de producto, de experiencia de usuario, etc.) sino también hacia dónde debería ir el diseño y qué principios debe seguir en el futuro.

Pensar más allá del producto

Una de las características de los diseñadores del futuro, según Carlo Ratti, director del MIT Senseable City Lab, debe ser su capacidad para actuar como mediadores y conectores entre personas y disciplinas, ayudando a operar un cambio a nivel estructural:

“Creo que los arquitectos y diseñadores están bien situados hoy en día para desempeñar un rol organizativo que podríamos definir como ‘coral’: son aquellos que pueden coordinar varias voces y hacer que formen un conjunto armónico. Los diseñadores deberían ser lo que, en biología, se denomina un mutagen, un agente que produce mutaciones en el mundo artificial.”

Esto implica pensar más allá del producto y centrar el trabajo del diseño en la innovación, investigando en los más recientes avances tecnológicos para afrontar los nuevos problemas que van surgiendo constantemente. Tim Brown, CEO de Ideo, indica que es preciso pensar en el diseño como en un sistema y abordar las maneras en que afecta al entorno y las personas, en un ciclo de aprendizaje continuo:

“Todo lo que hacemos debe ser un sistema de aprendizaje, no puede ser simplemente un artefacto. La tecnología actual lo hace posible. Sensores, software inteligente que percibe lo que ocurre, aprende lo que hacen las personas y cuáles son sus efectos en el sistema. Podemos aprender qué pueden conseguir los diseños, y así estos serán cada vez más poderosos.”

Las afirmaciones de ambos expertos conducen a considerar que el papel del diseñador debe ser mucho más activo a nivel social, no sólo como creador de nuevos productos sino como agente implicado.

Diseño consciente y activista

Los diseñadores son cada vez más conscientes de su papel en el desarrollo de una cultura consumista y de los efectos medioambientales del consumo de “usar y tirar” que potencian la mayoría de las empresas. Un diseño atractivo o ingenioso puede hacernos desear un producto aunque realmente no lo necesitemos. Pero, ¿se justifica en la venta de un producto más el participar en este ciclo de consumo y desecho, que claramente ya no es sostenible?

Según afirma Florian Idenburg, co-fundador del estudio de arquitectura SO-IL, la industria del diseño es parte del problema que supone una economía basada en la producción constante de nuevos objetos, que conlleva diseñar conscientemente productos que no tengan una larga duración (lo que se conoce como obsolescencia programada). Para combatir este ciclo, es preciso salir de la mera justificación económica y el diseño como una característica de los productos de lujo:

“Nuestros esfuerzos como diseñadores deberían centrarse en crear cosas que tengan sentido para un gran público en vez de ser caprichos para un sector reducido. […] Un modelo de diseño que haga que las cosas duren es menos lucrativo, pero podemos imaginar una manera de que funcione con la realidad de la economía.”

Los diseñadores pueden aplicar sus conocimientos a algo más que una industria que busca beneficios económicos a partir de la comercialización de objetos de consumo. Asta Roseway, co-creadora de DuoSkin (que hemos comentado en otro post), opina que no es posible ignora los retos globales a los que nos enfrentamos, ya sean políticos, sociales o medioambientales, y que es tarea de los diseñadores consideran cómo su trabajo afecta a los productos y las experiencias que crean. El diseño puede emplearse para buscar soluciones a problemas tales como la difusión de noticias falsas, la atención a las víctimas de desastres naturales o la mejora de las condiciones de vida de las personas en países en vías de desarrollo.

“El diseño puede inspirar colaboraciones y soluciones que se enfrenten a estos retos y animen al público a tomar conciencia. El diseño puede dar visibilidad a soluciones sostenibles, combatir prejuicios e inspirar un urbanismo más sensato, entre muchas otras cosas.”

La implicación de los diseñadores no se limita a temas medioambientales o de diseño para situaciones de emergencia, sino que también puede entrar en la esfera política, según Jay Osgerby, co-fundador del estudio de diseño Barber Osgerby. El diseñador propone aplicar los métodos de design thinking a la política, centrando los esfuerzos en la búsqueda de soluciones a problemas geopolíticos o sociales más allá de los esquemas establecidos y la habitual dependencia de los intereses económicos. En este aspecto, Osgerby considera que los diseñadores podrían ser asesores en estas cuestiones, aportando nuevas perspectivas y métodos.

Esta mayor implicación de los diseñadores en cuestiones sociales, medioambientales o políticas conlleva una reflexión acerca de la ética del diseño. La cuestiones éticas se llevan también a otro nivel al considerar que queda en manos de los diseñadores determinar los parámetros en los que se desarrollará la inteligencia de los objetos, esto es, los objetos con capacidad para detectar e interpretar su entorno, aprender e incluso prever las acciones del usuario. En opinión de Rob Girling, co-fundador y co-CEO de Artefact, esto tiene consecuencias a largo plazo:

“… la disciplina de diseño se verá obligada a pensar acerca de las consecuencias de nuestro trabajo en un context a mucho más largo plazo: literalmente, se tratará de decidir qué futuro queremos crear y, más importante aún, cuál queremos evitar.”

Un diseño más auténtico e innovador

La proliferación de mensajes que buscan llamar nuestra atención generan una saturación visual que ya denunciaba Dieter Rams en los años setenta y es hoy en día más acusada aún gracias a la combinación de los medios tradicionales con los dispositivos digitales. Ante tal sobrecarga de estímulos visuales, se hará necesario regresar a un diseño más simple y auténtico que permita crear relaciones más significativas entre las empresas y los usuarios. Esta es la opinión de Min Lew, co-fundador del estudio Base Design, que ha realizado recientemente la comunicación visual de la terminal 4 del aeropuerto JFK de Nueva York.

Este retorno a la autenticidad no está reñido con una mayor atención a la innovación, que implica adoptar una dinámica más flexible en la práctica del diseño. Según señala Mark Davis, jefe de investigación en diseño en Autodesk, el ritmo de cambio en los métodos y recursos que se emplean en esta profesión es demasiado lento, y se queda atrás ante la acelerada evolución de la tecnología, que no sólo aporta nuevas herramientas sino que requiere replantear flujos enteros de trabajo e incluso la propia manera de concebir el proceso de diseño:

“Todos los diseñadores, ingenieros y artistas deben ser curiosos y explorar nuevos métodos de producción, experimentar con nuevos materiales. Si no están dispuestos a aceptar cambios en el proceso y experimentar con cada proyecto, entonces toda la maquinaria se detiene.”

 

El retorno de la Realidad Aumentada

Hace unos días Apple anunció el lanzamiento del iPhone X, una de cuyas nuevas prestaciones es la integración de contenidos en Realidad Aumentada (RA), gracias a la plataforma ARKit, que dio a conocer a los desarrolladores en el mes de junio y que estará disponible para la mayoría de modelos de iPhone y iPad con la actualización a iOS 11. ARKit permite a los desarrolladores crear objetos digitales que reaccionen al espacio real por medio de la información registrada por la cámara y los sensores del dispositivo móvil. Por medio del análisis de las imágenes registradas por la cámara y los registros de movimiento detectados por los sensores del iPhone o iPad, el software marca una serie de puntos de referencia en el espacio real, por medio de los cuales establece la posición y acciones de los objetos virtuales. No se trata de un modelo en 3D del espacio real, sino de una malla de puntos de referencia, de forma similar a cómo funciona un escáner 3D, que a partir de un láser elabora una “nube de puntos” de un entorno real con la cual es posible crear un modelo virtual detallado.

Además de introducir una innovación tecnológica (que sin duda requerirá potentes procesadores como los que integra el iPhone X y pronto dejará obsoletos a otros modelos), la apuesta de Apple por la RA marca un punto de inflexión en la popularización de esta tecnología, que se viene desarrollando desde hace décadas y había perdido gran parte de su atractivo en los últimos años. Facebook y Google habían mostrado ya un decidido interés en desarrollar hardware y aplicaciones de Realidad Aumentada, como demuestran la patente de unas gafas de RA por parte de Facebook y el reciente lanzamiento de ARCore de Google. No obstante, Apple (que también había considerado desarrollar unas gafas de RA) trae la Realidad Aumentada a millones de dispositivos que ya están en manos de los usuarios, y de manera integrada en su sistema operativo. Teniendo en cuenta la popularidad del iPhone, iPad y la AppStore, esto dará lugar a un gran número de aplicaciones de RA, tanto en juegos como en utilidades, entretenimiento y todo tipo de recursos de información. Si bien hace años que existen numerosas apps para smartphones que emplean tecnología de Realidad Aumentada (como la plataforma Layar, muy empleada por artistas para crear obras virtuales que han emplazado en museos y bienales, sin permiso), la experiencia que han facilitado al usuario ha sido más bien rudimentaria y limitada, sin lograr la ilusión de una auténtica integración del objeto virtual en el entorno. A juzgar por las demostraciones presentadas por Apple esta semana, la experiencia con los contenidos de RA en iPhones y iPads puede ser mucho más realista que lo que se ha logrado hasta ahora y generar un renovado interés por la Realidad Aumentada. La nueva app de IKEA que permite colocar muebles virtuales en un apartamento es un buen ejemplo: para ser efectiva, esta aplicación necesita poder mostrar el objeto de la manera más realista posible y en la escala correcta. No basta con un sillón esculpido con unos pocos polígonos que flota torpemente sobre un rincón de una habitación, tiene que parecer que el mueble está realmente allí.

Con todo, y como demuestra este mismo vídeo de la app de IKEA, experimentar la RA en un smartphone implica moverse frente a un espacio vacío, con la mirada fija en la pantalla del dispositivo, adoptando posturas que resultan un tanto ridículas a un observador externo. Y no se trata tan sólo de lo embarazoso que puede resultar para el usuario, sino también de lo agresivo o invasivo que puede ser para otras personas encontrarse frente a alguien que apunta con la cámara de su smartphone en todas direcciones. Es precisamente la presencia de una cámara a la altura de los ojos lo que causó el rechazo de Google Glass y lo mismo puede suceder en este caso, por más que haya una clara diferencia entre el dispositivo de Google, que no permitía saber cuándo estaba grabando o captando una foto, y la postura de una persona que evidentemente está haciendo algo con su teléfono. Aunque pueda incluir sonido envolvente, la experiencia de la Realidad Aumentada es principalmente visual y por ello resulta más lógico experimentarla a través de un dispositivo que se lleve a la altura de los ojos, unas gafas o un visor. En este punto es donde la RA que facilita Apple a través de iPhones y iPads puede encontrar su límite, puesto que nadie quiere ir con el teléfono frente a la cara en todo momento, y el movimiento de “escaneo” que supone recorrer un espacio virtual o examinar un objeto generado por la aplicación puede resultar hasta cierto punto incómodo o inconveniente en determinados contextos. Por tanto, es previsible que gran parte de las aplicaciones de RA se centren en espacios cerrados y preferiblemente domésticos, como es el caso de la app de IKEA, o dirijan la atención del usuario a un lugar específico, como puede ser la superficie de una mesa, en la que tiene lugar un juego o se muestra determinada información.

Al igual que ocurrió con la Realidad Virtual hace unos años (con la carrera de las grandes empresas por desarrollar visores y plataformas de RV), la RA vuelve a centrar la atención de empresas y usuarios gracias al desarrollo de una tecnología más avanzada y a la vez más accesible. Con todo, paradójicamente, el mayor impedimento de estas tecnologías son actualmente los propios dispositivos que las hacen posibles: experimentar RV o RA debería ser algo en lo que el usuario debería sentirse totalmente inmerso, sin limitaciones de movimientos ni de su ángulo de visión, pero los visores de RV requieren largos y pesados cables conectados a un ordenador, así como un espacio previamente definido y rastreado por dos cámaras, mientras que las aplicaciones de RA se ven limitadas a las pantallas de smartphones y tablets. Ciertamente ambas tecnologías seguirán desarrollando y popularizándose, pero parece lógico prever que la Realidad Virtual quedará limitada a espacios cerrados y controlados, principalmente para juegos, entretenimiento o contenidos culturales, mientras que la Realidad Aumentada tenderá a integrarse con mejores dispositivos e interfaces en nuestra experiencia de los entornos cotidianos. El hecho de no perder el contacto con el espacio real es, de momento, un requisito necesario para poder emplear esta tecnología en el día a día. Queda por ver cómo se desarrollará el uso de la RA, pero sin duda, como ya hemos comentado previamente, la Realidad Aumentada es una de las tendencias del diseño en 2017.

Diseño sostenible: The Algae Dome

Hace unos días, la feria de arte contemporáneo CHART de Copenhague acogió una singular pieza que no era una obra de arte ni un proyecto de arquitectura, sino una estructura capaz de producir microalgas comestibles. The Algae Dome es un proyecto de SPACE10, el laboratorio de investigación sobre el futuro de la vida en las ciudades vinculado a IKEA, del cual hemos mencionado previamente otro proyecto en forma de pabellón, The Growroom, un huerto urbano habitable. La misma estructura esférica (o más bien ovoide en este caso) se aplica a este otro tipo de huerto, diseñado por los arquitectos Aleksander Wadas, Rafal Wroblewski, Anna Stempniewicz y el bioingeniero Keenan Pinto, formado por una estructura de madera de cuatro metros de alto cubierta por 320 metros de tubo de plástico transparente capaz de producir 450 litros de microalgas durante los tres días en que duró el evento.

En el marco de una investigación acerca del futuro de la comida, el equipo de SPACE10 se ha centrado en el trabajo con las algas como potencial comida del futuro. Según afirman, las algas contienen el doble de proteínas que la carne, además de muchas vitaminas y minerales (más beta caroteno que las zanahorias y más hierro que las espinacas). Como organismos fotosintéticos, las algas emplean la luz del sol para convertir el dióxido de carbono y el agua en energía útil, emitiendo oxígeno durante el proceso. Además, las algas son uno de los organismos que crecen más rápido: las micro-algas pueden llegar a duplicarse en volumen en apenas 6 horas. Estas algas pueden cultivarse prácticamente en cualquier lugar y con gran rapidez, con grandes beneficios para personas, animales y el medio ambiente: pueden ayudar a combatir la malnutrición gracias a sus vitaminas, minerales y proteínas; pueden emplearse para alimentar a los animales de granja; pueden mejorar la calidad del aire gracias a que absorben el dióxido de carbono y emiten oxígeno; incluso pueden emplearse para limpiar la polución en el agua. Algunos tipos de microalgas, como la spirulina, pueden ser consumidas por humanos y animales, aportando más vitaminas, hierro y proteínas que otros alimentos, y además de una manera que es asimilada con mayor efectividad por el cuerpo humano. La efectividad de la spirulina es conocida desde hace tiempo, puesto que ya la consumían los Aztecas y en 1974 fue declarada por las Naciones Unidas como “el alimento ideal para la humanidad.” Con todo, es un alimento que debe ser preparado para resultar sabroso e incorporarse a la dieta diaria.

A fin de generar interés por la spirulina y sus posibilidades, el equipo de SPACE10 ha creado The Algae Dome como una demostración de la posibilidad de cultivar las algas en prácticamente cualquier lugar. Situado en el exterior, este pabellón es a la vez una estructura habitable en la que, según afirman sus creadores, se respira mejor aire gracias al oxígeno emitido por las algas, y un huerto urbano que facilita la duplicación de las algas y su recolección para convertirlas en alimento. A fin de hacer más atractivo su consumo, se pidió al chef Simon Perez que experimentase con la spirulina, dando como resultado unas chips que se ofrecían a los asistentes. El proyecto cumple así su cometido por medio de un diseño llamativo pero a la vez efectivo, que puede construirse con bajo coste y por tanto supone un prototipo que podría producirse a menor tamaño para su uso en el hogar. Esta es la idea que visualizan sus creadores:

“Imagina un bloque de apartamentos equipado con un foto-bioreactor que aportase oxígeno y a la vez produjese spirulina que los residentes podrían emplear como suplemento a su dieta diaria.”

Sin duda, un futuro así debe empezar por un prototipo y el conocimiento de las propiedades de la spirulina, que es lo que ofrece este proyecto. Si se populariza el consumo de esta micro-alga, se generará una mayor producción y se imaginarán nuevas soluciones como las que ahora propone SPACE10.

 

Facebook desarrolla unas gafas de Realidad Aumentada

Hace unos días, se conoció que Facebook ha tramitado una patente para unas “gafas inteligentes” que permitirían al usuario ver contenidos generados digitalmente superpuestos a la visión del entorno real, lo que se conoce como Realidad Aumentada (RA). Según se puede ver en la ilustración que acompaña a la patente, no se trata de un aparatoso visor como los que actualmente se comercializan para experimentar contenidos de Realidad Virtual (RV) o el visor HoloLens de Microsoft, que parte de un principio similar, sino algo parecido a unas gafas de sol, por tanto más cercano a Google GlassSpectacles, las gafas con cámara incorporada de la empresa Snapchat. La integración de tecnología de RA en unas gafas indica que la intención de Facebook es hacer de la visión de objetos virtuales en nuestro entorno algo cotidiano e integrado en nuestro uso diario de las redes sociales y otros servicios en Internet. Sin duda una de las intenciones de la empresa que lidera Mark Zuckerberg es hacer que las notificaciones de su red social nos acompañen allá donde miremos, pero las aplicaciones de esta tecnología, sobre todo en un dispositivo de uso común que no despertaría las reticencias que acabaron con Google Glass, particularmente por la ausencia de cámaras. Según indican en la patente los miembros de la división de investigación de Oculus, subsidiaria de Facebook dedicada a la RA y la RV, las gafas funcionan por medio de la proyección de luz sobre el cristal de tal manera que los objetos virtuales aparecerían proyectados en esta superficie con el tamaño necesario para ser captados por el ojo como si estuviesen flotando a unos centímetros o varios metros de distancia. No queda claro si estas imágenes proyectadas sobre los cristales de las gafas serían perceptibles para otras personas o bien si se trataría de algún tipo de cristal polarizado que limitaría la visualización de estas imágenes al propio usuario. En cualquier caso, el prototipo parece centrado exclusivamente en facilitar contenidos visuales y auditivos al usuario, careciendo de medios para captar su entorno, como cámaras o micrófonos (aunque posiblemente se sincronizaría con un smartphone para captar su localización geográfica y contaría con sensores para detectar movimientos de la cabeza).

La patente indica una apuesta por un futuro que tal vez no llegue antes de cinco o diez años, o incluso más. Según indica Michael Abrash, científico jefe de Oculus, la gafas de RA no empezarán a reemplazar a los smartphones hasta 2022, aunque a partir de allí vaticina que se dejarán de usar los teléfonos para usar gafas en todo momento. Zuckerberg, por otra parte, ha manifestado anteriormente su convicción de que la RA será la principal plataforma de computación en el futuro, y que incluso hará posible reinventar la manera en que concebimos los ordenadores. De momento, la patente de las gafas indica un claro interés en hacer de la RA algo cotidiano, que idealmente sea sencillo de usar y se integre en nuestra actividad diaria. Cabe recordar que Samsung registró el año pasado una patente para unas “lentillas inteligentes” que potencialmente permitirían ver contenidos virtuales ante nuestros ojos, de manera que la apuesta de Facebook por las gafas resulta incluso conservadora.

 

 

 

 

Diseño sostenible: usar y reparar

En un artículo recientemente publicado en FastCo Design, la periodista Katarine Schwab lamenta que los diseñadores estén olvidando integrar en el proceso del diseño la posibilidad de reparar el producto una vez este se rompe o tiene algún problema de funcionamiento. Al crear productos de usar y tirar, los diseñadores participan en una cultura de consumo que no tiene en cuenta al medio ambiente y presta oídos sordos al hecho de que actualmente se generen cada año más de 55 millones de toneladas de residuos, sólo en productos tecnológicos. Las grandes empresas se enriquecen con la venta imparable de unos productos que renuevan periódicamente con la excusa de introducir mejoras que antes no eran posibles puesto que la tecnología no estaba suficientemente desarrollada. Bajo la promesa de una innovación continua se oculta un sistema de producción basado únicamente en el beneficio económico, que induce a un consumo acelerado e incesante y genera en el usuario una constante insatisfacción, como indica el profesor Jonathan Chapman en relación al concepto de diseño emocionalmente duradero.

Ante esta situación, en los últimos años diversos colectivos de diseñadores han denunciado el diseño de usar y tirar y han reivindicado el valor del acto de reparar los productos que empleamos a diario, no sólo para ahorrar el dinero que cuesta comprar otro idéntico o similar, sino para contribuir a ralentizar el ciclo de consumo y reducir los residuos generados. A la vez, reparar un producto implica para el usuario tomar conciencia de su composición y proceso de fabricación, algo que el diseñador Thomas Thwaites llevó al extremo con The Toaster ProjectUn destacado ejemplo de esta reivindicación es el Repair Manifesto que redactó en 2009 el colectivo Platform21 (compuesto por Cynthia Hathaway, Arne Hendriks y Joanna van der Zanden), en el que se exponen, en 11 puntos, las razones por las cuales es preciso reparar los productos en lugar de tirarlos. Los autores afirman que los objetos reparados contienen una historia y resumen sus motivos de la siguiente manera:

  1. Extender la vida de tus productos crea la oportunidad de construir una relación con los objetos. Usar un objeto reparado es una muestra de intimidad entre persona y objeto.
  2. En The Waste Makers, publicado en 1960, Vance Packard explica que en los años 40 y 50 los diseñadores se vieron prácticamente forzados a diseñar productos de usar y tirar. Es lo que se ha llamado la obsolescencia programada. Pero es importante saber que no siempre ha sido así. Es un proceso, y los procesos pueden revertirse.
  3. Los productos se diseñan hoy como cajas negras, no se pueden abrir, no se ve cómo se han hecho, no se pueden modificar ni tampoco reparar. Ya no hay lugar para el apaño o la creatividad.
  4. Los objetos reparados son bellos, tienen una historia que contar acerca de cómo se usan, cómo se han roto y cómo se han reparado.
  5. Cada objeto roto es un puzzle, un reto que todos podemos afrontar. Aunque algunos puzzles son para principiantes y otros para expertos, todo el mundo puede reparar.

La sociedad de consumo ha instaurado el prejuicio de que quien repara un objeto lo hace porque no tiene recursos económicos para comprar uno nuevo. A esto se suma que muchos productos se fabrican ya de tal manera que es imposible repararlos: los tornillos se sustituyen por piezas termoselladas, soldaduras o juntas pegadas con adhesivos tan potentes que al separar las piezas, estas se rompen aún más. Lo único que se puede hacer es tirar el objeto a la basura y comprar otro. Incluso productos tecnológicos como el iPhone de Apple, que se puede adquirir con una garantía de reparación, en realidad se componen de unos pocos elementos que sólo pueden sustituirse en fábrica, en la mayoría de los casos sustituyendo el modelo por uno nuevo. Esto es lo que Vincent Lai del colectivo Fixer’s Collective denomina “anorexia de diseño”, según recoge Schwab: los productos digitales se hacen cada vez más delgados y estilizados, con lo que no queda espacio para ensamblar sus componentes con tornillos u otros sistemas que permitan abrirlos y repararlos. Todo está pegado o soldado en una única pieza, que no deja más opción que la de tirar el producto a la basura. Aunque pueda reciclarse, rompiendo el aparato y sacando algunas de sus partes, en la mayoría de los casos no es posible repararlo.

Obviamente, para las empresas resulta mucho más provechoso diseñar objetos de usar y tirar, que en última instancia puedan ser reciclados, que facilitar los medios para que los usuarios puedan repararlos. Por una parte, los costes de fabricación pueden ser más altos, a lo que se suma que la empresa debería mantener un stock de piezas de repuesto (algo que antiguamente se hacía) a disposición de los consumidores. Por otra parte, al limitar lo que el usuario puede hacer con el producto, el fabricante retiene el control sobre el mismo y puede decidir cuándo lo hace obsoleto, a la vez que evita que los usuarios puedan encontrarle nuevos usos o mejoras al producto, esquivando así el ciclo de obsolescencia programada. Finalmente, como es lógico, las empresas quieren hacer de los usuarios compradores habituales, fidelizarlos y asegurarse que podrán volver a venderles el mismo producto una y otra vez. Esta percepción del cliente como alguien a quien debe “atraparse” y mantener en un ciclo de consumo continuo se hace evidente en la industria del software y los contenidos de entretenimiento, hoy en día centrados en ofrecer opciones de suscripción en lugar de vender productos individuales.

Con todo, también existe la posibilidad de asociar el concepto de la reparación y la durabilidad del producto a una mayor calidad. Algunas marcas, particularmente las de prendas deportivas o artículos de viaje y montañismo, basan su identidad de marca en la gran resistencia de sus productos, que por otra parte justifica un coste más elevado. Cuando un producto puede producirse en masa a precios muy bajos, pero con poca calidad, como ocurre con los textiles, las empresas deben buscar su diferenciación en un mejor diseño y el uso de materiales de mejor calidad. Esto se traduce en productos que se anuncian como resistentes y duraderos, como es el caso de la marca berlinesa Crumpler, que promete una garantía de 30 años en todos sus productos (mochilas y maletas) y la anuncia con el eslogan “cásate con tu bolsa.” Esta garantía supone que ante cualquier defecto de fabricación, la empresa facilita una pieza de reemplazo para reparar la bolsa y seguir utilizándola. En este caso, suele ser el aspecto estético del producto el que marca su obsolescencia: numerosos diseños de Crumpler se basan en patrones y colores llamativos que pronto pasan de moda y llevan al usuario a querer adquirir otra bolsa. Se produce así un tipo diferente de obsolescencia.

Este último aspecto nos lleva a pensar cuándo la “reparación” debe producirse ante todo en la mentalidad del usuario: antes de que el producto deje efectivamente de funcionar, deja de ser deseable por el usuario puesto que hay otro más nuevo o con mejores prestaciones. Ante esto sólo cabe desarrollar una relación emocionalmente duradera con el producto (como indica Chapman) para apreciar sus virtudes y “reparar” la percepción que tenemos del mismo.

¿Quién necesita realmente Google Glass?

En mayo de 2013, Sergey Brin, co-fundador de Google, presentaba ante el público de una conferencia TED el proyecto Glass, un visor integrado en unas gafas que permite visualizar e interactuar con la información que se proyecta en una diminuta pantalla justo por encima de la altura de los ojos. Brin afirma entonces que los smartphones “crean un aislamiento social” puesto que llevan al usuario a bajar la cabeza y mirar la pantalla de su teléfono sin prestar atención a lo que ocurre a su alrededor. Esta circunstancia inspira el desarrollo de Glass como un dispositivo que “libera las manos, los ojos y los oídos” al colocar la pantalla del smartphone frente al ojo derecho y permitir al usuario interactuar con el aparato por medio de la voz o unos ligeros toques en la montura de las gafas. El proyecto llevaba desarrollándose dos años en el momento de la presentación, pasando de ser un pesado y voluminoso ordenador a la relativamente discreta montura que lleva el propio Brin en la presentación. En la última fase de su desarrollo, se incorpora una cámara en la parte frontal con la finalidad de poder captar fotografías y vídeo y compartirlas con amigos y familiares. Según afirma Brin, esta cámara permite compartir momentos únicos en los que uno no pensaría en sacar del bolsillo su cámara o teléfono. El sueño de llevar una cámara en los ojos y poder registrar cada momento vivido se hace realidad. Para ilustrar esta idea, un vídeo promocional muestra una serie de escenas grabadas en primera persona en las que se ven situaciones cotidianas, como jugar con el perro o los niños en el parque, y otras no tan cotidianas, como hacer acrobacias en una avioneta, patinaje artístico, paracaidismo, esculpir una cabeza de tigre en un bloque de hielo, desfilar por una pasarela o tomar fideos en una barca en Tailandia. En esta primera presentación ya se perfila el uso de Glass principalmente como una cámara que permite compartir con los demás los momentos más emocionantes de la propia vida, algo que ya viene siendo una función principal de los smartphones en las redes sociales. Glass también permite acceder a información de manera inmediata, mostrando un mapa en Google Maps o facilitando una traducción gracias a Google Translate y una voz de síntesis, pero estas funciones quedan en segundo plano ante la espectacularidad de las imágenes y el recurrente uso de la función “compartir.” Estos usuarios no parecen estar aislados en sus teléfonos y sin duda tienen las manos libres para ejecutar todo tipo de acrobacias, pero lo que no muestran los vídeos es lo que ven las personas que les rodean: alguien que lleva una cámara permanentemente ligada a su ojo derecho.

Un mes antes de esta presentación, Google había lanzado una campaña en la que ofrecía a desarrolladores de software y usuarios potenciales la adquisición de unas gafas por $1.5oo, a fin de explorar sus posibles usos. A estos primeros usuarios, 8.000 en total, los denominaron “Glass Explorers.” Entre 2013 y 2014, Glass encontró numerosas aplicaciones de gran utilidad, ya sea para facilitar a los médicos el historial de un paciente durante las visitas en hospitales, ayudar a madres primerizas a consultar información acerca de la lactancia mientras dan el pecho a sus hijos, permitir a estudiantes de medicina seguir una operación de cirugía, detectar la presencia de cazadores furtivos en una reserva natural o ayudar a periodistas en la realización de sus reportajes. Con todo, el dispositivo también se dio a conocer como un posible artilugio de uso cotidiano, al que en un principio sólo podían acceder unos pocos. Algunos usuarios emplearon Glass como un símbolo de estatus (de manera similar al efecto que produjeron los primeros teléfonos móviles) y pronto se popularizó el término “glasshole” para referirse a estas personas que llevaban las gafas de Google y podían estar grabando lo que veían en cualquier momento. Este último aspecto, además de otros fallos de seguridad del dispositivo, atrajo numerosas críticas y despertó inquietud acerca de la continua violación de la privacidad que supondría el uso a gran escala de Glass. Ante la presión de la mala prensa y las acciones legales que se empezaban a emprender para limitar el uso de Glass, Google decidió dejar de producir las gafas en enero de 2015.

En los últimos dos años, Glass ha seguido siendo desarrollado por X, empresa hermana de Google, en una “edición para empresas”: Glass Entreprise Edition. El pasado 18 de junio, Jay Kothari, director del proyecto, anunciaba “un nuevo capítulo para Glass,” que consiste en redirigir el producto exclusivamente a su uso en el contexto de las empresas, principalmente en los ámbitos de sanidad, logística y producción industrial. Según indica Kothari, en estos años han trabajado con más de 30 expertos de diferentes industrias para adaptar las funciones de Glass a las necesidades específicas de una serie de trabajadores que deben consultar información en todo momento mientras atienden a personas, se desplazan o trabajan con sus manos. Con una mayor autonomía y peso más reducido, el dispositivo se distribuye actualmente a través de una serie de colaboradores que han desarrollado software específico para cada uso e incluso distribuyen modelos de Glass adaptados a cada función. Así, por ejemplo, la empresa AugMedix facilita un dispositivo destinado a médicos, que les ayuda a consultar los historiales de sus pacientes y registrar las visitas a fin poder atenderles con mayor efectividad y sin dejar de mantener el contacto visual. Otras empresas se especializan en facilitar a trabajadores de una fábrica el acceso inmediato a manuales y documentos de referencia, o bien han desarrollado un software que permite a los empleados de un almacén de distribución encontrar de manera más rápida y eficiente un determinado paquete.

En suma, la historia de Glass demuestra que no se debe asumir que un nuevo dispositivo tiene que destinarse al gran público, sino que puede ser más útil en un entorno específico como es el de una fábrica, un almacén o por colectivos con funciones concretas como son los militares o la policía. Brin presentó Glass como la evolución del smartphone, pero no tuvo en cuenta que los teléfonos móviles han necesitado un par de décadas para integrarse en la vida cotidiana y dar con una serie de normas sociales relativas a su uso, que no obstante siguen teniendo que recordarse en cines y teatros. La cámara integrada, que ha sido uno de los principales problemas de Glass en el espacio público, deja de serlo en el contexto de la empresa, donde su uso se ve acotado a unas funciones y lugares concretos, y las propias limitaciones del software evitan que se pueda emplear de forma fraudulenta. Con todo, la posible violación de la privacidad que planteaba Glass tal vez resultó más notoria por irrumpir en un momento en que la proliferación de cámaras y la cultura del selfie no se habían dado con la intensidad de los últimos tres años. Prueba de ello es el lanzamiento, a finales de 2016, de Spectacles, unas gafas de sol con cámara integrada desarrolladas por los creadores de la red social Snapchat y destinadas principalmente a un público joven. Estas gafas permiten tomar fotos y vídeos y compartirlos en redes sociales de forma similar a cómo proponía Glass, si bien en este caso, al tratarse de gafas de sol, están pensadas para captar actividades en espacios públicos y disponen de un vistoso indicador luminoso que indica el momento en que el usuario está grabando un vídeo o tomando una fotografía. Las gafas Spectacles se han empezado a vender en febrero de 2017 en Estados Unidos y desde este verano en Europa, por lo cual queda por ver si generarán la misma polémica que afectó a Glass en su momento. El producto de Snapchat posiblemente haya eliminado la posibilidad de que Glass tenga un futuro fuera del recinto industrial, o tal vez facilite que una nueva generación crezca habituada a llevar una cámara en las gafas y esto lleve a un tercer capítulo para Glass.