Jony Ive acerca del futuro del diseño

    Recientemente, la revista Smithsonian Magazine organizó una charla con Jony Ive, diseñador jefe de Apple, acerca de sus principios de diseño y sus predicciones acerca de la evolución futura del diseño. En la grabación se puede escuchar la entrevista completa, de la que extraemos algunas afirmaciones de Ive.

    “Apple siempre ha tenido interés en hacer de la tecnología algo personal”

    En referencia a su formación, Ive indica que fue particularmente importante para él poder trabajar directamente con los materiales a nivel artesanal en el taller de su padre. En este sentido, destaca que es notable que hoy en día un diseñador pueda definir objetos sin dejar el ordenador, con lo cual resulta tentador y extremadamente fácil desligarse del aspecto material de los productos. “Puedes engañarte,” afirma, “creyendo que eso [que ves en la pantalla] es un objeto, pero no lo es. Es la representación digital de un objeto, y hay una gran diferencia entre la representación digital de un objeto y el objeto real. Hay un gran número de atributos del objeto que definen la experiencia que tienes del mismo.” En Apple, subraya Ive, el estudio de diseño cuenta con máquinas de fresado y un taller en el que los prototipos digitales se convierten en objetos tangibles. “Eso nos recuerda que el producto de nuestro trabajo es un objeto.”

    Pese a trabajar para una de las empresas más importantes e influyentes en el mundo, el equipo de Ive está formado por apenas 20 diseñadores. Al preguntarle si tiene pensado ampliar la plantilla, el diseñador jefe de Apple responde que, al contrario, le gustaría reducirla. “La mayoría hemos trabajado juntos durante unos veinte años, así que estamos muy unidos. Para mí, Apple es un grupo muy diverso de personas que comparten unos mismos objetivos. Pero cuando tratas con ideas abstractas, son tan frágiles que es importante que trabajes con un equipo lo bastante reducido como para que los integrantes del equipo puedan comunicar lo que son ideas muy difíciles de articular. Cuando se convierten en productos, es sencillo, pero mucho antes de que esto ocurra las ideas son meras tentativas.”

    “Me gusta dibujar, pero ese nunca ha sido el objetivo. No se trata del dibujo como medio de expresión personal, sino como medio para un fin. Este fin era aclarar mis ideas acerca del objeto en el que estábamos trabajando. Esto se convirtió en el método de trabajo: dibujar para procurar entender el producto, dibujar para comunicar la idea del producto y luego el proceso de desarrollar el producto.”

    Respecto al futuro del diseño, una de las preguntas dirigidas a Ive se centra en la continua miniaturización de la tecnología, que permite convertir objetos como un reloj o unos auriculares de botón en sofisticados dispositivos inteligentes. Ive compara la evolución de los relojes con la de los ordenadores al indicar que antaño sólo había un reloj en lo alto de un campanario en los pueblos y ciudades, pero posteriormente se trabajó para hacer que los relojes fuesen más pequeños, portátiles y asequibles. Así, aparecieron los relojes de salón y posteriormente los relojes de bolsillo y de pulsera. De la misma manera, los ordenadores han pasado de ocupar grandes salas en centros de cálculo a las casas de las personas y finalmente a sus bolsillos y muñecas. “Apple siempre ha tenido interés en hacer de la tecnología algo personal,” afirma Ive, “pero hacerlo personal no sólo implica hacerlo más pequeño, más fiable y útil, sino que el tamaño también cambia el producto, su experiencia y sus capacidades. No se puede simplemente hacer algo a escala, los parámetros de diseño son totalmente diferentes.”

    En cuanto al futuro de Apple, se plantea el legado de Steve Jobs y si se ha entrado en una nueva era en la que ya no se aprecia la influencia o la visión del fundador de la empresa. En este sentido, Ive es tajante al afirmar: “no veo un momento en que podamos decir que ya no existe la visión de Steve Jobs en lo que hacemos. Si se diese esa situación entonces ya no sería Apple, deberíamos cambiarle el nombre.”

     

     

    Diseños que cambian el mundo

    FastCompany ha lanzado la convocatoria de los premios 2018 World Changing Ideas, dedicado a productos, conceptos, compañías, directrices y diseños que apoyen la innovación por una buena causa. Cualquier idea que haya sido lanzada desde principios de 2017 puede presentarse a estos galardones hasta el 7 de diciembre. Los criterios principales son el potencial de impacto de la idea y cuán factible es, lo cual favorece a los productos ya realizados, pero también se consideran las ideas en proceso.

    Según afirman los organizadores: “al otorgar estos premios, aspiramos a dar más visibilidad a ideas con gran potencial y ayudar a expandir su alcance y servir de inspiración a un número mayor de personas para que trabajen en la resolución de problemas que nos afectan a todos.”

    Las categorías en que se dividen los premios son: publicidad (campañas centradas en temas sociales), apps, productos de consumo, tecnología para los países en vías de desarrollo, energías alternativas, alimentación, salud, fotografía y visualización, proyectos creados por estudiantes, transportes, diseño urbano, y una categoría dedicada a grandes ideas bajo el título “General Excellence.”

    El jurado lo componen, entre otros: Sophie Bakalar (Collaborative Fund), Tiffani Ashley Bell (Human Utility), Sebastian Buck (enso), Antionette Carroll (Creative Reaction Lab), Stephen D. Comello (Sustainable Energy Initiative), Jay Coen Gilbert (B Lab), Cheryl Hicks (The Toilet Board), Jessica Jackley (Kiva), Emily Pilloton (Project H Design), Jigar Shah (Generate Capital) y Brent Toderian (Toderian Urban Works).

     

    UX/UI: Figma y el diseño colaborativo

    Hace un año, echábamos un vistazo a seis herramientas de diseño de interfaces que según el diseñador Ji Hong Kim iban a ser especialmente influyentes en 2017. Una de ellas es Figma, una plataforma online que se distingue por facilitar a los miembros de un equipo la posibilidad de colaborar en tiempo real en el diseño de una interfaz de usuario. Si bien no es tan popular como Sketch, esta aplicación ha ido generando un creciente interés desde su lanzamiento y hace unos meses contaba ya con clientes de la talla de Microsoft, Uber y Slack.

    Como comentábamos ya en un post anterior, Figma se diferencia por ser una aplicación en la nube, a la que se accede por medio del navegador en una cuenta privada, a la manera de Google Drive. Y, de la misma manera en que la serie de aplicaciones de oficina de Google permite trabajar en documentos de texto, hojas de cálculo o presentaciones en la nube, compartirlas con otros usuarios y trabajar conjuntamente viendo en tiempo real los cambios efectuados, Figma lleva el trabajo remoto en colaboración al ámbito del diseño de interfaces. La plataforma cuenta con varias características que la hacen especialmente indicada para el trabajo en equipo:

    • La colaboración en vivo permite ver en tiempo real los cambios que se están efectuando en un diseño, enviar comentarios y responderlos. Esto agiliza en gran medida la labor del diseñador, quien en lugar de crear una versión del diseño, enviarla, esperar comentarios y luego trabajar a partir de la lista de comentarios recibidos para crear una nueva versión, puede llevar a cabo cambios y ajustes en un diálogo directo con el resto del equipo.
    • El control de versiones guarda un registro detallado de los cambios realizados en el proyecto, con lo cual permite revisar el desarrollo del mismo y evita que los colaboradores deshagan el trabajo hecho.
    • El “modo código” facilita la consulta del código que se haya bajo la apariencia visual del proyecto, lo cual permite revisar posibles errores debidos a la programación y hacer los ajustes necesarios, de la misma manera que suele hacerse con los sitios web en html y php.
    • El “modo prototipo” es una herramienta con la cual los diseñadores pueden crear, presentar y modificar prototipos de productos digitales que funcionan, sin necesidad de escribir código.

    Figma evita tener que emplear diferentes aplicaciones al diseñar, prototipar y compartir un proyecto, además de los problemas que genera el constante envío de versiones y la necesidad de guardar los archivos en discos locales. Pese a ser una aplicación en la nube, permite trabajar ágilmente con gráficos de vectores e imágenes que se guardan en una librería compartida. Esta librería, al estar vinculada al proyecto y sus miembros, puede avisar cuando se modifica un elemento, de manera que no sólo está siempre disponible sino que además permite un control de versiones. Los diseños pueden luego previsualizarse en un dispositivo móvil, de manera que resulta sencillo llevar a cabo un test de uso y detectar posibles problemas o mejoras. Por último, Figma incorpora herramientas de comunicación que facilitan la presentación del proyecto, así como el intercambio de comentarios entre miembros del equipo.

    La importancia que Figma da al trabajo en equipo como eje del valor de su producto se demuestra en que su uso es completamente gratuito para usuarios únicos (diseñadores que no trabajen con un equipo). Para los equipos, se dan actualmente dos niveles de suscripción: uno básico (Starter Team) con un máximo de dos editores y tres proyectos, así como un control de versiones limitado a 30 días. La versión de pago (Professional Team) cuesta entre 12 y 15 dólares por editor y mes, que dan derecho a un número ilimitado de proyectos, control de versiones ilimitado, librería de componentes compartida e integración con Slack. Al igual que hacen otros desarrolladores de herramientas de diseño, Figma apuesta por un producto como servicio, al que se accede por suscripción y que conserva todos los archivos en sus servidores. Esto también facilita crear una comunidad en torno a la propia herramienta, de manera que se hace más fácil compartir proyectos y soluciones.

     

     

     

    Oculus Dash, un escritorio en Realidad Virtual

    En los últimos años, el interés por la Realidad Virtual (RV) y la Realidad Aumentada (RA) no ha hecho más que crecer, a medida que un número cada vez mayor de empresas lanzan sus dispositivos y procuran hacerse con un nicho de mercado en pleno desarrollo. Fue el lanzamiento del primer prototipo del visor Oculus Rift en 2010 lo que reavivó el interés en esta tecnología y, tras ser adquirida por Facebook en 2014, Oculus continúa (como división de VR de la red social) buscando maneras de integrar el uso de la Realidad Virtual en todo tipo de contextos. Si bien la RV se ha popularizado principalmente en el ámbito de los videojuegos y ha generado bastante interés en el mundo del arte contemporáneo, sigue siendo más bien una curiosidad para gran parte del público. Uno de los usos más extendidos y asequibles para cualquier persona es la reproducción de vídeos en 360 grados (que no pueden definirse exactamente como “realidad virtual” pero se confunden con este término) en un smartphone con una app de RV y unas gafas que pueden conseguirse por entre 2 y 10€. Con todo, esta forma de entretenimiento no deja de ser algo que tal vez se prueba un par de veces y luego se olvida, dado que resulta algo engorroso configurar la app y ponerse las gafas para aislarse del mundo durante unos minutos.

    La Realidad Virtual requiere dedicarle a sus contenidos un espacio específico, tanto de tiempo como de atención absoluta, algo que resulta difícil en nuestra rutina diaria, en la que estamos acostumbrados a frecuentes interrupciones y a dirigir nuestra atención incesantemente hacia diferentes estímulos. Las pantallas de smartphones, ordenadores y tablets logran retener nuestra mirada, pero a cambio de una interacción constante y de ofrecernos diferentes ventanas, contenidos o aplicaciones que podemos intercambiar rápidamente. Además, solemos tener a mano varios dispositivos y recibir notificaciones de cada uno de ellos, con lo cual nuestra atención suele pasar de una pantalla a otra. El contexto de un videojuego es compatible con los requisitos de la RV porque el videojuego en sí requiere toda nuestra atención y genera un espacio (mental y temporal) ajeno a la vida cotidiana en la que el jugador se centra únicamente en el juego. Conscientes de las actuales limitaciones en la adopción de la RV, las empresas que han apostado por esta tecnología con inversiones millonarias están tratando de ampliar el espectro de uso de esta tecnología y por tanto el número de usuarios potenciales. Sin duda, les interesa que en el futuro tener y emplear un visor de Realidad Virtual sea tan común como es hoy en día usar un smartphone, y para ello debe resultar igual de útil.

    Un paso en esta dirección es el que promete Oculus Dash, una nueva interfaz de usuario para Oculus que se ha presentado recientemente y procura expandir las posibilidades de lo que se denomina “computación inmersiva” (immersive computing) y busca ir más allá de la pantalla y el teclado para integrar al usuario en un entorno virtual con el que puede interactuar de diferentes maneras. De manera similar al “dock” del sistema operativo MacOS de Apple, Dash es en principio un menú principal en forma de un panel semicircular que reúne todos los menús e interfaces de Oculus Rift. El usuario se ve así inmerso en una habitación virtual, frente a un panel que flota a la altura de la cintura y permite ver diferentes contenidos en pantallas flotantes, creando un panel de múltiples ventanas que recuerda a la famosa interfaz controlada por gestos que aparece en el film Minority Report (Steven Spielberg, 2001). Según los desarrolladores de Oculus, la interfaz permite mostrar en varias pantallas diferentes aplicaciones a pleno rendimiento, lo cual permite a desarrolladores de RV trabajar en sus aplicaciones mientras las están usando y también ofrece la posibilidad de crear un “escritorio infinito”, en el que las pantallas de despliegan alrededor del usuario. Al igual que en un film de ciencia ficción, el resultado es espectacular, pero su verdadera utilidad resulta dudosa.

    Por medio de esta interfaz, Oculus busca lanzar un nuevo producto que atraiga directamente a las empresas con el objetivo de “integrar la RV en la formación en el puesto de trabajo, la colaboración, ventas y mucho más”, según afirma el director de Rift, Nate Mitchell. “A medida que mejore el hardware,” indica Mitchell, “estamos en camino de librarnos de los monitores tradicionales.” Lo que de momento ofrece Oculus Dash es poco más que eso: se reemplaza el monitor por un entorno con numerosos monitores, pero se hace poco por cambiar el propio concepto del escritorio. De hecho, lo que se puede hacer con Dash de momento es principalmente tocar botones y mover pantallas, con lo cual sigue siendo necesario un teclado para hacer algo tan sencillo como introducir una URL en un navegador web o, por supuesto, escribir. Dispositivos táctiles como smartphones y tablets ya han creado un sistema operativo basado en apps que procura que nos movamos entre espacios predeterminados y nos limitemos a seleccionar opciones ya establecidas apretando botones. El sistema TouchID en el iPhone y iPad incluso evita que tengamos que teclear contraseñas, y con FaceID ya no es preciso tocar nada. Estas prestaciones, junto con el (aún poco fiable) control por voz buscan eliminar poco a poco el uso del teclado. De esta manera, es posible imaginar a un usuario sentado en una silla con un visor de RV controlando su escritorio virtual con gestos y dictando o dando instrucciones a la máquina con la voz. Con todo, esto requiere un entorno de trabajo bastante particular y por ello es posible que el interés de Facebook se centre en ofrecer un producto para empresas, de la misma manera en que Google redirigió su Google Glass a entornos específicos en la industria.

    En este momento, lo más interesante de Oculus Dash es lo que promete, no lo que ofrece, puesto que es poco probable que nadie se dedique a trabajar de pie en medio de una sala, con un visor en la cara, agitando las manos durante horas, en vez de hacerlo frente a su ordenador. Pero sí anuncia la posibilidad de desarrollar un nuevo entorno de trabajo, en el que tal vez un visor más ligero, conectado sin cables a un ordenador con el tamaño y la forma de un teclado, permita ampliar el escritorio a un entorno inmersivo y, a la vez útil. Para ello tendrán que cambiar también las interfaces de las aplicaciones con las que trabajamos a diario, puesto que tiene poco sentido sumergirse en una habitación virtual para seguir mirando una pantalla con contenidos en dos dimensiones.

    Kinect y la Zero UI

    Microsoft ha anunciado recientemente que deja de fabricar Kinectel popular dispositivo de visión por ordenador y reconocimiento de voz que introdujo con la consola de videojuegos XBox 360 en 2010. Creado para aumentar las formas de interacción con la consola más allá del clásico gamepad y competir con la Wii de Nintendo, Kinect permitía jugar a juegos y controlar personajes virtuales por medio de gestos y movimientos del cuerpo, sin necesidad de emplear ningún mando. Lo que el ingeniero y artista Myron Krueger había ideado y prototipado con su instalación pionera Videoplace (1974-1984) y muchos otros artistas y desarrolladores habían ido empleando en su trabajo durante las décadas siguientes llegaba por fin al consumidor medio: la posibilidad de interactuar con un ordenador simplemente con la propia presencia y los gestos del cuerpo. Microsoft centró inicialmente el potencial de Kinect en su consola Xbox 360 y luego Xbox One buscando captar a un nuevo sector de jugadores y competir con sus rivales, principalmente la PlayStation de Sony. Microsoft apostó por Kinect y para asegurarse un gran número de usuarios incluyó el dispositivo en cada Xbox One, con lo cual los usuarios no debían adquirir el periférico si querían jugar a videojuegos que requerían esta forma de interacción. Esto también supuso que el sensor fuese fácil de adquirir, lo cual atrajo a muchos artistas que vieron la posibilidad de emplearlo para sus propios proyectos. Con todo, Kinect limitaba hasta cierto punto los recursos de la consola, que no podía emplear el cien por cien de su capacidad de procesamiento ni de su tarjeta de gráficos. Sony explotó esta debilidad dando mayor protagonismo a la capacidad de su consola para generar mejores gráficos y por tanto escenarios más complejos, de los que hacían gala sus títulos más populares. Microsoft no logró contar con grandes títulos para Kinect y ante la elección entre interactuar con un juego moviéndose por el salón o hacerlo con un mando, la mayoría de jugadores optaron por o segundo. Así, al mismo tiempo en que Kinect resultaba cada vez más útil para artistas que desarrollaban piezas interactivas, perdía el interés de los jugadores y por tanto pasaba a un segundo plano en el contexto de las consolas de videojuegos.

    Así, tras vender 35 millones de unidades, Kinect queda descartado del ámbito de los videojuegos como un accesorio fallido, pero se consolida como uno de los dispositivos más importantes desarrollados en los últimos diez años. Según afirma Mark Wilson: “no creo que sea una exageración afirmar que Kinect ha sido el hardware más influyente, o al menos premonitorio, desde el iPhone.” Su función de reconocimiento de voz ha sido imitada por Apple para la asistente Siri y posteriormente por Amazon y Google para sus respectivos asistentes de voz en el hogar. La visión por ordenador se ha popularizado para un gran número de usos, desde las apps de realidad aumentada y redes sociales como Snapchat a Amazon Go, una tienda que cobra automáticamente a los compradores detectando qué productos ponen en sus cestas, o el reciente sistema de reconocimiento facial en el iPhone X. La tecnología de Kinect, facilitada por una progresiva miniaturización, sigue desarrollándose en otros productos de Microsoft, como su visor de realidad aumentada Hololens, el asistente de voz Cortana y otros sistemas de interacción con el usuario. Por último, la popularidad de este dispositivo entre los artistas y desarrolladores de sistemas interactivos ha hecho que hoy en día una gran cantidad de obras de arte, sistemas de entretenimiento y anuncios interactivos dependan de Kinect.

    Más allá de hacer que millones de jugadores saltasen o adoptasen posturas ridículas en el salón de casa, Kinect ha introducido en los hogares la interacción gestual y de voz, por medio de la consola de videojuegos pero anticipando una situación que va más allá del mero entretenimiento. Las posibilidades que planteaba Kinect están siendo desarrolladas en un contexto más amplio por los múltiples dispositivos conectados que buscan un lugar discreto en nuestros hogares, se integran en nuestra ropa y los complementos que llevamos a diario. Siguiendo el principio de lo que Andy Goodman describe como Zero UI, nos facilitan maneras de interactuar con los ordenadores, con las redes de datos y con nuestro entorno sin necesidad de mirar pantallas ni apretar botones. Esta tendencia sigue en alza y hace fácil predecir un futuro en el que cada espacio de la casa o la oficina está controlado por un sensor que permite interactuar uno o varios dispositivos por medio de la presencia, los movimientos, determinados gestos, comandos de voz o incluso por huellas biométricas como los latidos del corazón, la temperatura corporal o el ritmo de la respiración. En este futuro se plantea claramente la preocupación por la pérdida de privacidad, algo que se da en el momento en que se integran las webcams en las pantallas de los ordenadores personales y que el jugador olvida mientras interactúa con un videojuego dando saltos y agitando los brazos frente a un sensor. Sin duda, Kinect desaparece de la consola de videojuegos, pero lo hace para integrarse en el resto de la casa, y muy pronto en cada una de nuestras interacciones con las máquinas que nos rodean.

    Diseño e Inteligencia Artificial

    Joaquin Phoenix como Theodore en el film “HER” (Spike Jonze, 2013). Warner Bros. Pictures.

    En su film Her (2013), el director Spike Jonze perfiló un posible (y muy real) futuro de nuestra interacción con los ordenadores a través de un asistente dotado de Inteligencia Artificial (IA). A partir de una idea que tuvo casi una década antes, el director plantea una relación romántica entre un usuario, Theodore Twombly, y el sistema operativo de su ordenador, que se comunica con él a través de un asistente de voz inteligente con voz femenina que se identifica a sí misma como Samantha. En la dirección de arte del film se acierta al presentar la tecnología con la que interactúa el protagonista como algo cotidiano y discreto, no en la manera fantasiosa que suele ser común en las películas de ciencia ficción (como, por ejemplo, Minority Report). La relación entre Theodore y Samantha se establece a través de un diálogo hablado, gracias a un diminuto dispositivo similar a un smartphone y un auricular, que permiten al usuario mantener un contacto constante con su asistente en cualquier lugar. El futuro imaginado por Jonze se basa en la manera en que se ha ido desarrollando la interacción con sistemas de Inteligencia Artificial durante décadas, ya sea a través de chats de texto o por medio de programas de reconocimiento de voz y voces sintéticas como las de Siri o Alexa. La actual proliferación de asistentes de voz para el hogar, así como sensores y altavoces inteligentes confirma el escenario planteado en Her, lo cual perfila una parte del panorama futuro del diseño de experiencias de usuario. Pero la IA también afectará al diseño de otras maneras.

    Según afirma Rob Girling, co-fundador del estudio Artefact, una de las principales consecuencias de la introducción de la IA es que los diseñadores dejarán de tener el monopolio de la creatividad y no se centrarán tanto en la mera creación, sino que deberán trabajar en contextos interdisciplinares con otros profesionales que también aplicarán principios de Design Thinking asistido con IA. En concreto, como ya se está produciendo en el diseño de producto con programas como Autodesk Dreamcatcher, los diseñadores pasan a ser curadores o selectores: deben centrarse no tanto en un acto de creación único, sino en trabajar con unos parámetros que se facilitan al programa y a partir de los cuales se va escogiendo la solución más óptima a partir de los numerosos prototipos que se generan automáticamente. Así, como indica Girling (2017, 2 junio),

    “en el futuro los diseñadores enseñarán a sus herramientas de IA a resolver problemas de diseño creando modelos basados en sus preferencias.”

    Como ocurre con los artistas que crean instalaciones interactivas, no se trata ya de crear un único objeto, sino de plantear una situación y establecer unos parámetros dentro de los cuales pueden darse diferentes resultados. Como ocurrió con la irrupción de la autoedición, la evolución y popularización de estas herramientas implicará que un número cada vez mayor de diseñadores podrá crear y verá aumentada su capacidad de producción. Con todo, esto no afectará al estatus de los grandes diseñadores, puesto que factores como la creatividad y la capacidad para encontrar las mejores soluciones seguirán siendo diferenciadores. La IA aportará mejores herramientas pero, de momento, no es previsible que pueda suplantar la capacidad creativa de un buen diseñador ni generar por si misma ideas innovadoras.

    Esto no quiere decir que los cambios que introduzca la IA no sean profundos y requieran adaptarse a situaciones y formas de trabajar novedosas. Según John Zimmerman, la mayoría de los diseñadores de experiencias de usuario no están preparados para trabajar con interfaces centradas en la Inteligencia Artificial (Schwab, 2017, 2 octubre). Esto se debe a que hay poco conocimiento acerca de esta tecnología y que el aprendizaje automático (machine learning) no forma parte aún de la formación en diseño ni está presente en las principales herramientas que emplean los diseñadores. El método de trabajo que los diseñadores conocen mejor, a partir de bocetos y en contacto directo con los materiales, resulta complejo de llevar a cabo con IA puesto que no es tan sencillo como hacer pruebas con un tipo de madera determinado en un taller. Para “enseñar” a un ordenador es preciso tener un conocimiento avanzado de matemáticas, datos y estadística que no está al alcance de muchos diseñadores ni forma parte de su método habitual de trabajo. En este aspecto, Zimmerman apunta que, al igual que ha pasado con la autoedición, algunas empresas están creando programas que resuelven parte de este complejo proceso, pero a la vez deja determinadas decisiones de diseño en mano de los programadores y limita las opciones del diseñador.

    Por ello, es preciso que los diseñadores empiecen a entender las posibilidades del diseño asistido con IA, como por ejemplo la posibilidad de adaptar el producto a las características del usuario de forma automática, aprendiendo qué necesita en cada momento a partir de sus propias acciones. Esto requiere pensar más en un sistema adaptable que en un producto específico, y prever las situaciones que pueden producirse a medida que dicho sistema toma decisiones a partir de lo que ha aprendido del usuario. Por ejemplo, incluir la posibilidad de deshacer una acción es crucial, puesto que el asistente puede equivocarse al prever lo que el usuario quiere o necesita, y también este último puede simplemente cambiar de opinión. Un comando aparentemente sencillo como es el de “deshacer” puede plantear un serio reto al diseño de UX. Para incorporar la IA en su trabajo, los diseñadores deben aprender a trabajar con sistemas inteligentes al mismo tiempo que aprenden a diseñar, según afirma Zimmerman. Otra opción es que los estudiantes de diseño trabajen con estudiantes de análisis de datos y así entender mejor cómo se crean modelos de aprendizaje automático. Posiblemente la solución a medio plazo será la inclusión de la IA en los programas de diseño que se emplean regularmente, pero esto, como se ha indicado, limita sus opciones y no ayuda a los diseñadores a replantearse su método de trabajo.

    Otro aspecto a tener en cuenta es cómo la IA afecta a la propia percepción que el usuario tiene de su entorno y de sí mismo. Mark Rolston (2017, 19 octubre), co-fundador de Argo Design, emplea el término “meta yo” (MetaMe) para referirse a la proyección del yo en las redes sociales y entornos virtuales con los que interactuamos a diario. Este “meta yo” se convierte progresivamente en un golem que controlamos cada vez menos, y que por medio de la IA se convierte en una entidad con una cierta conciencia. El asistente, mejorado y perfeccionado, pasa de ser una compañía inseparable (como se sugiere en Her) a sustituir al propio usuario en algunas tareas comunes, como felicitar cumpleaños o enviar respuestas rápidas. Como indica Rolston, actualmente recibos notificaciones que nos recuerdan cosas que podríamos o deberíamos hacer y reduce nuestra respuesta a pulsar un botón, pero pronto incluso ese botón podría desaparecer a medida que nuestro “meta yo” tiene la información suficiente para saber cuál será nuestra respuesta. El correo de Google también genera automáticamente sugerencias de respuestas a los emails recibidos, algo que podría igualmente ser gestionado por un asistente inteligente. Lo mismo ocurrirá con otros numerosos servicios y dispositivos que nos rodean.

    Pero, advierte Rolson, cabe recordar que las acciones de este “meta yo” vendrán determinadas por un diseño cuyas directrices ha determinado un grupo de personas, o una empresa, con sus propias ideas, intenciones y motivos. La manera de entender el mundo de la empresa puede por tanto influenciar las acciones del usuario, lo cual tiene implicaciones éticas que deben tenerse muy en cuenta. Además, cabe tener en cuenta hasta qué punto el “meta yo” puede sustituir a la persona real, que en última instancia deberá responder a las situaciones creadas por las acciones de su yo virtual. Por tanto, es preciso que haya unos sistemas de control, tanto a nivel social como legal, para minimizar las consecuencias de un “paso en falso” del asistente. Este también es un problema de diseño, que requiere un enfoque transdisciplinar y que vaya mucho más allá del contexto concreto de la UX.

     

    Referencias

    Girling, R. (2017, 2 junio) AI and the Future of Design: What will the designer of 2025 look like?. Artefact. https://www.artefactgroup.com/articles/ai_design_2025/

    Rolston, M. (2017, 19 octubre). AI Is Changing Our Brains. FastCo Design. https://www.fastcodesign.com/90147162/ai-is-changing-our-brains

    Schwab, K. (2017, 2 octubre). Designers Aren’t Prepared To Make AI–Here’s How To Get Ready. FastCo Design. https://www.fastcodesign.com/90145027/designers-arent-equipped-to-make-ai-heres-how-to-prepare

     

     

     

    La prenda como interfaz

    Levi’s y Jaquard (un proyecto de Google centrado en desarrollar tejidos inteligentes) han lanzado recientemente una nueva versión de la popular chaqueta Commuter Trucker que incluye la posibilidad de controlar diversas funciones del smartphone (tales como la reproducción de música o la conducción guiada) a través de gestos en la manga izquierda de la prenda. La idea en sí no es nueva, puesto que ya en 1996 el MIT Media Lab trabajaba en el proyecto Musical Jacket, que consistió en una chaqueta vaquera en la que se bordó un pequeño teclado conectado con un circuito integrado que permitía convertir la prenda en un instrumento musical. En los últimos veinte años han sido numerosos los proyectos que se han desarrollado con lo que hoy en día se llaman “tejidos inteligentes,” así como otros tipos de interfaces destinadas a integrarse en el cuerpo (DuoSkin es un ejemplo) y lograr que no dependamos constantemente de la pantalla de un ordenador o dispositivo móvil. La exploración de las posibilidades de desarrollo de las prendas inteligentes se ha llevado incluso a condiciones medioambientales extremas, como las que resiste una chaqueta diseñada para sobrevivir en el ártico (Rantanen, J., Impiö, J., Karinsalo, T. et al., 2002), en la que se ha aprovechado el volumen y peso del abrigo para introducir diversos componentes electrónicos e incluso una interfaz visual en un pequeño dispositivo que se puede sujetar con una mano y se une a la chaqueta por un cable. Con todo lo novedoso de la Commuter Trucker es que se trata de una prenda inteligente producida a gran escala y lista para su comercialización en tiendas, lo cual marca una nueva etapa en la producción y popularización de este tipo de ropa.

    La chaqueta es el resultado de un trabajo de dos años por parte del equipo de Project Jacquard, liderado por el diseñador Ivan Poupyrev, que se ha dedicado a desarrollar un hilo conductivo que se puede emplear con cualquier máquina industrial e integrarse en todo tipo de tejidos. Al integrar este hilo en la prenda y conectarlo con un controlador de pequeñas dimensiones, alimentado por una pila de botón y con conectividad Bluetooth, se logra que ésta funcione como lo haría una pantalla táctil: basta con hacer un gesto sobre la tela (tocar, dar dos toques seguidos, desplazar los dedos en diferentes direcciones) para activar una determinada orden que el controlador envía a un dispositivo móvil como un smartphone o tablet. En colaboración con Levi’s, Jacquard ha incorporado este sistema a su chaqueta vaquera de la línea Commuter, pensada para ciclistas urbanos. Siguiendo con los principios de diseño de esta línea de productos, que se distingue por elaborar prendas pensadas para personas que van en bicicleta cada día, la chaqueta incorpora una manga con interfaz táctil en la que el usuario puede hacer gestos con una mano para controlar la reproducción de la música en su smartphone, recibir indicaciones de voz para guiarle mientras se desplaza por la ciudad o recibir notificaciones de emails y mensajes de texto.

    Según Paul Dillinger, vice presidente de innovación de productos de Google, el objetivo al diseñar esta chaqueta no era crear una prenda de ciencia ficción, sino añadir una nueva función a una prenda que debía ser atractiva y funcional por sí misma. Con todo, pese a ser idéntica a otra chaqueta de la misma colección, la prenda ha debido ser rediseñada para incorporar el hilo conductivo, el controlador Bluetooth (que se integra en la manga como un broche) y resistir las condiciones de fabricación de la prenda, que incluyen procesos de lavado, tinte, planchado y otras manipulaciones (Budds, 2017). A nivel de la interacción con la prenda, el hilo de Jacquard se ha dispuesto de manera que no destaque visualmente pero a la vez sea posible detectar la zona “sensible” de la chaqueta. Esto se ha logrado añadiendo en la manga unas costuras que describen varias líneas que se pueden notar al tacto. La manga, a su vez, se escogió como la zona ideal para la interacción dado que es fácil para un ciclista sujetar el manillar con una mano y llevar su otra mano a la muñeca opuesta. Además de las consideraciones prácticas, también se tuvieron en cuenta las implicaciones culturales de ciertos gestos, a fin de evitar que la posición de la zona táctil en la prenda implicase un gesto corporal que pudiese ser mal interpretado. Finalmente, el software asociado a la prenda permite al usuario decidir qué gestos corresponden a qué acciones, lo cual otorga una gran flexibilidad a la hora de establecer sus posibles usos.

    La prenda inteligente de Levi’s y Jacquard proporciona además un ejemplo plenamente desarrollado de lo que se ha venido esbozando en los diversos prototipos de interfaces textiles. Partiendo de los retos y limitaciones enumerados por Simona Dakova y Norbert Dumont (2010), investigadores del Media Computing Group de la RWTH Aachen University, podemos analizar las aportaciones de este nuevo producto. Entre los retos que plantean las interfaces textiles, Dakova y Dumont señalan los siguientes:

    • Consumo de energía: el peso y volumen de una batería es un factor determinante en el caso de una prenda, por tanto es necesario un consumo bajo y emplear una batería ligera. La Commuter centra todos los componentes electrónicos en un broche que usa una pila de botón.
    • Cableado: integrar cables en la prenda requiere conseguir que estos no resulten incómodos para el usuario, con lo cual se deben ser flexibles y evitar zonas sometidas a muchos estiramientos o compresiones. Además, la prenda debe ser lavable. La chaqueta de Levi’s y Jacquard resuelve ambos problemas con el hilo de última generación, que se concentra en la manga.
    • Durabilidad: dado que solemos tratar con menos cuidado la ropa que un dispositivo digital, los componentes de la prenda debe ser resistentes. El controlador de la Commuter está revestido de una carcasa de plástico que lo hace resistente a salpicaduras y golpes. Además, puede separarse de la prenda para que esta pueda lavarse.
    • Conectividad: a fin de reducir el consumo de energía, es preciso que los elementos de la prenda estén conectados por cables en vez de por conexiones inalámbricas. En la chaqueta inteligente, todo el sistema está conectado directamente al controlador, que a su vez se comunica por Bluetooth con el teléfono, pero sólo lo hace cuando recibe un comando por medio de los gestos del usuario, de manera que el consumo de batería es menor que si estuviese todo el tiempo conectado, a la espera de una señal.
    • Interacción: la interacción con la prenda debe ser intuitiva, no dejar lugar a la incertidumbre y facilitar una respuesta inmediata. Según apuntan Dakova y Dumont a partir de un trabajo de campo, los usuarios prefieren tener botones invisibles en la ropa por cuestiones estéticas, pero luego les resulta más fácil interactuar con botones visibles y tangibles. En la Commuter, la solución descrita anteriormente resulta discreta y a la vez ofrece al usuario una indicación clara de la zona en la que puede interactuar.
    • Accesibilidad: los botones de la prenda deben ser muy accesibles y poder manipularse con una sola mano, puesto que en caso contrario dificultan la interacción. En línea con estas directrices, la manga de la Commuter es el lugar escogido para la zona táctil dado que resulta accesible, requiere un gesto natural que no supone un esfuerzo y puede emplearse con una mano mientras se va en bicicleta. Con todo, un contratiempo que puede presentar esta interfaz es la posible activación involuntaria de un comando. Esta situación es poco probable dado que la zona táctil se sitúa hacia la cara interior de la manga, pero no deja de ser una posibilidad.

    La chaqueta de Levi’s y Jacquard sin duda marca un modelo que otras empresas querrán seguir, aplicando un principio similar a otras prendas. Con todo, no todas las prendas pueden o necesitan convertirse en inteligentes. La chaqueta es un buena prenda puesto que está pensada para un contexto concreto (ir en bicicleta por la ciudad), no es preciso lavarla a menudo y se lleva por encima de otras prendas, por tanto tiene una larga vida y un uso frecuente. Una chaqueta es, en cierto modo, el equivalente a una mochila y por tanto puede enriquecerse con funciones adicionales, pero es dudoso que se pueda aplicar el mismo principio a una camisa o camiseta. Otras prendas, como pantalones y guantes, podrían convertirse también en inteligentes pero requieren por una parte que el componente electrónico sea más ligero y por otra encontrar un tipo de interacción que sea útil y cómoda: no es un gesto frecuente tocarse los pantalones ni tampoco las manos (en todo caso, dirigimos una mano a la muñeca opuesta, como estamos acostumbrados a hacerlo para consultar el reloj).

    Las prendas inteligentes aún requieren mucho desarrollo y, como otros dispositivos tecnológicos, hallar un uso y una cierta aceptación en nuestras interacciones sociales y actividades cotidianas. Según afirma Poupyrev, “estoy convencido de que los comandos de voz y táctiles tendrán un papel importante en nuestros dispositivos en el futuro.” Los smartphones ya han demostrado la usabilidad de las interfaces táctiles, mientras que los numerosos asistentes de voz procuran hacer de nuestros hogares entornos que controlamos hablando a las máquinas. Las prendas se suman ahora al creciente número de objetos conectados que nos rodean. Pero cabe tener en cuenta que, por un lado, las prendas pueden tener una vida mucho más corta que la de los dispositivos digitales, puesto que se ven sometidas a los vaivenes de la moda y los cambios de talla de muchos compradores. Por otra, pueden tener una vida más larga que la del hardware que les otorga nuevas funciones: la interfaz de la Commuter sólo está garantizada para aguantar los primeros 10 lavados y aunque una chaqueta no se lava tan a menudo como otras prendas, no deja de ser una limitación que acortará su vida útil como prenda inteligente.

     

    Referencias

    Budds, D. (2017). What Happened When I Wore Google And Levi’s “Smart” Jacket For A Night. FastCo Design. https://www.fastcodesign.com/90145030/what-happened-when-i-wore-google-and-levis-smart-jacket-for-a-night

    Dakova, S., Dumont, N. (2010). An Overview of Textile Interfaces. https://hci.rwth-aachen.de/tiki-download_wiki_attachment.php?attId=1176

    Rantanen, J., Impiö, J., Karinsalo, T. et al. (2002). Smart Clothing Prototype for the Arctic Environment. Personal Ub Comp, 6: 3. https://doi.org/10.1007/s007790200001

    Estética contra usabilidad en el diseño de Apple

    Tras el reciente lanzamiento del iPhone X, Apple ha recibido numerosas críticas por la “pestaña” que cubre la parte superior de la pantalla, dejando dos extraños huecos en los lados que generan todo tipo de problemas, tales como la desaparición de la barra de desplazamiento al consultar contenidos en formato panorámico o la molestia que produce ver un vídeo con una pestaña negra en un lado. Algunos desarrolladores ya han propuesto incluir en sus apps una barra negra que haga menos visible la pestaña, lo cual resta unos milímetros a las dimensiones totales de la pantalla. Esto resulta contradictorio si tenemos en cuenta que Apple ha creado por vez primera un smartphone cuya pantalla cubre toda (o casi toda) su superficie, eliminando el popular botón inferior, que en sus últimas versiones ha incorporado un lector de huella digital.

    En el contexto de estas críticas y una sorprendente decisión de diseño que, según algunos, Steve Jobs no habría permitido, conviene recordar un artículo que publicaron en 2015 los expertos en diseño y usabilidad Don Norman y Bruce Tognazzini. Titulado “How Apple is Giving Design A Bad Name,” el texto ataca duramente la falta de usabilidad de los productos de la empresa californiana, en especial el iPhone y el iPad, así como el sistema operativo iOS. Si bien algunas de las críticas se dirigen a elementos del software que se han mejorado posteriormente, es interesante revisar los comentarios de Norman y Tognazzini en este momento. Cabe recordar que ambos autores están especialmente cualificados para criticar a Apple: Bruce Tognazzini trabajó durante 14 años en la empresa, donde fue fundador del Apple Human Interface Group y redactó la primera edición de su guía de interfaz de usuario en 1978; Don Norman trabajó en Apple Computer en los años noventa, donde acuñó la expresión “Experiencia de Usuario” y fue también Vicepresidente del Advanced Technology Group.

    Comparando su experiencia con la producción actual de Apple, Norman y Tognazzini consideran que la empresa ha pasado de ser “el máximo exponente de la interfaz gráfica de usuario,” conocida por crear productos fáciles de usar, a abandonar sus principios en favor de un diseño más estilizado pero menos útil:

    “Apple está destruyendo el diseño. Peor aún, está dando nueva vida a la vieja creencia de que el diseño sólo consiste en hacer que las cosas se vean bonitas. ¡No, no es así! El diseño es una manera de pensar, de determinar cuales son las necesidades reales y subyacentes de las personas para posteriormente facilitarles productos y servicios que les ayuden.”

    Este cambio de dirección, en opinión de los autores, empieza con el iPhone y el desarrollo de productos cuya interacción se basa en gestos. La interfaz se vuelve entonces más limpia y ligera, desaparecen los botones y los menús, la tipografía es más elegante pero también más difícil de leer. Esta simplicidad a nivel visual conlleva aprender a usar el aparato mediante gestos que uno debe memorizar y no se hacen explícitos: no se pueden averiguar las funciones del teléfono simplemente mirando a la pantalla. Otra crítica importante es la desaparición del comando “deshacer,” un recurso muy útil puesto que permite al usuario corregir un error y mantener un cierto control sobre su uso del aparato. En los ordenadores de sobremesa, la combinación de teclas cmd+z siempre está a mano en el teclado o en el menú de cada programa. En iOS, es necesario agitar el aparato, un gesto algo ridículo que no está implementado en todas las apps y que en ocasiones se activa involuntariamente, generando en el usuario el pánico de perder por error algo que sí quería escribir o hacer. La interfaz carece de lo que Norman denomina “indicadores”, que deben dar al usuario claves visuales acerca de lo que puede hacer, y por tanto no sabe si debe apretar dos veces, una vez, deslizar el dedo a izquierda o a derecha, etc. En suma, esto lleva a los autores a considerar que Apple se ha alejado de los principios del buen diseño:

    “El buen diseño debe ser atractivo, placentero y fácil de usar. Pero la facilidad de uso requiere que el dispositivo sea comprensible y permita rectificar. […] Estos son principios que enseñamos a los estudiantes de primer curso de diseño de interacción. Si Apple estuviese en esa clase, habría suspendido.”

    Norman y Tognazzini admiten que los dispositivos táctiles son más fáciles de usar y hasta cierto punto intuitivos, pero mantienen esa facilidad en las acciones más sencillas, siendo mucho más complicado realizar acciones avanzadas. Esto implica que el producto sea inicialmente más atractivo pero a la larga genere frustración en unos usuarios que creen que son ellos los que no saben usar el aparato, en vez de criticar sus errores de diseño.

    principios de diseño

    Partiendo de su experiencia con la redacción e implementación de la guía de interfaz de usuario de Apple desde sus orígenes, los autores desglosan los cambios que se han producido en los principios de diseño a lo largo de los años. Examinando las ediciones de la guía de 1995 a 2015, puede verse cómo los principios de diseño son cada vez menos numerosos, llegando a reducirse en un 50%. En la última versión, centrada en iOS, el aspecto estético ocupa un lugar preeminente y desaparecen algunos principios que los autores consideran fundamentales:

    • La capacidad para descubrir las acciones posibles sin necesidad de recurrir a un manual o tutorial previo.
    • La retroalimentación, en forma de información facilitada al usuario cuando realiza una acción o incluso que pueda saber qué ocurrirá si realiza dicha acción. Cabe comentar que el creciente uso de microinteracciones en las apps está contrarrestando esta falta percibida por Norman y Tognazzini.
    • La recuperación de acciones o estados anteriores, ejemplificado por las acciones “deshacer” y “rehacer”, la primera de las cuales se introdujo ya en el sistema operativo desarrollado en el el PARC de Xerox en 1974.
    • La consistencia de las acciones en todos los dispositivos, necesaria para que el usuario pueda usarlos con confianza, se pierde en las opciones táctiles, que son diferentes en el iPhone, iPad, ratón y trackpad.
    • Incentivar el perfeccionamiento del uso del dispositivo o el sistema operativo, facilitando al usuario convertirse en experto, es más difícil con iOS, que más invita a la mayoría de usuarios a limitarse a unas acciones básicas.

    Los autores también critican que Apple pretenda basarse en los conocidos principios de diseño de Dieter Rams, entre los cuales el famoso 10º principio: “tan poco diseño como sea posible.” Según afirman, no hay que confundir este principio con una depuración total a nivel estético que haga el producto menos comprensible y dificulte su utilización. En todo caso, se trata de mantener un equilibrio y no complicar las cosas más de lo necesario, algo que Norman ha criticado frecuentemente como featuritis, o la tendencia a añadir funciones sin atender a la pérdida de usabilidad que puede suponer la creciente complejidad del producto.

    Norman y Tognazzini también critican que haya una falta de conexión entre los diferentes equipos de diseñadores y que las pruebas de usabilidad se hagan entre colegas. Este último punto sin duda es criticable desde la perspectiva de los expertos, pero sin duda se debe en parte a las presiones de la propia industria. Por una parte, la celeridad con la que se deben lanzar nuevos productos limita la posibilidad de hacer pruebas y más aún desarrollar un estudio con un grupo de personas de diversos entornos. Los primeros compradores de un nuevo producto suelen ser sus beta-testers, y por lo general no es hasta la siguiente versión del dispositivo cuando se logra un producto más estable y mejor diseñado. Por otra parte, el miedo a las filtraciones de información hace difícil confiar las pruebas de un nuevo producto a personas ajenas a la empresa, o incluso a aquellas que no están directamente ligadas al desarrollo del propio producto. Los lanzamientos de las últimas versiones del iPhone se han visto empañados por varias informaciones, fotos y vídeos que se filtraron a los medios.

    En resumen, la crítica que dirigen Don Norman y Bruce Tognazzini a Apple plantea un interesante debate acerca del equilibrio que se debe lograr entre estética y usabilidad. Esto es especialmente relevante en el caso de unos productos cuyo uso cotidiano se basa en su interacción con el usuario por medio de un software que puede ser totalmente arbitrario en su manera de establecer este diálogo entre persona y máquina. Con todo, las presiones de la industria también limitan la capacidad que tienen las empresas para desarrollar sus productos debidamente, y aquí interviene una cultura de consumo constante que a su vez merece una profunda reflexión.

    Democratic Design Day 2017

    Hoy se celebra en el ECAL de Lausana el DEMOCRATIC DESIGN DAY con una serie de conferencias organizadas por IKEA que tienen por objetivo explorar ideas y visiones acerca del futuro de la vida en los hogares. Los conferenciantes son: Antonio Scarponi, arquitecto y fundador de Conceptual DevicesMatali Crasset, diseñadora de producto; Simonetta Carbonaro, investigadora en psicología del consumo; Marcus Engman, jefe del departamento de diseño de IKEA en Suecia; Kim Colin, arquitecta y diseñadora, co-fundadora del estudio Industrial Facility; el reconocido arquitecto y diseñador Mario Bellini; y por último Oliver Herwig, periodista y escritor.

    Estos expertos debatirán cuestiones acerca de cómo viviremos y diseñaremos los espacios y productos que definen y constituyen nuestros hogares y nuestra vida cotidiana. Las conferencias podrán seguirse en directo desde la web de Designboom.

     

    Algunas claves acerca del futuro del diseño

    Con motivo de la entrega de los galardones Innovation by Design Awards 2017, Diana Budds de Fast Company ha entrevistado a algunos finalistas para conocer sus opiniones acerca del futuro del diseño. De sus comentarios se extraen algunas claves acerca de cómo debería ser esta profesión en los próximos años, y sobre todo cuál debería ser su implicación en el contexto social, cultural, económico y político en el que sin duda participa. Estas predicciones o aspiraciones aportan una visión más global del desarrollo actual y futuro del diseño a las tendencias dominantes en 2017 que hemos comentado en otro artículo. Se trata aquí, no sólo de ver qué se hará en diseño (ya sea editorial, web, de producto, de experiencia de usuario, etc.) sino también hacia dónde debería ir el diseño y qué principios debe seguir en el futuro.

    Pensar más allá del producto

    Una de las características de los diseñadores del futuro, según Carlo Ratti, director del MIT Senseable City Lab, debe ser su capacidad para actuar como mediadores y conectores entre personas y disciplinas, ayudando a operar un cambio a nivel estructural:

    “Creo que los arquitectos y diseñadores están bien situados hoy en día para desempeñar un rol organizativo que podríamos definir como ‘coral’: son aquellos que pueden coordinar varias voces y hacer que formen un conjunto armónico. Los diseñadores deberían ser lo que, en biología, se denomina un mutagen, un agente que produce mutaciones en el mundo artificial.”

    Esto implica pensar más allá del producto y centrar el trabajo del diseño en la innovación, investigando en los más recientes avances tecnológicos para afrontar los nuevos problemas que van surgiendo constantemente. Tim Brown, CEO de Ideo, indica que es preciso pensar en el diseño como en un sistema y abordar las maneras en que afecta al entorno y las personas, en un ciclo de aprendizaje continuo:

    “Todo lo que hacemos debe ser un sistema de aprendizaje, no puede ser simplemente un artefacto. La tecnología actual lo hace posible. Sensores, software inteligente que percibe lo que ocurre, aprende lo que hacen las personas y cuáles son sus efectos en el sistema. Podemos aprender qué pueden conseguir los diseños, y así estos serán cada vez más poderosos.”

    Las afirmaciones de ambos expertos conducen a considerar que el papel del diseñador debe ser mucho más activo a nivel social, no sólo como creador de nuevos productos sino como agente implicado.

    Diseño consciente y activista

    Los diseñadores son cada vez más conscientes de su papel en el desarrollo de una cultura consumista y de los efectos medioambientales del consumo de “usar y tirar” que potencian la mayoría de las empresas. Un diseño atractivo o ingenioso puede hacernos desear un producto aunque realmente no lo necesitemos. Pero, ¿se justifica en la venta de un producto más el participar en este ciclo de consumo y desecho, que claramente ya no es sostenible?

    Según afirma Florian Idenburg, co-fundador del estudio de arquitectura SO-IL, la industria del diseño es parte del problema que supone una economía basada en la producción constante de nuevos objetos, que conlleva diseñar conscientemente productos que no tengan una larga duración (lo que se conoce como obsolescencia programada). Para combatir este ciclo, es preciso salir de la mera justificación económica y el diseño como una característica de los productos de lujo:

    “Nuestros esfuerzos como diseñadores deberían centrarse en crear cosas que tengan sentido para un gran público en vez de ser caprichos para un sector reducido. […] Un modelo de diseño que haga que las cosas duren es menos lucrativo, pero podemos imaginar una manera de que funcione con la realidad de la economía.”

    Los diseñadores pueden aplicar sus conocimientos a algo más que una industria que busca beneficios económicos a partir de la comercialización de objetos de consumo. Asta Roseway, co-creadora de DuoSkin (que hemos comentado en otro post), opina que no es posible ignora los retos globales a los que nos enfrentamos, ya sean políticos, sociales o medioambientales, y que es tarea de los diseñadores consideran cómo su trabajo afecta a los productos y las experiencias que crean. El diseño puede emplearse para buscar soluciones a problemas tales como la difusión de noticias falsas, la atención a las víctimas de desastres naturales o la mejora de las condiciones de vida de las personas en países en vías de desarrollo.

    “El diseño puede inspirar colaboraciones y soluciones que se enfrenten a estos retos y animen al público a tomar conciencia. El diseño puede dar visibilidad a soluciones sostenibles, combatir prejuicios e inspirar un urbanismo más sensato, entre muchas otras cosas.”

    La implicación de los diseñadores no se limita a temas medioambientales o de diseño para situaciones de emergencia, sino que también puede entrar en la esfera política, según Jay Osgerby, co-fundador del estudio de diseño Barber Osgerby. El diseñador propone aplicar los métodos de design thinking a la política, centrando los esfuerzos en la búsqueda de soluciones a problemas geopolíticos o sociales más allá de los esquemas establecidos y la habitual dependencia de los intereses económicos. En este aspecto, Osgerby considera que los diseñadores podrían ser asesores en estas cuestiones, aportando nuevas perspectivas y métodos.

    Esta mayor implicación de los diseñadores en cuestiones sociales, medioambientales o políticas conlleva una reflexión acerca de la ética del diseño. La cuestiones éticas se llevan también a otro nivel al considerar que queda en manos de los diseñadores determinar los parámetros en los que se desarrollará la inteligencia de los objetos, esto es, los objetos con capacidad para detectar e interpretar su entorno, aprender e incluso prever las acciones del usuario. En opinión de Rob Girling, co-fundador y co-CEO de Artefact, esto tiene consecuencias a largo plazo:

    “… la disciplina de diseño se verá obligada a pensar acerca de las consecuencias de nuestro trabajo en un context a mucho más largo plazo: literalmente, se tratará de decidir qué futuro queremos crear y, más importante aún, cuál queremos evitar.”

    Un diseño más auténtico e innovador

    La proliferación de mensajes que buscan llamar nuestra atención generan una saturación visual que ya denunciaba Dieter Rams en los años setenta y es hoy en día más acusada aún gracias a la combinación de los medios tradicionales con los dispositivos digitales. Ante tal sobrecarga de estímulos visuales, se hará necesario regresar a un diseño más simple y auténtico que permita crear relaciones más significativas entre las empresas y los usuarios. Esta es la opinión de Min Lew, co-fundador del estudio Base Design, que ha realizado recientemente la comunicación visual de la terminal 4 del aeropuerto JFK de Nueva York.

    Este retorno a la autenticidad no está reñido con una mayor atención a la innovación, que implica adoptar una dinámica más flexible en la práctica del diseño. Según señala Mark Davis, jefe de investigación en diseño en Autodesk, el ritmo de cambio en los métodos y recursos que se emplean en esta profesión es demasiado lento, y se queda atrás ante la acelerada evolución de la tecnología, que no sólo aporta nuevas herramientas sino que requiere replantear flujos enteros de trabajo e incluso la propia manera de concebir el proceso de diseño:

    “Todos los diseñadores, ingenieros y artistas deben ser curiosos y explorar nuevos métodos de producción, experimentar con nuevos materiales. Si no están dispuestos a aceptar cambios en el proceso y experimentar con cada proyecto, entonces toda la maquinaria se detiene.”