Crear con código: Processing

processing-sketch

Continuamos explorando las posibilidades de la programación creativa con una serie de artículos acerca de las herramientas que permiten desarrollar proyectos creativos con código. En este artículo echamos un vistazo a Processing, el lenguaje y entorno de programación creado por Ben Fry y Casey Reas en 2001 que se ha popularizado a lo largo de más de una década hasta convertirse en uno de los recursos principales de numerosos artistas y diseñadores.

Reas and Fry desarrollaron Processing cuando eran alumnos del Aesthetics and Computation Group del MIT Media Lab, en el que impartía clases el diseñador John Maeda. Según recuerda Maeda en un artículo publicado en el MIT Technology Review en 2009, “Processing empezó con una simple idea. Fry era un talentoso licenciado de Carnegie Mellon con formación en diseño gráfico que también podía programar en el lenguaje ensamblador de Apple II. Reas era un talentoso licenciado de la Universidad de Cincinnati con formación en diseño gráfico y un deseo apasionado de entender la computación […] Ambos eran artistas de éxito que habían expuesto su obra en el Whitney Museum, el MoMA y otros lugares. Les encantaba trabajar juntos y querían que otros programadores y diseñadores, artistas y científicos, tuviesen una forma sencilla de compartir su trabajo y entender sus ideas.” Processing surge por tanto del interés por aunar la creatividad de artistas y diseñadores con el potencial de los lenguajes de programación. El proyecto se desarrolla en el marco del programa Design by Numbers (DBN), dedicado a enseñar a artistas y diseñadores a crear con código. Este entorno, creado por Maeda, limitaba las posibilidades de creación a un espacio de 100 x 100 pixels en blanco y negro. Pero Fry y Reas pensaron que sería interesante crear algo más flexible, con color y un espacio ilimitado.

Las posibilidades de creación en un entorno gráfico también estaban limitadas por las incompatibilidades entre PC y Mac y las limitaciones del lenguaje Java, sobre el cual se fue construyendo Processing. Un factor determinante en su posterior popularidad fue el hecho de desarrollarse como una comunidad, con software de código abierto, que se enriquecía con las aportaciones de otros programadores y creadores. Rápidamente, Processing se ha ido ampliando a otras plataformas e incorporando nuevas funciones que sobrepasan las intenciones originales de Fry y Reas. Como indica Maeda, “Processing tiene el espíritu de un proyecto artístico y una pasión. Como artistas, Fry y Reas han tenido un profundo interés en dar al software todo el poder expresivo que han podido: lo han empleado para producir resultados que podían calificarse como arte.” Para un artista visual, es habitual ver los resultados de su obra a medida que la está produciendo, y este es uno de los objetivos principales de Processing: hacer visibles lo que producen una serie de líneas de código a medida que se escriben. Trabajar con instrucciones escritas en un lenguaje cuya particular sintaxis es preciso aprender y entender resulta de entrada un paso difícil para una persona sin conocimientos de programación, acostumbrada a elaborar composiciones visuales y fiarse más del instinto que de una lógica precisa y cerrada. En este sentido, Processing no sólo facilita el acceso al código si no que también permite comprender el potencial de trabajar directamente con código en lugar de emplear un programa de diseño o retoque de imágenes.

Para entender este potencial resulta interesante ver el documental Hello World! Processing, producido por el colectivo Ultra-lab en 2013. En este vídeo se hace una introducción a los lenguajes de programación indicando cómo vivimos rodeados de códigos y procesos regidos por unas normas compartidas por los agentes que participan en ellos. Un repaso al impacto de las nuevas tecnologías en los ámbitos de las artes visuales, el diseño y numerosas profesiones demuestra la importancia de conocer y saber trabajar con estas nuevas herramientas, a la vez que se presentan unas nociones iniciales sobre Processing. A continuación, recomendamos dirigirse a Processing.org y lanzarse a escribir código.

Primeros pasos con Processing

La web del proyecto cuenta con numerosos tutoriales y recursos, además de los diversos manuales y libros que se han publicado sobre este lenguaje y entorno de programación. El primer paso es descargar el software (actualmente en la versión 3.11), disponible para Windows, Linux y MacOS X. El software es gratuito, aunque desde la Fundación Processing animan a los usuarios a hacer un donativo para contribuir al desarrollo de la propia plataforma. Una vez descargado e instalado el programa, el usuario se encuentra con una sencilla interfaz, compuesta por una ventana principal en la que se escribe el código de programación (que incluye una barra de menú, herramientas, un espacio para mensajes y una consola) y otra ventana en la que se visualizan los resultados.

processing

Al clicar en el botón “play”, el código introducido se ejecuta, de manera que es sencillo ir viendo los resultados que genera cada línea de código. En la parte inferior de la pantalla, la pestaña “Errores” informa de cualquier fallo en la sintaxis del código, algo que puede ocurrir frecuentemente puesto que la correcta posición de cada parentésis, coma o punto y coma (así como los nombres de las variables, etc.) es fundamental para que el programa se ejecute como es debido.

Una instrucción sencilla, propuesta en el tutorial escrito por Reas y Fry, es la siguiente:

ellipse(50, 50, 80, 80);

 

Esta línea de código indica al programa que debe dibujar una elipse cuyo centro se sitúe a 50 pixels del borde izquierdo y 50 pixels del borde superior del area de visualización, con un ancho y alto de 80 pixels. De la misma manera, se puede dibujar otras formas geométricas (arco, línea, punto, cuadrado, rectángulo, triángulo) y composiciones más complejas. Pero lo más interesante es la posibilidad de generar composiciones de forma automática o introducir la interacción con el usuario, por ejemplo por medio de la posición del ratón y la opción de hacer clic. El segundo ejemplo que encontramos en el tutorial es el siguiente:

void setup() {
 size(480, 120);
}
void draw() {
 if (mousePressed) {
 fill(0);
 } else {
 fill(255);
 }
 ellipse(mouseX, mouseY, 80, 80);
}

 

Con este código se introducen nuevas posibilidades, como la de definir el espacio de visualización (void setup), dibujar una determinada forma siguiendo la posición del ratón (ellipse(mouse X, mouseY, 80, 80);) e introducir cambios cuando el usuario apreta el botón del ratón (mousePressed). Estas sencillas líneas de código ya ofrecen una clara idea de las maneras en que se pueden crear interesantes composiciones visuales a partir de instrucciones. A partir de este punto, se trata de conocer mejor el lenguaje y aprender de los numerosos ejemplos que se ofrecen en las librerías de referencia de la propia plataforma.

 

Crear con código: ¿qué es la programación creativa?

reas_network_c_p_0

Hoy en día resulta habitual emplear ordenadores para cualquier tipo de actividad de trabajo o de ocio, ya sea para hacer un balance económico en una hoja de cálculo o crear un cortometraje en stop motion con figuritas de Lego. La popularización de los ordenadores personales, a partir de los años ochenta, así como el acelerado desarrollo de herramientas y plataformas para la creación y publicación de todo tipo de contenidos ha hecho de los usuarios algo más que simples espectadores o consumidores. Hoy en día, cualquiera puede ser productor de contenidos audiovisuales, diseñar sus propias publicaciones o incluso fabricar objetos a partir de modelos 3D, entre muchas otras cosas. Con todo, todas estas posibilidades se ven determinadas por el uso de un software desarrollado por terceros, que establece las funciones de cada programa y sus limitaciones. Los desarrolladores crean el software con código de programación, y es en el conocimiento de este código y la habilidad para emplearlo donde se halla el más amplio potencial creativo, puesto que no sólo se emplea una herramienta para crear algo, sino que se diseña la propia herramienta. Trabajar con código de programación permite por tanto abrir nuevas posibilidades que van más allá de los usos determinados por el software comercial y aprovechar el potencial de los ordenadores para usos creativos.

A mediados de la década de 1960, cuando los ordenadores eran voluminosas máquinas de cálculo en centros de investigación, unos pocos ingenieros y matemáticos exploraban la manera de convertirlos en herramientas de creación artística. En 1965, tres exposiciones mostraban al público los resultados de estos experimentos: la primera tuvo lugar en el Instituto de Tecnología de la Universidad de Stuttgart, en el seminario del filósofo Max Bense, donde se expusieron los dibujos algorítmicos del matemático Georg Nees. Dos meses más tarde, la galería Howard Wise de Nueva York mostraba obras de Michael Noll y Bela Julesz creadas con computadoras, y a finales de año la galería Wendelin Niedlich de Stuttgart reunió una selección de obras de Frieder Nake bajo el título Computer Graphics. A estos pioneros, todos ellos vinculados al ámbito de la ciencia y la tecnología, se sumarían poco después artistas formados en artes visuales como Charles Csuri, Manfred Mohr y Vera Molnar. Estos creadores tenían en común el interés por emplear las computadoras con una finalidad para la que no habían estado creadas, así como el acceso a las máquinas y los conocimientos para trabajar con el código de programación y los plóteres en los que se plasmaban sus creaciones algorítmicas. Mohr, por ejemplo, logró tener acceso al ordenador del Instituto de Meteorología de Francia, en París, donde trabajaba cada noche realizando sus creaciones con la ayuda de un plóter que se empleaba para dibujar la predicción meteorológica de toda Europa. Posteriormente, el artista adquirió sus propias máquinas e incluso construyó sus propios ordenadores para generar ciertas piezas. En un momento en que no existían los ordenadores personales, pioneros como Mohr, Nake o Molnar lograron desarrollar las posibilidades creativas de las grandes máquinas de cálculo gracias a su habilidad para crear sus propios programas.

ccodebook

En las décadas siguientes, un número cada vez mayor de artistas, habitualmente vinculados a centros de investigación o con conocimientos de ingeniería e informática, han creado proyectos artísticos con tecnologías emergentes en el ámbito de lo que se ha denominado arte electrónico, arte digital o arte de nuevos medios. La creciente popularidad de esta vertiente del arte contemporáneo, unida a la profunda integración de los medios digitales en todos los ámbitos de la vida cotidiana, ha demostrado que los ordenadores son excelentes herramientas para la creatividad y ha llevado al desarrollo de numerosas iniciativas que buscan compaginar la cultura tecno-científica y la humanística. Un ejemplo paradigmático es el MIT Media Lab, fundado en 1985 como un laboratorio de investigación que une tecnología, ciencia, arte y diseño. Espacio que creación de numerosos avances tecnológicos, el Media Lab no sólo ha acogido el trabajo de destacados ingenieros y diseñadores, sino que ha fomentado la fusión de las disciplinas tradicionales y la innovación a través del diseño. Fruto de la mentalidad generada en MIT es la iniciativa STEM to STEAM, que promueve integrar el arte y el diseño en la formación e investigación científica (así, se añade la “A” de arte+diseño al conjunto “STEM”, de las siglas en inglés de ciencia+tecnología+ingeniería+matemáticas). Uno de los promotores de esta idea es el ingeniero y diseñador John Maeda, quien fue profesor del MIT Media Lab entre 1996 y 2008 y es una de las principales figuras internacionales en el ámbito de la innovación en diseño. El trabajo de Maeda como director of the Aesthetics + Computation Group (ACG) en el MIT Media Lab se dio a conocer notablemente con la publicación del libro Creative Code: Aesthetics + Computation en 2004, que contribuyó a popularizar lo que se suele denominar como “creative coding” o programación creativa, el uso del código de programación para finalidades estéticas.

Precisamente son dos antiguos alumnos del MIT Media Lab, a los que asesoró Maeda, los creadores del lenguaje de programación más empleado en programación creativa. Casey Reas y Benjamin Fry desarrollaron Processing en el contexto de Media Lab en 2001 como un entorno de aprendizaje que permitiese a personas sin conocimientos de programación (en especial artistas y diseñadores) a adentrarse en la creación con código. Al igual que pioneros como Manfred Mohr, Reas y Fry combinan una formación en arte y diseño con conocimientos de programación, lo que les hace conscientes del potencial creativo del código, así como las dificultades que plantea a una persona formada en una cultura visual adentrarse en la lógica de un lenguaje de programación. Creado con la intención facilitar el acceso a la aparentemente árida y compleja tarea de escribir instrucciones, Processing es tanto un lenguaje de programación como un software que genera un entorno en el que el usuario puede trabajar con el código de una manera sencilla y visualizar los resultados de forma rápida. Desde su lanzamiento, Processing ha generado una creciente y activa comunidad de usuarios y se ha convertido en una de las principales herramientas de creación para artistas y diseñadores que trabajan con nuevas tecnologías. Junto con otros recursos de código abierto, ha facilitado a numerosos creadores desarrollar todo tipo de proyectos tanto en el ámbito de las artes visuales como de la arquitectura, diseño, ingeniería y muchos otros.

La programación creativa nace de una concepción transdisciplinaria del trabajo con las herramientas digitales y contribuye a difuminar las separaciones entre arte y diseño, puesto que permite a los creadores llevar sus ideas a entornos muy diversos. Un ejemplo de ello es el creciente número de colectivos y estudios diseño y comunicación que desarrollan proyectos tanto en el contexto de exposiciones de arte como en campañas publicitarias, branding o instalaciones interactivas para grandes empresas. FIELD, un estudio londinense creado por Marcus Wendt y Vera-Maria Glahn, destaca en este sentido por un trabajo que incluye instalaciones y diseños para grandes empresas como Nike, Adidas o General Electric junto a pinturas digitales y esculturas cinéticas. La fluidez con la que estos creadores se mueven entre diferentes contextos es un reflejo de las amplias posibilidades que ofrece trabajar con código. Frieder Nake, uno de los pioneros de arte algorítmico, definía sus programas como “la descripción de una serie infinita de dibujos”: sin duda, la creación basada en código no tiene límites.

 

 

Interfaces cotidianas: el teclado sin teclas

apple-keyboard

Hace unos días se ha hecho pública una patente de un teclado para portátiles registrada por Apple en septiembre de 2015. La particularidad de este teclado es que carece de teclas individuales y en su lugar ocupa toda la superficie del ordenador con un sistema táctil similar al que emplea en los iPhone y iPad de última generación. Al no estar previamente definidas las teclas, estas se pueden configurar por medio de software (de la misma manera en que la pantalla táctil de un dispositivo móvil permite definir teclados o botones según sea necesario en cada aplicación), lo cual otorga una gran flexibilidad al teclado, ahora fusionado con el trackpad, y también permite a Apple distribuir sus portátiles en todo el mundo sin tener que establecer stocks para cada región o país.

Además de las ventajas de producción y logística que este prototipo de teclado pueda suponer para Apple, resulta interesante que la empresa californiana dedique atención a una alternativa al teclado tradicional, a la vez necesario e insuficiente, siempre problemático debido al número de teclas que debe incluir, la posición de las mismas y las funciones que estas permiten. La interacción con los ordenadores ha ido ganando en complejidad a lo largo de las últimas décadas, incluso en programas tan sencillos como los procesadores de texto, dejando atrás la sencillez de la máquina de escribir o el teleprinter, máquinas cuyo diseño ha determinado el aspecto actual del teclado de ordenador. Cabe recordar que la distribución de teclado QWERTY fue creada en 1868 por Christopher Sholes con la finalidad de evitar los atascos en las máquinas de escribir, facilitando que el operario emplease las dos manos y alejando las teclas correspondientes a las letras que se usan en sucesión (por este motivo se ha adaptado la distribución en ciertos países: en Alemania se emplea la versión QWERTZ y en Bélgica y Francia la distribución AZERTY). El teclado que empleamos actualmente es por tanto herencia de una máquina muy diferente y más primitiva, que no podía ejecutar comandos como copiar y pegar o pasar de un programa a otro (ni tampoco aumentar o reducir el volumen de los altavoces o la luminosidad de la pantalla). Aunque algunos dispositivos digitales (como Freewrite, que hemos comentado en este blog) han optado por volver a la simplicidad de la máquina de escribir, lo cierto es que el teclado tradicional es cada vez más insuficiente para interactuar con un ordenador. No obstante, se mantiene por el mismo motivo por el que sobrevivió a la transición de la máquina de escribir a los primeros ordenadores: su uso es ampliamente conocido y por tanto cualquier modificación supone una incómoda adaptación por parte del usuario. Incluso los teclados virtuales de smartphones y tablets tienen el mismo aspecto del teclado tradicional, aunque incorporen variaciones en función del espacio disponible en la pantalla. Más aún, aunque el ratón permita realizar muchas interacciones, las manos del usuario reposan predominantemente sobre el teclado y permiten ejecutar muchas acciones de forma más rápida.

optimus-maximus

Teclado Optimus Maximus

La adaptación del teclado a las complejas acciones que requieren determinadas tareas ha llevado por tanto a la creación de numerosos modelos con un mayor número de teclas, teclas coloreadas para facilitar el uso de ciertas funciones (por ejemplo, en edición de vídeo), teclados supuestamente ergonómicos y modelos especialmente diseñados para videojuegos. Con todo, aún no se ha creado un teclado realmente universal y adaptable como el que describe la patente de Apple. Los modelos más parecidos a este concepto son teclados adaptables en los que se sustituyen las teclas impresas por diminutas pantallas que pueden mostrar diferentes contenidos según la configuración escogida por el usuario. El más popular de estos teclados es el Optimus Maximus creado por Artemy Lebedev en 2007: el diseñador ruso y su equipo crearon un teclado expandido con 113 pantallas de 48×48 píxels que pueden mostrar cualquier contenido, en color. Con la ayuda de un programa es posible determinar qué función y aspecto tiene cada tecla, de manera que se puede adaptar el teclado a cualquier alfabeto o definir teclas específicas para abrir programas o ejecutar atajos de teclado. Aunque el teclado es algo voluminoso, el éxito de ventas llevó a agotar la producción del estudio moscovita, que ha dedicado varios años a producir otro modelo, el Optimus Popularis, más compacto y avanzado. Este segundo modelo se comercializa desde 2014 al poco popular precio de $1.500 la unidad.

Captura de pantalla 2016-05-02 a las 23.37.06

Sonder Keyboard

Entre los competidores de Lebedev destaca Sonder Design, una empresa de Sidney dirigida por los hermanos Francisco y Felipe Serra-Martins, que ha desarrollado un teclado adaptable muy parecido al Optimus pero que emplea pantallas de tinta electrónica (más eficientes en consumo de energía) y no sustituye todas las teclas, sino que mantiene las que se asignan a funciones habituales (mayúsculas, salto de línea, opción, etc.). Las teclas que comúnmente se emplean para letras, acentos y números pueden configurarse de la misma manera que en el Optimus y variar en función del programa que se esté empleando. El teclado de Sonder resulta más elegante que el de Lebedev, con un diseño inspirado en la línea de Apple y obviamente pensado para combinarse con los productos de esta marca, aunque también es compatible con PC. Mucho más asequible que el Optimus Popularis, el Sonder se ofrece en preventa (aún está en fase de producción) a $199.

Estos teclados, así como la patente de Apple, indican la necesidad de transformar el diseño del teclado tradicional para adaptarse a la fluidez de la interfaz de la pantalla. Seguramente la disposición de cuatro o seis filas de teclas seguirá presente en los dispositivos digitales durante un largo tiempo (al menos mientras no se logre el ideal de Zero UI), pero esas teclas serán mucho más adaptables y será menos necesario recurrir a complejos atajos de teclado que es necesario memorizar constantemente. Queda, también, por resolver el aspecto táctil del teclado tradicional en el prototipo patentado por Apple: una única superficie es muy adaptable, pero la falta de teclas resulta a menudo confusa e incómoda, como atestigua la popularidad de los teclados portátiles para tablet. ¿Seguiremos tecleando en el futuro o dispondremos de mejores maneras de transmitir nuestros pensamientos a la pantalla?

 

Shelf Life: objetos cotidianos y nuevas tecnologías

Shelf Life es una publicación creada por la diseñadora Lindsey Tom como un proyecto personal en el que explora las relaciones que tienen los nativos digitales con sus objetos favoritos. Tom llevó a cabo una encuesta entre 53 jóvenes por medio de la cual intentó averiguar si preferían objetos con un valor sentimental a los dispositivos digitales. Esta investigación se completa con una recopilación de artículos y fragmentos de ensayos de diversos autores que tienen por objetivo ofrecer un contexto más amplio de nuestra relación con los objetos y la manera en que las nuevas tecnologías afectan a la interacción entre las personas. El volumen, de 170 páginas, conduce al lector a través de las aportaciones de estas diferentes voces y presenta algunos datos en forma de infografías que hacen del conjunto tanto un ejercicio de diseño como un ensayo.

shelf-life01

Entre los textos que inspiran a la autora cabe destacar el influyente libro de Jean Baudrillard El sistema de los objetos (1968), en el que el sociólogo francés expone una crítica a la sociedad de consumo y presenta una serie de reflexiones acerca de la relación entre los consumidores y los objetos de consumo que no han perdido su vigencia 48 años más tarde. Junto al texto de Baudrillard se hallan fragmentos de ensayos críticos con la influencia de las nuevas tecnologías en las dinámicas de consumo actuales, como Stuff: The Subversive Nature of Everyday Objects (2010) de Isaiah Black, o Made to Break (2007) de Giles Slade, este último centrado en la obsolescencia programada que aplican las industrias tecnológicas. Completan la selección algunos artículos periodísticos en los que se comentan diversos aspectos de la interacción entre las personas por medio de las nuevas tecnologías.

La encuesta llevada a cabo por Tom, pese a presentarse de forma visualmente atractiva, conduce a pocas conclusiones. Principalmente, se aprecia la importancia que los nativos digitales otorgan a los dispositivos digitales que usan a diario, particularmente los de la marca Apple (iPhone, iPad, MacBook Air, etc.), seguidos por las cámaras de fotos (Canon, Nikon) y algunos objetos con valor sentimental (anillo de bodas, peluche, objeto heredado de padres o abuelos). Notablemente, los entrevistados que han mencionado un dispositivo digital han especificado claramente la marca y el modelo (en vez de decir “mi teléfono” han contestado “mi iPhone”), lo cual indica que se destaca la identidad “individual” del objeto por medio de su nombre comercial en lugar de emplear un término más genérico. Este aspecto refleja cómo se transmite en el usuario la identidad creada por la empresa que comercializa el producto: en una época de producción en masa y obsolescencia acelerada, es la marca y el modelo del producto lo que define sus características particulares, a menudo destacando su valor cuanto más reciente ha sido su introducción en el mercado (actualmente, un usuario afirmaría orgulloso que tiene un iPhone 6s pero admitiría con cierto reparo que su teléfono es un iPhone 3 o 4). Por tanto, no es de extrañar que la mayoría de los objetos favoritos de los encuestados (el 64,2%) hallan sido comprados, frente a los que se han recibido como un regalo (26,4%), una herencia (13,2%) o han sido encontrados en algún lugar (3,8%). El placer o el orgullo que supone poseer el objeto favorito para la mayoría de estas personas proviene por tanto de un deseo de poseerlo que en determinado momento fue satisfecho, y que se acrecienta al confirmarse que se trató de una buena compra.

shelf-life03

shelf-life02

En conjunto, Shelf Life es un ejercicio de acercamiento al complejo mundo de los objetos que ofrece interesantes referencias y claves (a través de los textos de otros autores) que pueden resultar interesantes para cualquier diseñador/a que se encuentre ante el reto de crear o dar a conocer un producto nuevo en un mundo en el que, como afirma Deyan Sudjic en The Language of Things (2008), está “repleto hasta la asfixia de objetos”.

 

Interfaces cotidianas: ojos aumentados

samsung-smart-contact-lens

Recientemente, se ha publicado una patente registrada en Corea del Sur por Samsung que indica que la empresa está trabajando en el desarrollo de lentes de contacto inteligentes. Según se describe en la patente, la lente estaría equipada con una diminuta pantalla, una cámara, una antena y diversos sensores que detectan el movimiento del ojo y el parpadeo. La pantalla proyecta imágenes directamente en el ojo del usuario y su contenido es controlado por medio de un dispositivo externo, por ejemplo un smartphone o una tablet. El motivo para desarrollar estas lentes de contacto es tanto la (supuesta) comodidad de llevarlas en lugar de usar unas gafas como la posibilidad de lograr una mayor calidad de imagen y generar una experiencia de realidad virtual más natural. Tanto Samsung como Google llevan ya unos años trabajando en lentes de contacto como estas (la patente es de 2014), aunque de momento se trata más de un concepto que un producto que pueda comercializarse en breve.

La lente de contacto inteligente es la progresión lógica de la interfaz del ordenador, que va del monitor de escritorio a la pantalla del dispositivo móvil, wearables como los relojes inteligentes, gafas y finalmente la superficie de la córnea. Aunque este último paso aún tardará en hacerse realidad, señala claramente la intención de dominar el campo visual del usuario para que no le sea preciso dirigir su mirada hacia la pantalla de un smartphone o tablet, sino que vea la información aparecer ante sus ojos. Este tipo de interfaz plantea dos cuestiones relevantes en la relación entre los usuarios y la información recibida o emitida: por una parte, al ocupar el campo visual se niega al usuario la posibilidad de elegir si quiere ver dicha información o no. Los dispositivos que nos rodean suelen reclamar nuestra atención por medio de señales acústicas o vibración, pero en última instancia es el usuario quien decide si atiende a esas alertas o no (si bien estamos cada vez más condicionados a hacerlo). Una alerta que aparece directamente ante los ojos no puede ser evitada, lo cual genera un riesgo de verse sometido a un exceso de información y un continuo esfuerzo del ojo (que debe adaptarse a la lectura de los mensajes o contenidos proyectados junto a la percepción del entorno), lo cual puede conllevar un considerable stress psicológico y problemas de visión. La segunda cuestión a considerar es lo que el usuario emite: la lentilla patentada por Samsung cuenta con una cámara que posiblemente tenga como finalidad poder captar fotos o vídeo, así como substituir la visión real del entorno por una visión aumentada, como hacen los dispositivos de RA. En este caso se plantea una posible y constante invasión de la privacidad, puesto que cualquier persona que lleve estas lentillas podría estar grabando lo que ve sin que lo sepan quienes le rodean. Ambas cuestiones conducen a pensar en diversos escenarios distópicos, como el que se propone en un capítulo de la serie de TV Black Mirror en el que se nos muestra una sociedad en la que todas las personas tienen un implante de realidad aumentada, lo cual permite modificar la visión de una persona o la manera en que un individuo es visto por los demás.

Sin adentrarnos más en la ciencia ficción, cabe tener en cuenta que hasta ahora la integración de un dispositivo de Realidad Aumentada a nivel de los ojos ha tenido un controvertido desarrollo en el dispositivo Google Glass. Google llevaba unos años desarrollando un prototipo de visor de RA que pudiese llevarse como un par de gafas. En abril de 2012 anunció el futuro lanzamiento de su producto, mostrando cómo se podían grabar vídeos, y en 2013 empezó a comercializar entre los desarrolladores de software de EE.UU. una versión inicial (Explorer Edition) con el fin de dar a conocer el dispositivo y explorar sus posibilidades en el mercado. Google Glass se presentaba entonces en su forma definitiva, como una montura de gafas (se desarrollaron varios modelos en colaboración con Luxottica, empresa propietaria de firmas como Ray-Ban o Oakley) a la que se había adherido un pequeño dispositivo con un panel táctil, cámara y una pantalla LED. Los problemas antes descritos fueron rápidamente señalados por la prensa y diversos investigadores, quienes señalaron que Google Glass violaba la intimidad de las personas al facilitar que sean grabadas sin su consentimiento y también que podía causar peligrosas distracciones en determinadas situaciones como por ejemplo durante la conducción. El producto se fue rodeando así de una polémica cada vez mayor, hasta el punto en que los (escasos) usuarios de Google Glass eran mal vistos. En enero de 2015, Google decidió finalizar la fase beta de Google Glass y dejar de promover el producto, que de momento no va a comercializarse.

Dont-be-glasshole

La historia de Google Glass señala los límites y los retos de una interfaz que se integra con la propia visión del usuario. Si bien en ámbitos específicos (aeronáutica, ejército, medicina, ingeniería), el uso de dispositivos similares es común, se limita a unas actividades concretas que no forman parte de la vida cotidiana. Insertar una pantalla y una cámara ante los ojos en todo momento plantea nuevas cuestiones que aún no se han asumido en la sociedad, y tal vez hagan muy difícil o imposible que se acepte un dispositivo como Glass. De momento, según parece indicar la patente de Samsung, la solución apunta hacia la invisibilidad del propio dispositivo.

 

Del papel a la pantalla: reinventando el bloc de notas

Desde que se popularizaron los ordenadores personales a finales de los años 80 y los espacios de trabajo se situaban progresivamente en soportes digitales, la necesidad de trasladar de una manera ágil e intuitiva las notas tomadas en un cuaderno o libreta al procesador de textos ha llevado a sucesivos intentos de fusionar el papel y la pantalla. Apple empezó a trabajar en su primer PDA (Personal Digital Assistant) en 1987 y sacó al mercado en 1993 su revolucionario pero malogrado Newton, un dispositivo “de mano” equipado con una pantalla táctil y un lápiz, además de un software que reconocía la escritura del usuario y la convertía en texto editable. Apenas cinco años más tarde, Apple abandonaba Newton, dejando el mercado de las PDAs bajo el dominio de Palm Computing, cuyo Palm Pilot había ganado gran aceptación desde su lanzamiento en 1996. Con todo, Apple continúa trabajando en el desarrollo de dispositivos de mano con pantalla táctil que podrían sustituir a la libreta: ya en 1991, el diseñador Jonathan Ive había concebido un prototipo de tablet con lápiz llamado Macintosh Folio y hacia 2004 la empresa californiana estaba desarrollando un modelo más sofisticado que se vio precedido por el iPhone (2007) y finalmente dio lugar al iPad (2010).

En la presentación del iPhone en 2007, Steve Jobs aseveró que “nadie quiere usar un lápiz”, seguramente en referencia a su competidor en este sector (Palm). Según Jobs, la mejor manera de interactuar con el teléfono es con los dedos, algo que también se aplicó al iPad hasta que, en noviembre de 2015, Apple lanza el iPad Pro junto con el llamado Apple Pencil, un sofisticado lápiz dotado de diversos sensores que permite escribir y dibujar con precisión en la tablet para profesionales. La comercialización del dispositivo que Steve Jobs despreciaba se debe a una significativa evolución de la capacidad de respuesta de los dispositivos móviles, que hacen cada vez más posible emular los efectos y la precisión del uso de un lápiz real sobre una hoja de papel. Es significativo que, antes de Apple, numerosas empresas hayan comercializado diferentes versiones de lápices digitales (entre las que cabe destacar la línea de productos de Wacom, una empresa con una larga experiencia en este tipo de dispositivos, o el atractivo Pencil de la empresa FiftyThree).

Con todo, la experiencia de escribir o dibujar con un lápiz óptico en una pantalla táctil no acaba de ser tan sencilla, cálida o intuitiva como lo es usar un lápiz o bolígrafo en una libreta de papel. Para quienes quieren combinar lo mejor de ambos entornos, varias empresas han desarrollado soluciones que combinan el papel con la pantalla. La ya mencionada Wacom lanzó en 2015 Bamboo Sparkuna libreta y funda para tablet con bolígrafo digital que permite tomar notas o hacer dibujos en una hoja de papel y luego transferirlos a una app que digitaliza los contenidos y convierte el texto escrito a mano en texto editable. Spark funciona con papel normal (cualquier bloc de notas que quepa en la funda puede servir, aunque Wacom vende los suyos), siendo la propia funda una tableta digital que se sincroniza con el bolígrafo digital para registrar con precisión todos los trazos que hace el usuario en el papel. El contenido digitalizado puede editarse en la app Bamboo, guardarse en la nube y compartirse con otros usuarios.

Captura de pantalla 2016-04-12 a las 18.34.48

Al producto de Wacom se suma otro similar lanzado recientemente por la empresa Moleskineconocida por sus famosas libretas negras con cierre elástico y su cada vez más amplia gama de productos de papelería y escritorio. Consciente del extenso uso que hacemos de los dispositivos digitales, habitualmente en detrimento del papel, Moleskine ha ido desarrollando progresivamente productos que se adaptan a la vida digital pero mantienen el estilo tradicional de sus libretas, a las que dotan de una nueva vida. Según Arrigo Berni, director ejecutivo de Moleskine, “vemos que la demanda de nuestras colecciones en papel crece cada año, lo cual demuestra la relevancia del papel en la era digital, pero también somos conscientes de las ventajas del entorno digital, tanto para editar, seleccionar o compartir contenidos. Por ello vemos lo digital y lo analógico como un continuo”. Partiendo de esta idea, el Smart Writing Set es un sistema formado por tres elementos que permiten editar y compartir notas escritas a mano: Paper Tablet, una libreta de bordes redondeados (diseñada para parecerse a una tablet) cuyas hojas contienen unas diminutas marcas que ayudan a digitalizar las notas; Pen+, un bolígrafo dotado con una cámara que digitaliza todo lo que se escribe o dibuja; y finalmente Moleskine Notes, una app en la que se almacenan, editan y comparten las notas y dibujos. Moleskine se asegura la venta de sus libretas al crear un sistema que depende de un papel específico que sólo comercializa esta empresa. En cambio, no es preciso emplear y recargar una funda como en el caso de Wacom. Ambos productos demuestran que aún no se ha digitalizado del todo el escritorio y que es preciso perfeccionar las interfaces que permitan crear contenidos digitales aunque no se esté empleando una pantalla.

Captura de pantalla 2016-04-12 a las 19.17.01

Interfaces cotidianas: Electric Objects

eo1-1

A medida que toma forma el Internet de las cosas (que hemos comentado en un post anterior) son cada vez más numerosos los dispositivos conectados destinados a uso doméstico. Un ejemplo notable es la aparición, en los últimos dos años, de varias empresas que comercializan pantallas digitales para arte. Estas pantallas se cuelgan en la pared, como un cuadro (muchas cuentan incluso con un marco de madera), y cuentan con un ordenador integrado, conexión wifi y Bluetooth y se pueden controlar mediante una app gratuita para iOS o Android. El usuario simplemente tiene que colgar la pantalla en la pared de su casa, enchufarla y seleccionar en la app la obra con la que quiere decorar su casa. La ventaja de este dispositivo es que, al sustituir la tradicional pintura, dibujo o lámina enmarcada por una pantalla, puede cambiar el contenido del marco tantas veces como quiera. Gracias a la conexión wifi, el marco digital puede descargar nuevos contenidos y almacenarlos en su disco duro, dando al usuario la opción de comprar una obra del catálogo asociado a la empresa que comercializa el marco o bien subir un contenido propio.

EO1_app

Una de las empresas que ha lanzado este tipo de dispositivo es la neoyorquina Electric Objects. Tras dar a conocer con éxito su prototipo EO1 en una campaña de crowdfunding, ha empezado a comercializar la pantalla desde finales de 2015 y ya ha desarrollado varios modelos y servicios vinculados a la pantalla. Según afirma la empresa, EO1 “está pensado para integrarse en el ambiente, como una fotografía o una pintura. Se convierte en parte de tu casa, ofreciéndote la posibilidad de disfrutar de Internet a un ritmo más lento y meditado.” Buscando evitar la similitud con una pantalla de televisión, el dispositivo sólo puede colocarse en posición vertical, lo cual obliga a mostrar obras que se adapten a este formato. La pantalla se comercializa con un marco blanco o negro, además de contar con la opción de un marco de madera elaborado artesanalmente (disponible en su campaña inicial en Kickstarter). Puede colgarse en la pared o apoyarse en un pie diseñado específicamente para alojar la pantalla encima de una mesa o repisa. A fin de facilitar al máximo la instalación, el aparato viene con un kit de montaje para la pared.

Las características técnicas del dispositivo son las propias de una pantalla plana con un ordenador de gama media: pantalla de 23 pulgadas, 1080p con tecnología anti-reflejos, FullHD 1080×1920, un procesador 1Ghz Dual ARM Cortex A-9 y tarjeta wifi. La virtud del marco digital es integrar pantalla y ordenador en un único objeto lo suficientemente delgado como para mantener la apariencia de un marco tradicional, algo que también consigue gracias a la reducida intensidad de brillo de la pantalla. El marco se integra así en la pared como un objeto más, salvo que a diferencia de otros marcos puede modificar sus contenidos tantas veces como lo decida el usuario. La interacción a través del smartphone es sencilla y permite comprar y mostrar obras con facilidad, aunque cabe tener en cuenta que la empresa crea su propio ecosistema alrededor del marco, de manera que el usuario se ve en la situación de comprar únicamente las obras creadas para el EO1, aunque tenga la opción de subir contenidos propios.

artclub

En este sentido, Electric Objects ha decidido optar por un cliente muy específico, centrando su selección de obras en un estilo concreto, vinculado a creadores jóvenes vinculados al diseño gráfico y de videojuegos además de las artes plásticas. Los usuarios pueden acceder libremente a la colección (de momento, Electric Objects no cobra por las obras, aunque se plantea crear una suscripción o vender determinadas piezas en ediciones limitadas), que se presenta como un Art Club, un club de coleccionistas al que pertenecen automáticamente todos los compradores del Eo1. Las obras disponibles en el Art Club pueden consultarse en la app para smartphone y mostrarse en la pantalla con un clic. En la web de Art Club se muestran también todas las obras, indicando cuántos usuarios están mostrando la misma pieza en sus respectivas pantallas, lo cual crea la sensación de pertenecer a una comunidad.

EO1 es una de las pantallas que promete traer el arte (digital o digitalizado) a las paredes de nuestros hogares. Como interfaz resulta interesante, a la vez que introduce nuevas posibilidades para el diseño de interiores y también un nuevo entorno en el que experimentar las obras de arte.

Knitic: el telar open source

spampeotry_connected1

Al pensar en métodos de producción digital habitualmente se piensa en plotters, fresadoras o impresoras 3D pero se suele olvidar el telar, la máquina que de hecho inspiró a Charles Babbage cuando ideó su Máquina analítica, precursora de los ordenadores, entre 1833 y 1842. La pareja de artistas formada por Varvara Guljajeva y Mar Canet lleva desarrollando desde 2012 un proyecto que trae de nuevo el telar al contexto de la creación digital abierta y participativa. Knitic es una máquina de tejer controlada por un microprocesador Arduino que permite modificar el funcionamiento de las agujas en tiempo real. Esto quiere decir que se pueden tejer telas de forma continua, modificando el diseño en cualquier momento. El proyecto incorpora así una técnica tradicional a los métodos de fabricación digital más actuales, aportando además diversas ventajas: tejer es una habilidad común entre muchas personas que cuenta además con una larga tradición y experiencia en cuanto a soluciones y materiales; el material empleado es muy asequible y puede ser reciclado; el tejido puede tener múltiples aplicaciones e incorpora connotaciones culturales que los modernos materiales como el PVC no tienen.

neuroknitting

Los artistas han creado diversos proyectos con esta tecnología, desde una serie de poemas generados a partir de spam (SPAMpoetry) con los que bordaron prendas de ropa y esculturas a unas bufandas que reproducen las ondas cerebrales de una persona al escuchar las Variaciones Goldberg de Bach (Neuroknitting). Estos proyectos muestran las posibilidades de fabricación de tejidos empleando diseños generados por ordenador de forma más o menos automatizada y también señalan la manera en que se puede crear un diseño textil con datos que incorporan unos significados concretos. Más allá del uso de los textiles como ropa, los artistas también han creado objetos como una furgoneta Kombi de tela, con la que llevaron a cabo una intervención en la ciudad. En 2014, los artistas perfeccionaron la máquina creando Circular Kniticun telar circular que se fabrica pieza a pieza con una impresora 3D y puede conseguirse en código abierto, tanto para descargar el software como para fabricar las piezas, de manera que es posible (con ciertos conocimientos) imprimir, montar y poner en funcionamiento una de estas máquinas de forma independiente y a un bajo coste. Los artistas tienen como objetivo que la Circular Knitic se distribuya ampliamente y sea empleada por creadores y diseñadores bajo la filosofía open source, que facilita el acceso a nuevas tecnologías a una amplia comunidad en la que todos comparten sus conocimientos y recursos.

El telar open source desarrollado por Guljajeva y Canet ejemplifica la recuperación de una tecnología tradicional que se adapta a los métodos de diseño con herramientas digitales y amplía sus posibilidades. Al desarrollar su proyecto en un entorno de código abierto, los artistas abren un interesante campo de experimentación e innovación en el ámbito de la producción digital y el diseño textil.

Zero UI: cuando la interfaz desaparece

Rafael Lozano-Hemmer, "Make Out, Shadow Box 8", 2008. ''Trackers'', La Gaïté Lyrique, Paris, 2011. Photo by: Antimodular Research
Rafael Lozano-Hemmer, “Make Out, Shadow Box 8″, 2008. ”Trackers”, La Gaïté Lyrique, Paris, 2011. Photo by: Antimodular Research

Hoy en día nuestra interacción con los dispositivos digitales se lleva a cabo principalmente a través de una pantalla en la que aparecen elementos visuales tales como botones, carpetas y ventanas que nos ayudan a entender y gestionar la información que nos proporciona el aparato y emplear las diferentes aplicaciones. Desde su primera concepción en el Sketchpad de Ivan Sutherland (1963) y posterior desarrollo en el ordenador Xerox Alto (1973), la interfaz gráfica de usuario se ha convertido en un recurso tan esencial en cualquier tipo de dispositivo electrónico que resulta difícil imaginar una manera de interactuar con una máquina sin una pantalla táctil, algún tipo de teclado o un ratón. De hecho, a medida que incorporamos más dispositivos conectados a nuestra vida diaria, las pantallas se multiplican: al televisor y el ordenador personal se han sumado el portátil, la tablet y el smartphone. Los relojes también se han hecho inteligentes y han reemplazado la esfera y las manillas por una pantalla. Los libros electrónicos nos han llevado del papel a la pantalla de tinta electrónica. Incluso el espejo del baño o las ruedas de una bicicleta se están convirtiendo en pantallas, por no mencionar el creciente desarrollo de los visores de realidad virtual y otros sistemas que proyectan imágenes frente a nuestros ojos.

Con todo, a medida que se hace realidad el Internet de las cosas, nos rodea un número mayor de dispositivos conectados que pueden reaccionar a determinados gestos, nuestra mera presencia en una habitación o incluso predecir necesidades a partir de la información recogida tras monitorear nuestros hábitos cotidianos. En este contexto, que ya predijo en 1991 el ingeniero jefe de Xerox PARC, Mark Weiser, en su ensayo “The Computer for the 21st Century”, los ordenadores están destinados a integrarse en la vida cotidiana y, como indica Weiser, dejar de ser el centro de atención para pasar a un segundo plano. Así, el ordenador desaparece como un objeto concreto con una pantalla aunque se convierte en una presencia ubicua, como el ordenador de la nave Enterprise en Star Trek o el temible HAL9000. Precisamente, las novelas, series de televisión y films de ciencia ficción ya nos han mostrado un futuro de computación ubicua en el que es posible dialogar con un ordenador o controlar dispositivos y objetos con gestos o comandos de voz, algo que hoy en día es cada vez más común.

Una consecuencia lógica de la computación ubicua es la desaparición de la interfaz tal como la conocemos: la metáfora del escritorio y las carpetas deja de tener sentido y ni siquiera una pantalla táctil llena de iconos resulta práctica cuando se trata de interactuar con objetos cotidianos o recibir información sin necesidad de desviar la mirada. Esta transformación de la interfaz se ha popularizado desde hace un año con la expresión Zero UIpropuesta por Andy Goodman, director de grupo en la consultoría de innovación y diseño Fjord, en el marco de la  SOLID Conference en San Francisco. Goodman indica que progresivamente vamos a dejar atrás las pantallas a medida que los dispositivos que nos rodean empleen sistemas basados en el tacto (particularmente en los wearables, como son relojes, pulseras, anillos, gafas o ropa conectada), en sensores ambientales (presencia, ruido, temperatura, etc.) y en funciones automatizadas que pueden determinarse previamente o generarse a partir de un “aprendizaje” de la máquina.

Este último aspecto es muy importante, puesto que actualmente, como señala Goodman, debemos adaptarnos al lenguaje de la máquina y por ello la interfaz es necesaria para traducir nuestras órdenes en comandos que ésta pueda ejecutar. A medida que se desarrollan mejores sistemas de Inteligencia Artificial, los ordenadores serán capaces de entender mejor nuestras intenciones, ya sea porque pueden procesar el lenguaje natural (haciendo posible el “diálogo” con la máquina que actualmente tratan de emular asistentes como Siri en iOS) o interpretar nuestros gestos o, incluso, nuestro estado de ánimo. Este aprendizaje deberá basarse en la acumulación de una gran cantidad de datos, tanto a nivel individual del usuario, para entender sus hábitos personales, gestos y expresiones, como a nivel colectivo, para elaborar patrones de comportamiento basados en datos estadísticos e incluso predecir comportamientos en determinados contextos y situaciones. Según Goodman, “los diseñadores tendrán que ser expertos en ciencia, biología y psicología” para crear dispositivos que van más allá del contexto específico de una pantalla.

En términos de diseño, por tanto, pensar en Zero UI es como pasar de trabajar en dos dimensiones a trabajar en tres o cuatro. En el mundo real (fuera del “escritorio” del ordenador), las situaciones y las acciones posibles son mucho más complejas, y por tanto requieren prever numerosas variables o crear un sistema capaz de adaptarse a ellas en tiempo real.  Por tanto, no puede esperarse que todos los dispositivos se despidan de la pantalla, puesto que siempre habrán tareas que se realizan mejor en el contexto de una interfaz gráfica de usuario. Para Goodman, ZeroUI es básicamente “una provocación […] que nos lleva a pensar más allá de la pantalla.”

El futuro de las interfaces, y en especial el desarrollo del ZeroUI, pasa por examinar el trabajo que desde hace décadas llevan realizando los artistas que trabajan con instalaciones interactivas. Desde el pionero Myron Krueger, cuyo prototipo de realidad virtual Videoplace (1974-1984) hizo posible el desarrollo posterior de sistemas de reconocimiento de imagen y dispositivos como Kinect, a artistas consagrados como Christa Sommerer y Laurent Mignonneau o Rafael Lozano-Hemmer, son numerosos los creadores que han desarrollado originales formas de interacción entre una persona y una máquina por medio de gestos, movimientos, voz, tacto y presencia. Sus obras son un punto de referencia que los diseñadores deberían tener muy en cuenta cuando se planteen dar forma al futuro de las interfaces.

 

Referencias

John Brownlee, “What Is Zero UI? (And Why Is It Crucial To The Future Of Design?)”, Co.Design. 

“Zero UI with Andy Goodman”UX Podcast.

“The Era of Living Services”Fjord.

 

Capturando nuevos colores: Pantone, Cube y Scribble

En 1963, Lawrence Herbert creó un revolucionario sistema para identificar colores que ha llevado a Pantone a establecerse como la máxima autoridad en la gestión de color en diseño gráfico e industrial. La empresa ha aprovechado esta fama no sólo para comercializar sus productos sino también para convertirse en un icono del diseño, con su propia línea de objetos inspirados en la famosa paleta de colores. Desde 2011, Pantone anuncia el “color del año”, marcando tendencias en diseño y reforzando su posición como marca de referencia. Este año, la empresa ha lanzado 112 colores nuevos para diseño gráfico con la colaboración de los diseñadores Chip Kidd, Jessica Walsh y Eddie Opara. Los nuevos colores responden a “las demandas del mercado” y están pensados para el packaging actual, incorporando verdes “cítricos” más enérgicos, azules vibrantes y etéreos, rojos elegantes, naranjas radiantes, rosas pálidos y violetas místicos. Con esta nueva gama son ya 1.867 los colores de la gama Pantone.

No obstante, en el mundo hay muchos más colores, y para captarlos se están desarrollando diversos dispositivos que permiten capturar el color de cualquier superficie u objeto y trasladarlo a una paleta digital. Por una parte está Cube, un digitalizador de colores portátil creado por la empresa Palette que consiste en un pequeño dispositivo dotado de varios sensores (sensor de color L*a*b* / RGB / CMYK; temperatura, luz ambiente) que permite capturar el color de una superficie simplemente colocándolo sobre la misma y apretando un botón. Cuenta con una memoria interna que permita almacenar hasta 20 colores y transmitirlos por Bluetooth a un ordenador. Los colores capturados pueden importarse directamente a Photoshop y hacerse compatibles con las gamas de los principales fabricantes de pinturas, además de la gama Pantone. Cube está pensado para profesionales tales como diseñadores gráficos, de interiores, de moda, artistas, fotógrafos, pintores, arquitectos e imprentas.

Video promocional de Cube

Scribble añade la captura de colores de Cube a un dispositivo desarrollado en dos versiones: como un rotulador (con tinta, para dibujar sobre papel) o como lápiz óptico (para emplear en una tablet). Ambas versiones incluyen en su extremo posterior un sensor de color RGB que, de forma similar a Cube, puede capturar el color de cualquier superficie. En el caso del rotulador, esta información es transmitida a un cartucho de tinta integrado en el dispositivo que recrea el color escogido, de manera que se puede dibujar empleando ese color en un papel u otro soporte. El lápiz óptico cumple la misma función pero en este caso transmite la información a la tablet por medio de una app compatible con Windows, Android i iOS. Ambos dispositivos incluyen una batería con una autonomía de 15 horas. La efectividad de estos dispositivos aún debe ser demostrada, y sin duda puede resultar complejo capturar colores con precisión, algo que Cube parece más preparado para conseguir que Scribble. En cualquier caso, tanto los nuevos colores de Pantone como estos dispositivos indican la importancia del color como elemento de diferenciación de marcas y productos, lo cual lleva a la necesidad de buscar nuevos colores que atraigan a nuestras saturadas retinas.

Video promocional de Scribble