First Look: How The Google Glass UI Really Works | Co.Design: business + innovation + design



First Look: How The Google Glass UI Really Works | Co.Design: business + innovation + design


Google Glass has arrived like a piece of sci-fi memorabilia sent from the future. But with all the talk about wearing the Internet on your face and whether or not these glasses can ever be fashionable, the most obvious and important story has gone untold: What is Google Glass actually like to use?


In a 50-minute presentation at SXSW, Google’s Timothy Jordan walked developers through what the Google Glass "Mirror" API and interface looks like today. And if we were to sum it up in just a few words, it’s a multimedia twitter feed for your eyeballs. Here’s how that actually plays out:




THE BASIC CONTROLS


The Glass screen sits out of view, and it’s usually off, just like your cellphone screen. Its frame is essentially a trackpad with three main gestures. Tap once with a finger to select. Slide your finger along the temples to scroll. Swipe down to dismiss a screen.


To start things off, tap the frame with a finger (or nod your head), and you end up at Glass’s home screen. From the home screen, you can do a few things:
Swipe your finger down on the frame to dismiss the screen and go about your day--it’s basically the same thing as the Android’s back button.
Tap again and say “OK Glass” to issue a command, like “take a picture” or “Google how to use Glass”
Slide your finger back along the frame to view a few Google Now-esque “cards”--like the weather report.
Slide your finger forward along the frame--and this is the heart of the experience--which takes you through a “timeline” of everything, from the photo you just took, to a search you just made, to a video you were sent to a notification you received earlier from the New York Times. This is how Glass is much like Twitter, or may be, assuming you subscribe to several services for updates.



SOME CARDS ARE REALLY BUNDLES



So, you have cards--essentially your simplified app experiences. Now say you subscribe to the Times. They might send you a card (a headline and a photo) every hour.


Now you can ignore it, or you can tap Glass to explore more.


Because some cards aren’t just cards. They’re bundles. Any card with a pagefold in the upper right hand corner is hiding its own timeline. So to cycle through stories within that Times bundle, you swipe through just as you would your main Glass timeline.























MORE OPTIONS



So here you are, sliding through a bundle. You reach a card, maybe it’s a news article, and you wish you could hear more. Well you can. You tap the card, and you’ll be presented with a timeline of options, like “read aloud” or, theoretically, “share.”


If you were in email instead, tapping on that card would bring up “reply.”


If you were in Path, tapping a card might allow you to swipe through your reaction choices: smiling or frowning.



SO IT’S ALL ABOUT THE TIMELINE!




Glass is essentially several layers of timeline.

You have your main timeline. Kinda like your twitter feed of things you’ve done and received.
You have a timeline with information (or cards) hiding in bundles.
You have a timeline of options (share, reply, etc.) hiding in cards.


Yes, it’s still a little bit complicated to understand, because surprisingly there’s still no one video presented by Google that drives the idea forward. But most work flows will involve tapping something you’re interested in, then sliding through cards, then tapping a card, then sliding through options.


Lost? Just flick downward to get the heck out of there, like an Android phone.

















IT’S ALL ABOUT LIMITING INFORMATION AND OPTIONS



Google understands Glass’s biggest potential downfall, that a world of messaging and media distracts us from the world in front of our face. A deeper look into their interface logic reveals how they’re encouraging developers to deal with it: Push the simplest of updates to a user. And give them either one piece of information, or one option of what to do with that information, per screen.


So far, so good. Assuming your finger can buff up enough to slide around on Glass’s frame fairly often, you’ll be able to do a lot quickly on the platform. But at the same time, Google is admitting that Glass won’t do everything. It’s not providing the info-dense content we have on laptops, or even smartphones. And at least according to this presentation, the interface isn’t really geared at all toward creating immersive, augmented-reality applications.


Truth be told, Glass may seem a bit less ambitious, once you break down its UI architecture. But often, restraint takes as much ambition as anything else. Glass needs to aspire to be usable, first and foremost. And that’s exactly what it’s going for.


See the video here.


[Hat tip: The Verge]


Note: I did my best to accurately summarize and present the work flows in the video presentation. It’s possible, probable even, that I’m using some terms a bit differently than Google at times, or that I even screwed something up. We’ll all know more once the Glass Mirror API goes public.

Computación Cognitiva, 5 Tecnologías que harán cambiar el futuro según IBM



El objetivo de la Computación Cognitiva es conseguir que un ordenador se comporte, piense e interactúe en la forma en que lo  hacen los humanos, en 5 años, las máquinas emularán los sentidos humanos, cada una en su particular modo.
Todos los años IBM hace sus predicciones sobre innovaciones tecnológicas que sobresalen del resto, y que pueden tener alguna opción de cambiar el modo en que vivamos dentro de 5 años.

Traducido del canal de Youtube de IBM:

Cognitive Computing: 5 Future Technology Innovations from IBM


The goal of cognitive computing is to get a computer to behave, think and interact the way humans do. In 5 years, machines will emulate human senses, each in their own special way. 

Every year IBM makes predictions about 5 technology innovations that stand to change the way we live within the next 5 years. See all IBM 5 in 5 predictions at: http://www.ibm.com/smarterplanet/us/en/ibm_predictions_for_future/ideas/index.html?cmp=0&cm=v&csr=0&cr=youtube&ct=yt5in5&cn=5in5_intro

Teaser realidad aumentada FASTmag de marzo


Metaio presenta El Primer Chipset de Realidad Aumentada para Móviles

El Primer Chipset de Realidad Aumentada para móviles en el World Mobile Congress 2013 de la mano de ST Ericsson.

La realidad aumentada es una de las 10 tecnologías de nuestra década que más van a hacer cambiar el mundo, y se espera que se convierta en una característica estándar para la próxima generación de dispositivos inteligentes. Metaio, como siempre a la vanguardia en esta tecnología, con este chpset permite la inserción de casi cualquier contenido en 3-D y animaciones virtuales en el mundo real mediante el reconocimiento de imágenes, objetos y ambientes enteros.

En un futuro móvil que claramente exige que los dispositivos inteligentes estén “siempre activos” y conectados, La Realidad Aumentada IP de Metaio por Hardware, el llamado ‘AREngine’ reduce drásticamente el consumo de energía haciendo las experiencias de AR posibles y cada vez más cercanas al uso común.

Demo de Realidad Aumentada de Metaio

Demo del sistema de realidad aumentada de Metaio presentada en el Mobile World Congress Barcelona 2013

Probando Glass, lo que hay detrás de las gafas AR de Google

Una traducción de Francis Ortiz del artículo de The Verge
http://www.theverge.com/2013/2/22/4013406/i-used-google-glass-its-the-future-with-monthly-updates

Las puertas de vidrio esmerilado en el piso 11 de la primera planta de de la sede de Google en Nueva york se abre y una mujer dse acerca para saludarme. Asta ahora todo normal, altura normal, complexión delgada, sus ojos son brillantes, inquisitivos. Ella se inclina para darme la mano y en ese momento me fijo en el dispositivo que lleva puesto a modo de gafas: una tira delgada de aluminio y plástico con una lente extraña, una especie de bloque de cristal de aumento justo debajo de la ceja. Google Glass.

Lo que era una rareza total hace un año, y poco más que un experimento hace tan sólo 18 meses está empezando a parecerse a un producto real. Algo que podría estar en las manos (o en la cabeza, más bien) de los consumidores a finales de este año. Un tipo completamente nuevo de dispositivo portátil, diseñado para reducir la distracción, creado para que puedas capturar y comunicar de una manera que en teoría completamente natural para el usuario. Es el anti-smartphone, un artículo de moda para explotar todas las posibilidades de relacionamos con la tecnología.

Pero a medida que termina nuestra introducción y miro con detalle el extraño aparato descansa en la frente de mi anfitriona, en mi mente empieza a plantearse una pregunta: ¿quién querría usar esto en público?



Descubrir Glass
El proyecto Glass se inició  "hace unos tres años" por un ingeniero llamado Babak Parviz, como parte de la iniciativa de Google X Lab, el laboratorio secreto de Gooogle, que también se encarga de - entre otras cosas - de los automóviles auto-guiados y las redes neuronales. A diferencia de esos proyectos de ciencia ficción de I + D de Google, Glass se hestá haciendo realidad mucho antes de lo que nadie esperaba. La compañía ofrece a los desarrolladores una opción de compra en al el llamado Programa Explorador, presentado en durante su conferencia I / O del año pasado, y apenas esta semana trascendió que la oportunidad para desarrolladores en los EE.UU. en una campaña de Twitter que pide a los usuarios potenciales a explicar cómo que utilizaría ala nueva tecnología. Piensa en ello como una beta muy agresiva - algo que es práctica habitual en Google.


Estaba a punto de hacer de beta tester yo mismo. Pero primero, tenía algunas preguntas.

Sentado en una habitación de colores sorprendentemente suaves para los estándares de oficina caprichosas de Google - Me encuentro frente a dos de los protagonistas principales en el desarrollo de Glass, el director de producto de Steve Lee y la Diseñadora industrial Isabelle Olsson. Steve e Isabelle hacen una pareja convincente como portavoces del producto. Steve es nervioso, con ojos grandes y brillantes que despiertan cada vez que hago una observación sobre Glass. Isabelle es más reservada, pero habla con fervor increíble sobre el producto, es pelirojja. Antes de poder empezar a hablar de Glass, Isabelle y yo estamos en una acalorada discusión acerca de cómo se define el color azul marino. Ella es un apasionada del diseño - una condición que parece ser bastante contagiosa en Google en estos días - y se nota.

Aunque la cuestión del diseño está ahí, es evidente que Google no trata de hacer un accesorio de moda. Steve trata de explicármelo.

"¿Por qué estamos aún trabajando en Glass? Todos sabemos que a la gente le encanta estar conectada. Familiares y amigos se envían mensajes uno al otro todo el tiempo, fanáticos de los deportes están comprobando los resultados en directo de sus equipos favoritos. Si eres un viajero frecuente, tiene que permanecer atento sobre estado de tu vuelo. La tecnología nos permite conectar de esta forma, pero un gran problema son las distracciones que provoca la tecnología.

Los seres humanos han desarrollado un nuevo problema desde la llegada del iPhone y la revolución móvil: nadie está prestando atención a todo lo que están haciendo en realidad. Todo el mundo parece estar mirando a algo o pendiente de algo. Esos momentos perfectos viendo tu parrtido favorito o el concierto de tus hijos o bien están siendo capturadas a través del lente de un dispositivo que se coloca entre tú y la experiencia real, o se interrumpen con avisos constantes. Pings del mundo exterior, irrumpiendo lo que solían ser importantes momentos personales.

Steve continúa. "Nos preguntamos, ¿y si acercamos la tecnología a nuestros sentidos de forma que lnos permita obtener más rápidamente la información y conectarse con otras personas, pero de una manera - con un diseño - que no se iterponga cuando no quieras interactuar con la tecnología? En cierto modo es lo que nos llevó a Glass".

No puedo dejar de mirar a la lente sobre el ojo derecho. "Es una nueva tecnología portátil. Es una manera muy ambiciosa de hacer frente a este problema, pero eso es realmente una especie de fundamento de por qué se ha trabajado en Glass".

Lo entiendo. Todos estamos distraídos. Nadie puede prestar atención. Nos estamos perdiendo todos los momentos de la vida. Claro, es un problema, pero es un problema nuevo, y esta no es la primera vez que hemos sido distraídos por una nueva tecnología. Hubo uin momento en que existía estadísticas sobre el número de conductores que se salían de la carretera al buscar una emisora de radio. Vamos a encontrar la manera de gestionar nuestra distracción, ¿no?

Obviamente, el equipo de vidrio no quiere esperar para averiguarlo. Isabelle me habla sobre el momento en que el concepto hizo clic en su cabeza. "Un día, me fui a trabajar - Vivo en San Francisco y tengo que viajar a Mountain View constantemente - fui a la parada del autobús y vi una fila de 10 personas, y todas así, (pone la cabeza hacia abajo e imita a alguien hurgando en un movil.) Yo no quiero hacer eso, ¿sabes? Yo no quiero ser esa persona. Ahí fue cuando me di cuenta de que, de acuerdo, tenemos que hacer que esto funcione. Es audaz. Es una locura. Pero creemos que podemos hacer algo con esto. "

La compañía espera tener Glass en el mercado como un dispositivo de consumo a finales de este año.

Augmented reality: Google Noticias