Att ta på det som inte finns. Känsel för e-handel och interaktion

För snart ett år sedan gjorde IBMs forskare en förutsägelse om fem trender vi kommer att se de närmaste fem åren. När man ser en lista med ett tema undrar man ibland om det finns några utfyllnadsämnen för att man skall nå ”de tio bästa”, eller ”5 in 5″. Det sinne som jag trodde var mest krystat i listan var känsel. Hur skulle vi känna någonting med våra fingrar när vi interagerar med ett system (t ex via vår mobil)? Hur skulle man få s k haptisk återkoppling genom en glasskiva, eller när man rör händerna i luften?

Gränssnitt som man rör vid blir allt vanligare. Väl genomförda blir de väldigt intuitiva och lättanvända. Lätta beröringar och rörelser av den typen vi använder på en pekplatta ligger dessutom nära den typ av beröring vi bara använder tillsammans med de som står oss nära. Gesterna är både intuitiva och intima, och antagligen stärker detta vår positiva upplevelse.

Pekgränssnittet är en stor framgång, men vill man jobba med 3D kan det kännas begränsande att gränssnittet är platt, och t ex i en affär eller andra publika miljöer kan det vara ohygieniskt med en yta alla skall ta på. Därför kommer antagligen styrenheter där man kan använda sina händer fritt i luften, som en dirigent, också att användas framöver.

Yta med känsla

De exempel på gränssnitt med “materialkänsla” som jag sett tidigare byggde på att man vibrerar ytan man rör vid för att simulera de vibrationer som vi känner när vi drar fingret över t ex ett tyg, trä, sandpapper, plast eller läder. Det ser ut som en teknik med begränsade möjligheter att bli praktiskt användbar i större skala.

Men sedan läste jag om Senseg, som med demovideon ger en föraning om hur man kommer kunna få känslan av att ta på olika material genom röra vid en glasskiva liknande den vi har på mobiltelefoner och surfplattor. Med hjälp av statisk elektricitet manipulerar de känslan av ytan.

Tänk att kunna känna kvaliteten på ett tyg eller ytfinishen på ett handtag innan man beställer dem över internet? Även abstrakta datamängder skulle kunna åskådliggöras med ett sinne till. Man kunde bokstavligen få grepp om BigData.

Kanske kunde halkvarningen i bilen kompletteras. Förutom dagens lilla snöflinga vid temperaturvisningen på instrumentpanelen, kunde man ha områden på ratten där man med fingrarna känner att det är låg eller ingen friktion när det är halt ute.

Att ta på något som inte finns

Så att lura känseln när man tar på någonting är möjligt. Men när man viftar med händerna i luften över en Leap Motion Controller, Kinect eller liknande teknik som Intel sagt att de skall integrera i framtidens datorer kan man väl ändå inte känna något annat än luft? Jo, t o m det har någon lyckats lista ut en lösning på. Med hjälp av ultraljudssändare som fås att samverka skapar man ett fokuserat ljudtryck som känns. Det är en lösning som visserligen ser klumpig ut idag, men som kan vidareutvecklas till något smidigare, och nu när idén är kläckt kan det säkert dyka upp andra lösningar också.

Vissa typer av interaktioner, som att rotera, flytta och ändra storleken på virtuella föremål på skärmen fungerar väldigt bra med en Leap Motion Controller, men när det gäller att t ex välja ett föremål på skärmen (tänk Tom Cruise i en sorteringsscen i Minority Report), så känns det att man saknar en referens att ”trycka på”. Att vifta motståndslöst i luften kräver mer tanke och motorik, och känns inte lika intuitivt som man skulle vilja. Virtuella knappar i luften att trycka på skulle kunna förbättra känslan.

Så om vi skall tro IBMs forskare, så är framtidens systeminteraktion något man kan ta på. Och det känns spännande…

Blir tekniken som mest intressant när vi använder den för att tala till oss själva?

En mycket intressant presentation av Clive Thompson, där han bland annat frågar sin ”What is the PostIt note phase of any new medium?”.

Mer på http://smarterthanyouthink.net/ Skall bli kul att jämföra hans bok Smarter Than You Think med boken om Watson Smart Machines: IBM’s Watson and the Era of Cognitive Computing

Pingviner

ping 2010

Under alla dessa år trodde jag pingviner var simmande fåglar som inte åts av isbjörnar. Nu vet jag att de faktiskt tillverkas på ”See Ya Later Ranch” i Okanaga Valley i Canada. Man lär så länge man har lever…

Sinnen och kropp

De som har hört mig prata Cognitive Computing under det senaste halvåret, har hört att jag lyfter fram tre delar, självlärande system som Watson, nya chip-arkitekturer som härmar naturen, och att systemen förses med sinnen. Två av tre omnämns i det program ”Hur smart kan datorn bli?” som just nu finns på SVT Play, när de ställer sig frågan om det går att bygga en artficiell intelligens utan att också ge den en kropp att uppleva världen i. Passa på att titta innan det tas bort.

Ett ord i tiden

Nytt ord i ordlistan:
obama verb -de  * att sitta hemma och vänta ut ett trafikkaos. Ex: ”Vi kan inte luncha idag, jag obamar.”, ”Han skulle blivit uppäten av zombier om han inte obamat just den dagen.”

Om Zombien Kommer

CDC's link image for the Zombie Apocalypse preparednessNu börjar vampyreländet äntligen ebba ut. Förhoppningsvis är filmatiseringen av boken ”Abraham Lincoln, Vampire Slayer” sista stora dödsryckningen. Det ger mer plats åt Zombie-Apokalypsen (ZA). Med den senaste tidens bisarra nyheter om ansiktsätande galning i USA, skrämmande läckor  och läppätande docent i Sverige verkar trenden på uppåtgående.

En organisation som tagit detta till sig är amerikanska motsvarigheten(?) till svenska SmittskyddsinstitutetCenter for Disease Control (CDC). Inte direkt så att de förväntar sig en ZA i närtid, utan som ett intresseskapande verktyg för vad de sysslar med, och för att göra människor medvetna om att de bör vara redo för oförutsedda saker. Naturkatastrofer, skogsbränder och strömavbrott skall man inte stå helt handfallen inför. Alla kan ha tänkt på det otänkbara i förväg, gjort rimliga förberedelser, ha vissa förråd och tänkt ut en plan för hur man skall agera.

För att utnyttja uppmärksamheten runt zombies har därför CDC avsatt en del av sin websajt till ”Zombie Preparedness” , och som upplysningskampanj har det varit deras mest framgångsrika.

När får vi se något liknande i Sverige? Eller är den svenska staten, som Jessika Gedin implicerar i Spanarna i P1, för mycket av en snäll bullmamma för att vilja skrämma sina telningar med stygga monster?

Technology Induced Insanity

Alan Cooper released the book ”The Inmates Are Running the Asylum: Why High Tech Products Drive Us Crazy and How to Restore the Sanity” in 2004. In it he notes that when we make things ”smart” by adding a computer, what we get is a computer – with all its quirks and poor user experiences. It was written in the pre-iPhone era, but the bad examples are still with us, and on Friday I was a victim. I have a Samsung Smart TV which is a beautiful and well performing TV. Even the 3D, which I thought would be a gimmick, works really well. But, the ”Smart” part isn’t…

The user interface on my Samsung Smart TV is absolutely awful. On Friday I was trying to pay to watch some movies (I am stupid that way), using the SF Anytime app in the TV.  The first bizarre surprise when I bought the TV is that I cannot attach a keyboard to it. This really becomes an issue when setting up user accounts and finding URLs etc, since that requires input of long text strings. The remote and the remote apps work poorly to solve the problem. The remote app can sort of bring up a keyboard, but the keys have random functions (keying in an ID and then hitting return does not move to the next field, instead it inserts the random character that the on-screen keyboard happens to be on). The process becomes slow, random and very cumbersome.

The help for setting up SF Anytime does not mention that I needed a Samsung ID too. It sort of described the association process, but that was of course inactive since I didn’t have a Samsung ID. And why should I need to?

So, Instead of just logging in to SF Anytime, I need to associate the SF Anytime ID to my newly created Samsung ID. But that process does not work. I can log in to SF Anytime in a browser, so it is that really unnecessary step that doesn’t work. And with Carrier IQ in fresh memory, why does Samsung do it that way?

Other gripes are that the Samsung ID does not autologin. It takes 5 extra clicks on the remote each time I want to log in on the ”Smart TV”, and that Skype does not work without a special camera which isn’t officially supported on the Skype website (but should work), and is relatively expensive. Since experience has made me not trust the TV system, I would have loved to verify the function with a camera+mike combo I already own.

I tweeted about this in a very upset state, and people have asked ”should you really write stuff like that” being an occasional spokes person for IBM and all, and to that, all I have to say is: a) Nothing on my personal blog or tweets are the words of my employer. b) My experiences are not from a professional encounter. This is my private equipment, bought with my own money, used on my personal time. c) Sorry, Samsung, but it’s your own fault. Your poor user experience drove me nuts. Shape up. We are in a post-iPhone launch era, and I have an AppleTV-box to compare with.