För snart ett år sedan gjorde IBMs forskare en förutsägelse om fem trender vi kommer att se de närmaste fem åren. När man ser en lista med ett tema undrar man ibland om det finns några utfyllnadsämnen för att man skall nå ”de tio bästa”, eller ”5 in 5”. Det sinne som jag trodde var mest krystat i listan var känsel. Hur skulle vi känna någonting med våra fingrar när vi interagerar med ett system (t ex via vår mobil)? Hur skulle man få s k haptisk återkoppling genom en glasskiva, eller när man rör händerna i luften?
Gränssnitt som man rör vid blir allt vanligare. Väl genomförda blir de väldigt intuitiva och lättanvända. Lätta beröringar och rörelser av den typen vi använder på en pekplatta ligger dessutom nära den typ av beröring vi bara använder tillsammans med de som står oss nära. Gesterna är både intuitiva och intima, och antagligen stärker detta vår positiva upplevelse.
Pekgränssnittet är en stor framgång, men vill man jobba med 3D kan det kännas begränsande att gränssnittet är platt, och t ex i en affär eller andra publika miljöer kan det vara ohygieniskt med en yta alla skall ta på. Därför kommer antagligen styrenheter där man kan använda sina händer fritt i luften, som en dirigent, också att användas framöver.
Yta med känsla
De exempel på gränssnitt med “materialkänsla” som jag sett tidigare byggde på att man vibrerar ytan man rör vid för att simulera de vibrationer som vi känner när vi drar fingret över t ex ett tyg, trä, sandpapper, plast eller läder. Det ser ut som en teknik med begränsade möjligheter att bli praktiskt användbar i större skala.
Men sedan läste jag om Senseg, som med demovideon ger en föraning om hur man kommer kunna få känslan av att ta på olika material genom röra vid en glasskiva liknande den vi har på mobiltelefoner och surfplattor. Med hjälp av statisk elektricitet manipulerar de känslan av ytan.
Tänk att kunna känna kvaliteten på ett tyg eller ytfinishen på ett handtag innan man beställer dem över internet? Även abstrakta datamängder skulle kunna åskådliggöras med ett sinne till. Man kunde bokstavligen få grepp om BigData.
Kanske kunde halkvarningen i bilen kompletteras. Förutom dagens lilla snöflinga vid temperaturvisningen på instrumentpanelen, kunde man ha områden på ratten där man med fingrarna känner att det är låg eller ingen friktion när det är halt ute.
Att ta på något som inte finns
Så att lura känseln när man tar på någonting är möjligt. Men när man viftar med händerna i luften över en Leap Motion Controller, Kinect eller liknande teknik som Intel sagt att de skall integrera i framtidens datorer kan man väl ändå inte känna något annat än luft? Jo, t o m det har någon lyckats lista ut en lösning på. Med hjälp av ultraljudssändare som fås att samverka skapar man ett fokuserat ljudtryck som känns. Det är en lösning som visserligen ser klumpig ut idag, men som kan vidareutvecklas till något smidigare, och nu när idén är kläckt kan det säkert dyka upp andra lösningar också.
Vissa typer av interaktioner, som att rotera, flytta och ändra storleken på virtuella föremål på skärmen fungerar väldigt bra med en Leap Motion Controller, men när det gäller att t ex välja ett föremål på skärmen (tänk Tom Cruise i en sorteringsscen i Minority Report), så känns det att man saknar en referens att ”trycka på”. Att vifta motståndslöst i luften kräver mer tanke och motorik, och känns inte lika intuitivt som man skulle vilja. Virtuella knappar i luften att trycka på skulle kunna förbättra känslan.
Så om vi skall tro IBMs forskare, så är framtidens systeminteraktion något man kan ta på. Och det känns spännande…