Future Insights Live 2013 dag 4

Aka. What Happens in Vegas End Up at the Vertica Blog part 4.

Onkel Tidsrejsende Mac

Onkel Tidsrejsende Mac

Solen er stået op i ørkenen, og den sidste dag på konferencen Future Insights Live 2013 i Las Vegas er oprundet. Dagen slutter lidt tidligere end de øvrige og det ser ud til der er lidt flere fælles indlæg på tværs af de forskellige spor end ellers. Ikke desto mindre skulle det vise sig at dagen alligevel blev rigtig spændende og inspirerende med brugergrænsefladen i fokus.

Indtil videre har konferencen for mit vedkommende været en overvejende rigtig god oplevelse med få decideret smuttere (som i fælles træk har båret præg af at være med salg af en ydelse eller produkt for øje).

Dagens første keynote er med Jeff Atwood, som er co-founder af Stack Overflow, som de fleste udviklere (hvis ikke alle) kender og bruger.

Keynote: “I Fought Atwood’s Law” af Jeff Atwood

Atwood’s Law lyder: “Any application that can be written in JavaScript, will eventually be written in JavaScript”. Dette seminar handlede om Stack Overflow, teknologier på deres nye forumsoftware Discourse samt hvad fremtiden bringer indenfor webteknologier.

Jeff Atwood - I Fought Atwood’s Law

Jeff Atwood – I Fought Atwood’s Law

Jeff startede med en indledning omkring Javascript-performance gennem tiden og med holdningen at JS er det mest kraftfulde programmeringssprog: Det er åbent, kører på alle klienter og der laves fantastiske apps. Men i virkeligheden er det det mindst kraftfulde sprog ud fra en programmørs synspunkt – til gengæld er det meget fleksibelt. Er det stadig nødvendigt at lave progressiv enhancement og sites uden JS her i 2013? Mobile browseres (samt tablets’) processorkraft er eksploderet langt mere end almindelige computeres. Derfor er Jeffs påstand at apps er overflødige om 2 år – netop fordi JS i kombination med en eksplosive udvikling i mobil processorkraft gør at web bliver det klare valg. Desuden er apps for vedligeholdelsestunge.

Herefter blev det nye forumsoftware Discourse gennemgået på det overordnede plan. Stack Overflow er kørt meget stramt, det er ikke tænkt som chat og diskussion, men mere som løsninger på konkrete problemer. Kun svar. Discourse endte med at blive udviklet med andre værktøjer og frameworks end Stack Overflow: Med node.js og javascript på både server og klient. Desuden Ruby på backenden og Ember.js i frontenden. jQuery er ifølge Jeff ikke nødvendigvis med i frontendframeworks nu og i fremtiden.

Der var overordnet 3 missioner med Discourse:

  1. Gå fra PHP til Ruby
  2. Gå fra HTML apps til Javascript apps
  3. Gå fra dårlig forumsoftware til god forumsoftware

Jeff mener desuden at fordi klientsoftware/JS efterhånden er så stort, udkonkurrerer det snart serverkoden. “Betting on the Rule of Least Power”: Den simpleste og dummeste løsning vinder (=Javascript).


App It Out Contest

AppItOut panelet

AppItOut panelet

Efter keynoten var det tid til at gennemgå finalisterne samt at finde en vinder i App It Out Contesten som var en konkurrence man kunne deltage i op til konferencen. De forskellige apps/sites (ja, apps som en generel betegnelse for et digitalt værktøj) blev gennemgået og grundlæggerne udfrittet af ekspertpanelet. Vinderen blev Cignal, et tool til at følge og forudsige aktiekurser baseret på brugergenereret data fra Twitter, matchet med rigtig aktiedata.


“First Person User Interfaces”
af Luke Wroblewski

Dette seminar var for mig et af de bedste og var perspektiverende, inspirerende og indsigtsgivende omkring brugergrænseflader. Luke W er forfatter til bogen “Mobile First” (http://www.abookapart.com/products/mobile-first) og er lidt af en UI-nørd.

Luke Wroblewski - First Person User Interfaces

Luke Wroblewski – First Person User Interfaces

UI er abstraktion: Det giver dig adgang til “computing capabilities” ved at abstrahere alt rodet væk. Oplægget gennemgik udviklingen i UI’et (og dermed udviklingen i abstraktionen fra de digitale kredsløb).

1: Hulkortet
Hulkortet var konceptuelt enkelt: Giv computeren input. Maskinen giver output tilbage. Programmøren skrev på en liste hvad programmet skulle kunne. En anden omsatte det til hulkort. Kortene blev derefter organiseret i stakke, smidt i maskinerne og svaret kom ud på papir. Her var der stor abstraktion til selve maskinen.

2: Kommandolinjen
Også kendt som CLI (Command Line Interface). Her er grænsefladen stadig meget abstraheret på trods for man dog har en mere direkte interaktion med maskinen i og med man inputter tekst via keyboardet. Man manipulerer dog stadig ikke direkte med elementer på skærmen.

3: Grafisk Interface
GUI’en. Her er manipulationen mere direkte gennem ikoner, kontroller og musen. GUI’et resulterede med en masse forbrugt tid på interaktion med UI komponenterne. GUI-paradigmet: Vinduer, ikoner, menuer og cursorer. Men til stadighed mindre abstraktion og dermed tættere forhold mellem input og output.

4: Naturlige brugerinterfaces (touch interfaces)
Udviklingen er mere og mere at indholdet bliver til interaktionen – interaktionen er mere direkte og bliver for alvor boostet med iPad’ens fremkomst. Der bliver færre ikoner, vinduer, menuer og cursorer. Brugeren interagerer med “guessable” fysiske og realistiske gestures. “Make use of skills learned through a lifetime of living”.

Der arbejdes mange steder nu med at gøre naturlige ting til multitouch-flader – altså at gøre interaktionen endnu mere direkte og naturlig: Borde, dørhåndtag og vand som eksempler: Ethvert husholdningsobjekt vil kunne laves til et interface. “Take advantage of a lifetime of living”. Videre til lyd og talegenkendelsesinteraktion (som fx både iOS og Android tager de første brugbare spadestik til). Her er interaktionen endnu mere direkte. Det nye produkt Leap Motion blev også nævnt – det gør at ikke-touch skærme kan få en mere direkte interaktion.

5: First Person User Interfaces
Nu går vi lidt mere i “fremtidsmode”: FPUI er næste logiske skridt efter de “Naturlige brugerinterfaces” og er ikke har fået sit gennembrud endnu. Der vil komme nye  inputmetoder. Steve Jobs sagde at ved hvert nyt interface skabes nye produkter og forretningsmodeller. Noget som indtil videre har holdt stik med først musen (som jo skabte grundlaget for Apple og senere Windows) og sidenhen med multitouch-interfaces (som jo har boostet hele smartphone-industrien og genopfundet Personal Computing). Karakteriserende for FPUI er at interaktionen er instant og relevant – brugeren behøver ikke “gøre noget”, men kan blot interagere digitalt med verden som de oplever den i øjeblikket: Objekter, lokationer og personer bliver til interaktive, netværksopkoblede elementer gennem forskellige sensorer (hvoraf nogen allerede findes på enheden i vores lomme): Lokationsdetektering, orientering, positionering og bevægelse, lyd, video og billede, opkobling, nærhedsdetektering, lysmåling, RFID læsere, multitouch, haptisk feedback, biometrik og pushnotifikationer. Luke ser 3 umiddelbare use cases på vej:

A: “Navigating the space around you”
Eksempler med helt direkte navigation blev vist – i 3D og med overlays. Indendørs navigation med ned til en meters præcision er på vej ved hjælp af en række forskellige sensorer på telefonen: Entry Point (GPS), retning via gyroskopet samt altimeter. Eksempler kunne være reorganisering af en indkøbsliste mens man går gennem butikken til det mere syrede: Ormehuller hvor man kan bruge sit device til at “slå hul” i virkeligheden og se rundt i fx butikker eller restauranter. Både Google med deres “laserfly” og Apple med deres nye kortsoftware, har muligheder for 3D-verdener – som jo så kunne kobles sammen med “ormehullet”.

B: “Augment your immediate surroundings”
Vi kender det lidt allerede fra fx Yelp, hvor man på sin telefon får overlays når man holder den op. Augmented reality er noget der er blevet snakket om i rigtig mange år, så selve tanken er ikke så ny. Med Augmented Reality bruger man position og orientering til at give brugeren relevant information. Jo mere direkte vej der er til “maskinen”, desto mere mening giver AR. Luke tog lidt tid til at gennemgå sin “usage curve” for elektronik, hvor al teknologi bevæger sig igennem forskellige stadier: “Emergent->Growth->Mature->Decline”. For nuværende befinder fx desktops og laptops sig på hvert deres sted på kurven, men langt henne mod decline. Smartphones og tablets ligger under growth, mens “wearables” ligger i “emergent” (fx de vedholdende rygter omkring et Apple-ur, som nok ville være naivt at tro blot er et ur). Den samme kurve kan bruges omkring User Interfaces, hvor GUI ligger i den modnede gruppe, de naturlige interfaces er ved at vækste, mens FPUI stadig ligger og bobler.

Luke W's usage curve. Kilde: lukew.com

Luke W’s usage curve. Kilde: lukew.com

C: “Interact with nearby objects, locations, or people”
Forskellige eksempler på apps blev vist, hvor man allerede nu fx kan holde sin telefon over elementer og få vist information om objektet (noget som den næste indlægsholder jeg skulle se drager stor nytte af), betale regninger (eller for den sags skyld betale med kreditkort), liveoversætte tekster/skilte mm. Her er interaktionen helt direkte og “first person”. Masser er eksisterende løsninger findes allerede. Af de lidt mere specielle (og som vist også kun findes i beta) var eksemplet med appen der blot ved at holde telefonen op foran et ansigt straks kunne finde navn og info om personen gennem sammenligning med taggede, offentlige billeder på sociale medier. Den grundlæggende problematik omkring den direkte interaktion lige nu er “small screen, big world”. RFID-tags (NFC) er også en af de ting der er ved at boble op – her kan elementer genkendes blot telefonen/enheden er i nærheden af dem. Herfra gik Luke videre til Google Glasses (som han naturligvis demonstrerede live). Interaktionen er nu uden hænder og helt direkte: Når brillen tages på, tændes den; ved hjælp af talekommandoer optog Luke video og billeder og bad om vejvisning.

First Person User Interfaces reducerer altså abstraktionen til maskinen yderligere ved at lade brugeren interagere digitalt med den virkelige verden som de oplever den i øjeblikket.


“From AI to Robots, From Apps to Wearables: Let’s Design for Everyone”
af Robin Christopherson

Dette seminar var lidt af en øjenåbner (no pun intended), da det først var da Robin gik i gang jeg fandt ud af at manden var blind og at oplægget dermed nok blev lidt anderledes end jeg havde forestillet mig.

Robin Christopherson

Robin Christopherson – From AI to Robots, From Apps to Wearables: Let’s Design for Everyone

Robin er “Head of Digital Inclusion” hos AbilityNet som hjælper brugere med forskellige begrænsninger til at få adgang til nettet. Oplægget havde naturligvis ikke så mange slides, men var fyldt med praktiske eksempler. Ifølge Robin er iPhonen – og de brugervenlighedsværktøjer der findes i den – revolutionerende for handicappede. iPhonen er “Rolls Roycen” for digital inklusion: Det inkluderende design er gennemført hele vejen på enheden og er tænkt ind fra starten.

Hvad skal en blind bruge et kamera til på telefonen? Dette spørgsmål blev gjort til skamme med demonstrationen af de forskellige apps der hjælper Robin i dagligdagen; fx et app til at genkende objekter ved hjælp af kameraet (jvf. First Person User Interfaces gennemgået i forrige session). Med iPhonens indbyggede voiceover-funktionalitet, kunne han dermed få oplysninger om ting lige foran ham blot ved at holde telefonen op foran dem. Flere velfungerende live-eksempler her. Det der næsten var det mest specielle ved dette værktøj er at appen slet ikke er beregnet til fx blinde, men fungerer så godt netop fordi iPhonen er så “accessibility-minded” i kernen. Hans pointe hermed var at vi som designere ikke skal tænke design som specielt accessibility-design eller noget som skal designes ekstra for at få handicappede med, men tænk blot på det som inkluderende design; så får eksempelvis blinde også noget ud af det. Vi er jo alle “handicappede” en gang i mellem – fx når vi kører bil eller har hænderne fulde og skal betjene telefonen.

Robin ser teknologier som Google Glasses som værende potentielt revolutionerende for handicappede: Forestil dig fx den døve person, der med Google Glasses på kan få untertekster på virkeligheden ved hjælp af talegenkendelse og overlay (her snakker vi da virkelig first person user interfaces). Eller hvad med autisten eller den blinde, der kan få hjælp til at afkode ansigtsudtryk direkte? Eller de automatiske biler der kan køre selv.

Robin rundede af med at sige at teknologien ændrer livet totalt for folk med ham selv som eksempel: Uden teknologien havde han ikke fået “det bedste job i verden”, som tvang ham til at flytte til den by hvor han bor nu – og hvor han mødte sin kone. Afslutningen var meget rørende, og Robin stod da også med tårer i øjnene da han fortalte sin historie og om at teknologien virkelig kan ændre folks liv.


“Iterating Awesomeness: Designing Value Through Measurable Outcome”
af “Michael Jovel”

Michael Jovel arbejder i det amerikanske forsvar (Department of Defence”) og har en baggrund som frontender. Oplægget var af noget overordnet karakter, og handlede om hvordan de i hans team har optimeret arbejdsgangene samt generelt snak omkring agile teams. Arbejdsgangene er tidligere ufrivilligt blevet arvet fra de traditionelle produktionslinjer med samlebånd og resulteret i de dengang mest benyttede “vandfaldsmodeller”, men hvor vi nu i høj grad benytter Scrum og agile teams.

Michael Jovel - Iterating Awesomeness

Michael Jovel – Iterating Awesomeness

Jeg vil ikke gå helt i detaljer med dette oplæg, men lidt som jeg også har kunnet se tendensen fra en række tidligere oplæg, har de haft gode erfaringer med at bruge papir og blyant (eller – igen – Paper til iPad) til at skitsere prototyper. Designe oplevelse i stedet for UI. Benytte style tiles og elementcollager i stedet for det traditionelle sidedesign.

Michael fortalte yderligere om teamstrukturen, tværfagligheden, gruppearbejdet og den fælles forståelse, som vist er mere revolutionerende tanker hos forsvarsministreriet (som jo traditionelt er ret topstyret) end hos det gennemsnitlige webbureau. Michael anbefalede “pair designing” (som modsvar til pair programming), er fortaler for brugertest og advarer imod at processen ikke skal overtage.


Keynote: “Why the Web Doesn’t Need Another CSS Zen Garden”
af Dave Shea

Jeg oplevede Dave på en session omkring mobile antipatterns i går, og han formår at afholde en spændende session. Dave Shea er ophavsmand til “CSS Zen Garden”, som de fleste frontendere/webdesignere med mere end en håndfuld år på den professionelle bag nok kan huske. Projektet gik ud på at skabe mere fokus på at benytte CSS til layout og design end de dengang meget tabel-baserede layouts der levede på nettet, samt at presse grænserne for brugen af CSS.

Dave Shea - Why the Web Doesn’t Need Another CSS Zen Garden

Dave Shea – Why the Web Doesn’t Need Another CSS Zen Garden

Keynoten var igen af mere perspektiverende karakter, hvor Dave lagde ud med en gennemgang af nettets historie og de (frontend-)udfordringer der har været gennem tiden og fra den ikke så fjerne fortid med browsermonopol og de problemer vi stadig lever med som følge deraf. Google har netop lanceret deres egen Blink-renderingsmotor, som har skabt lidt frygt i nettets kroge for nye monopollignende tilstande. Dave manede dog til besindighed og argumenterer for at nettets struktur og historie sørger for det ikke kommer til at ske igen.

Og hvad så med fremtiden? Mange nye og spændende tiltag er på vej i frontenden: Flex box-modellen, grid layouts, grid template layout, mulig column layouts, positionerede layouts, regions og css tables. Endelig kan vi (forhåbentlig) helt slippe for at “hacke” for at løse layoutudfordringerne. Vi arbejder med vektorbilleder, web fonte, high-DPI enheder og mobilt web.

I 2003 var webben sygt, men her i 2013 er det i en sund tilstand. Der er nu ikke brug for en CSS Zen Garden til at promovere nye teknologier. Alligevel bliver Dave på hver konference mødt med ønsker om at genåbne en moderne udgave af CSS Zen Garden. Og her på FI Live konferencen offentliggjorde han (ganske modsat keynotens oplæg) alligevel en ny Zen Garden, som bliver helt up to date med HTML5, CSS3, transitions, RWD mm. Så bliver det spændende at se om der alligevel kan skubbes lidt grænser – igen.


Leaving Las Vegas

Hermed sluttede den sidste dag i Future Insights Live 2013 konferencen i Las Vegas – en forrygende uge med inspirerende, lærende og perspektiverende sessions og workshops. Jeg har fået rigtig mange gode inputs, fået hjælp til bedre at kunne forholde mig til en masse af de problematikker og udfordringer vi oplever i dagligdagen, en masse ny viden og information omkring de seneste trends samt en lyst og inspiration til at føre det videre ud i vores projekter.

Vegas collage

It’s a crazy town: Springvand foran Bellagio, vulkanudbrud ved The Mirage, Gondoler ved The Venetian, Frihedsgudinden ved New York, New York samt Eiffeltårnet ved Paris-Las Vegas.

Skriv et svar

Udfyld dine oplysninger nedenfor eller klik på et ikon for at logge ind:

WordPress.com Logo

Du kommenterer med din WordPress.com konto. Log Out / Skift )

Twitter picture

Du kommenterer med din Twitter konto. Log Out / Skift )

Facebook photo

Du kommenterer med din Facebook konto. Log Out / Skift )

Google+ photo

Du kommenterer med din Google+ konto. Log Out / Skift )

Connecting to %s