Hjemmeside » UI / UX » 8 Next Generation Brugergrænseflade, der er (næsten) her

    8 Next Generation Brugergrænseflade, der er (næsten) her

    Når vi taler om brugergrænsefladen (brugergrænseflade) i databehandling henviser vi til hvordan et computerprogram eller system repræsenterer sig for brugeren, normalt via grafik, tekst og lyd. Vi er alle bekendte med det typiske Windows- og Apple-operativsystem, hvor vi interagerer med ikoner på vores skrivebord med vores musemarkører. Før det havde vi den gamle skole tekstbaserede kommandolinjeprompt.

    Skiftet fra tekst til grafik var et stort spring igangsat af Steve Jobs, grundlæggeren af ​​Apple, med sit kendetegnende Macintosh-operativsystem i 1984. I de senere år har vi også været vidne til nyskabende brugergrænseflader, der involverede brug af berøring (f.eks. Smartphones) stemme (f.eks. Siri) og selvbevægelser (f.eks. Microsoft Kinect). De er dog temmelig meget i deres primære udviklingsstadier.

    Ikke desto mindre giver de os en anelse om, hvordan den næste UI-revolution kan være. Nysgerrig? Her er 8 nøglefunktioner af, hvad næste generations brugergrænsefladen måske vil være som:

    1. Gesture Interfaces

    Sci-fi-filmen fra 2002, Minority Report skildrede en fremtid, hvor interaktioner med computersystemer primært er ved brug af bevægelser. Tom Cruise, hovedpersonen, bærer et par futuristiske handsker, der udfører forskellige bevægelser med sine hænder til at manipulere billeder, videoer, datablade på hans computersystem.

    For et årti siden kan det virke lidt fjernet at have en sådan brugergrænseflade, hvor rumlige bevægelser opdages så problemfrit. I dag, med fremkomsten af ​​bevægelsesfølsomme enheder som Wii Remote i 2006, Kinect og PlayStation Move i 2010, kan fremtidens brugergrænseflader bare være på vej i den retning.

    Ved gestegenkendelse kommer indgangen i form af hånd eller anden kropslig bevægelse til at udføre computeropgaver, som til dato stadig indlæses via enhed, berøringsskærm eller stemme. Det Tilsætning af z-aksen til vores eksisterende todimensionale brugergrænseflade vil uden tvivl forbedre den menneskelige computer interaktion oplevelse. Forestil dig, hvor mange flere funktioner der kan kortlægges til vores kropsbevægelser.

    Nå, her er en demo-video af g-talk, en prototype af computerinterfacet, der ses i Minority Report, designet af John Underkoffler, som faktisk var filmens videnskabsrådgiver. Se hvordan han navigerer gennem tusindvis af billeder i et 3D-plan gennem sine håndbevægelser og samarbejder med andre 'hånd-gesturers' om holdopgaver. Begejstret? Underkoffler mener, at et sådant brugerinterface vil være kommercielt tilgængeligt inden for de næste fem år.

    2. Brain-Computer Interface

    Vores hjerne genererer alle slags elektriske signaler med vores tanker, så meget det hver specifik tankegang har sin egen hjernebølge mønster. Disse Unikke elektriske signaler kan kortlægges til at udføre specifikke kommandoer så at tænke tanken faktisk kan udføre den indstillede kommando.

    I et EPOC neuroheadset skabt af Tan Le, medstifter og præsident for Emotiv Lifescience, skal brugerne donere futuristisk headset, der opdager deres hjernebølger genereret af deres tanker.

    Som du kan se fra denne demovideo, er kommandoen, der udføres af tanken, temmelig primitiv (dvs. trækker terningen mod brugeren) og alligevel synes detektionen at være udsat for nogle vanskeligheder. Det ser ud til, at denne brugergruppe kan tage et stykke tid for at blive tilstrækkeligt udviklet.

    Under alle omstændigheder forestille en (fjern) fremtid hvor man kunne drive computersystemer med tanker alene. Fra begrebet "smart home", hvor man kunne tænde og slukke lys uden at skulle træde ud af din seng om morgenen, til tanken om at fordybe dig i en ultimativ spiloplevelse som svar på dit humør (via hjernebølger) Potentialet for sådan en fantastisk brugergrænseflade er praktisk talt ubegrænset.

    3. Fleksibel OLED-skærm

    Hvis berøringsskærme på smartphones er stive og stadig ikke modtagelige nok til dine kommandoer, så er du muligvis først i kø for at prøve fleksible OLED-displays (organiske lysdioder). OLED er en organisk halvleder, der stadig kan vise lys selv når det rulles eller strækkes. Stik det på et plastikbøjeligt substrat, og du har en helt ny og mindre stiv smartphone skærm.

    Desuden kan disse nye skærme snoet, bøjes eller foldes til at interagere med computersystemet indenfor. Bøj telefonen for at zoome ind og ud, drej et hjørne for at dreje lydstyrken op, drej det andet hjørne for at skrue det ned, vride begge sider for at rulle gennem fotos og mere.

    Sådan fleksibel brugergrænseflade gør det muligt for os Naturligvis interagere med smartphone, selvom vores hænder er for optaget af at bruge touchscreen. Dette kan godt være svaret på følsomheden (eller manglen deraf) af smartphone skærme mod gloved fingre eller når fingrene er for store til at nå de rigtige knapper. Med dette brugergrænseflade er alt hvad du skal gøre, at klemme telefonen med din håndflade for at hente et opkald.

    4. Augmented Reality (AR)

    Vi oplever allerede AR på nogle af vores smartphone apps som Wikitude, men det er temmelig meget på dets elementære udviklingsstadier. AR får den største stigning i bevidsthed via det kommende Googles Project Glass, et par bærbare briller, der tillader en til se virtuelle udvidelser af virkeligheden, som du kan interagere med. Her er en fantastisk demonstration af hvad man kan forvente.

    AR kan være på andet end briller, så længe enheden er i stand til interagere med et virkeligt miljø i realtid. Billede et gennemsigtigt apparat, som du kan holde over objekter, bygninger og dine omgivelser for at give dig nyttige oplysninger. For eksempel når du kommer på tværs af et fremmed skilt, kan du se gennem glasenheden for at se dem oversat til din nemme læsning.

    AR kan også gøre brug af dit naturlige miljø til at skabe mobile brugergrænseflader, hvor du kan interagere med ved at projicere skærme på vægge og endda dine egne hænder.

    Se, hvordan det er gjort med SixthSense, en prototype af en bærbar gestural interface udviklet af MIT, der udnytter AR.

    5. Voice User Interface (VUI)

    Siden 'Schmidt That' 'video præsentation af Chris Schmandt i 1979 har talegjenkendelse endnu ikke fundet sted med en revolutionerende form for succes. Den nyeste hype over VUI skal være Siri, en personlig assistent ansøgning, der er indarbejdet i Apples iOS. Det bruger en naturlig sprog brugergrænseflade til sin stemmegenkendelse funktion til at udføre opgaver udelukkende på Apple-enheder.

    Men du ser det også som den understøttende handling i andre brugergrænsefladeteknologier som Google Glass selv. Glas arbejder stort set som en smartphone, kun du behøver ikke at holde det op og interagere med det med dine fingre. I stedet er det klæber til dig som briller og modtager dine kommandoer via talestyring.

    Det eneste der mangler nu i VUI er pålidelighed ved at anerkende, hvad du siger. Perfekt det, og det bliver indarbejdet i fremtidens brugergrænseflader. Med den hastighed, at smartphones kapaciteter udvider og udvikler nu, er det bare et spørgsmål om tid, før VUI tager det centrale stadium som primære form for human-computer interaktion til ethvert computersystem.

    6. Tangible User Interface (TUI)

    Forestil dig at have et edb-system Sikrer det fysiske miljø med det digitale rige for at muliggøre genkendelse af virkelige verdensobjekter. I Microsoft Pixelsense (tidligere kendt som Surface) kan den interaktive databehandling genkende og identificere objekter, der er placeret på skærmen.

    I Microsoft Surface 1.0, Lys fra objekter afspejles i flere infrarøde kameraer. Dette tillader systemet at fange og reagere på de emner, der er placeret på skærmen.

    I en avanceret version af teknologien (Samsung SUR40 med Microsoft PixelSense) indeholder skærmen sensorer, i stedet for kameraer til at opdage, hvad der berører skærmen. På denne overflade kan du lave digitale malerier med pensler baseret på indtastningen fra den faktiske børstetip.

    Systemet er også programmeret til at genkende størrelser og former og at interagere med indlejrede tags f.eks. Et mærket navnekort anbragt på skærmen viser kortets oplysninger. Smartphones placeret på overfladerne kan udløse systemet til at vise billederne i telefonens galleri på skærmen problemfrit.

    7. Slidbar computer

    Som navnet antyder, er bærbare computere Elektroniske enheder, som du kan bære på dig som et tilbehør eller beklædning. Det kan være et par handsker, briller, et ur eller endda en dragt. Nøglefunktionen i bærbar brugergrænseflade er, at den skal Hold dine hænder fri og vil ikke hindre dine daglige aktiviteter. Det vil med andre ord tjene som en sekundær aktivitet til dig, når du ønsker at få adgang til det.

    Tænk på det som at have et ur, der kan fungere som en smartphone. Sony har allerede udgivet en Android-powered SmartWatch tidligere i år, der kan parres med din Android-telefon via Bluetooth. Det kan give meddelelser om nye e-mails og tweets. Som med alle smartphones kan du downloade kompatible apps til Sony SmartWatch for nem adgang.

    Forvent mere brugbare brugergrænseflader i den nærmeste fremtid, da mikrochips med smarte egenskaber vokser nano-mindre og monteres i hverdagen.

    8. Sensor Network User Interface (SNUI)

    Her er et eksempel på et fluid UI, hvor du har flere kompakte fliser, der består af farve LCD-skærme, indbyggede accelerometre og IrDA infrarøde transceivere, der er i stand til at interagere med hinanden, når de placeres i umiddelbar nærhed. Lad os gøre det simpelt. Det er som Scrabble fliser, der har skærmbilleder, som vil ændre sig til at afspejle data, når de placeres ved siden af ​​hinanden.

    Som du skal se i denne demo-video af Siftables, kan brugerne fysisk interagere med fliserne ved at vippe, ryste, løfte og bumpe det med andre lignende fliser. Disse fliser kan tjene som en meget interaktiv læringsværktøj til små børn, der kan modtage øjeblikkelige reaktioner på deres handlinger.

    SNUI er også fantastisk til enkle puslespil, hvor gameplay omfatter skiftende og roterende fliser at vinde. Så er der også evnen til sorter billeder fysisk ved at gruppere disse fliser sammen i henhold til dine præferencer. Det er en mere crowd-aktiveret TUI; I stedet for en skærm er den lavet af flere mindre skærmbilleder, der interagerer med hinanden.

    Mest forventede brugerinterface?

    Da disse brugergrænseflader bliver mere intuitive og naturlige for den nye generation af brugere, behandles vi med en mere fordybende computeroplevelse, som løbende vil teste vores evne til at fordøje oversvømmelsen af ​​viden, de skal dele. Det vil være overvældende og til tider spændende, og det er helt sikkert noget at se frem til i nye teknologier.

    Mere!

    Er du interesseret i at se, hvad fremtiden har på lager for os? Tjek nedenstående links.

    • 5 Top Augmented Reality Apps til uddannelse
    • 5 nøglefunktioner, der kan forventes i fremtidige smartphones
    • Jaw-dropping TED-videoer, du bør ikke gå glip af

    Hvilke af disse fantastiske brugergrænseflader er du mest begejstrede for? Eller har du andre ideer til brugergrænsefladen til næste gener? Del dine tanker her i kommentarerne.