Hvad ville det sige? Hvilken stemme ville det have? Spørgsmålene bliver afgørende, når vi inden for de kommende år vil se meget mere til stemmebaseret teknologi. I 2020 ventes halvdelen af alle onlinesøgninger at blive foretaget med stemmeteknologi (ComScore), og teknologien vil gøre indtog på mange af de interaktioner, som vi i dag foretager ved at trykke på en skærm. Mindshare har sammen med JWT Innovation Group udarbejdet et omfattende studie af, hvordan stemmeinteraktion påvirker vores hjerne, og hvilken betydning udviklingen får for brands. 

Brugen af stemmeteknologi ventes at stige markant de kommende år. Den vil betyde store ændringer for vores hverdag, og således også forandre vores interaktioner med brands. Spørgsmålet om, hvilken rolle dit brand skal have i forbrugernes stemmestyrede hverdag, er derfor meget aktuelt.

Derfor har Mindshare i samarbejde med J. Walter Thompson Innovation Group gennemført et omfattende globalt researcharbejde om stemmeteknologi, og hvad teknologien betyder for brands. Indsigterne er blandt andet baseret på helt ny neuroscience research i, hvordan hjernen reagerer på stemmebaseret interaktion, udført i samarbejde med eksperterne i Neuro-Insight. Der er desuden lavet både kvalitative og kvantitative forbrugerundersøgelser i 9 forskellige lande på 3 kontinenter.

I dette blogindlæg afslører jeg resultaterne, som du selv kan læse mere om i rapporten Speak Easy.


Early adopters finder det helt naturligt
I dag har blot 7% af danskerne taget stemmebaseret teknologi i brug i deres dagligdag (Connected Life 2016). Størst penetration ses blandt mænd mellem 35-50 år, hvor 16% bruger teknologien mindst ugentligt. I Danmark er vi endnu ikke så langt med udbredelsen som i andre lande. På tværs af de 9 markeder, som indgår i Speak Easy studiet, bruger 31% teknologien mindst ugentligt. Her er affiniteten også høj blandt yngre mænd med indkomster over gennemsnittet, som svarer til profilen på en typisk early adopter.

Den mest udbredte aktivitet for brugen af stemmebaseret teknologi er onlinesøgninger. Ifølge Google foretages 20% af alle søgninger på Android i USA via tale, mens ComScore estimerer, at halvdelen af alle onlinesøgninger vil blive foretaget med stemmeteknologi allerede i år 2020.

Penetrationen vil stige efterhånden som flere brugbare funktioner lanceres. I Speak Easy studiet svarer 69% af forbrugerne på globalt plan, at de er interesserede i udsigten til stemmeaktiverede tv, 66% er interesserede i lyskontakter, mens 45% kan se sig selv chatte med deres venner via tale. Forbrugerne lader til hurtigt at kunne sætte sig udover en potentiel akavethed. 71% af dem, der i dag bruger stemmeteknologi ugentligt, siger at det nu føles naturligt at tale med teknologi.


Machine learning bliver nøglen til udbredelse
Indtil nu er typen af interaktioner relativt simple, såsom ”Siri, hvad tid kommer der sol i dag?”. Meget mere kompleks er de digitale assistenters opgaveløsning endnu ikke, hvilket også afspejles i brugernes nuværende tillid til de deres kompetence og fejlfrihed. 71% af brugerne oplever, at de selv må tjekke efter på skærmen, når de bruger assistenterne, fordi de ikke kan stole på, at deres instrukser bliver fulgt korrekt alene via tale. Netop teknologiens fejlmargin er formentlig den primære forklaring bag den lave penetration i Danmark, idet teknologien er udviklet med det amerikanske marked for øje og har svært ved at forstå sproglige finesser, accenter og sproglig kontekst i andre kulturer. Det er helt nødvendigt for, at danskerne kan se pointen i at bruge stemmeteknologi til at løse opgaver i hverdagen.

I Speak Easy studiet er 74% af alle forbrugere enige i udsagnet ”hvis stemmeaktiverede assistenter kunne forstå mig rigtigt og svare mig ligesom et menneske kan, ville jeg bruge dem hele tiden”. Med udviklingen i machine learning forbedres teknologierne dag for dag. De sidste 5 år har Google via machine learning forbedret sin fejlmargin med over 30%. Det lyder måske ikke banebrydende, men som tidligere chefforsker hos Baidu (Googles kinesiske pendant) udtaler: ”A lot of people underestimate the difference between 95% and 99% accuracy in speech recognition… it’s the difference between you hardly using it and using it all the time without thinking about it”.

De digitale assistenter bliver hurtigt bedre til at forstå, hvordan vi kommunikerer med hinanden på inden for forskellige sprogkulturer, og vil desuden lære vores personlige vaner og præferencer at kende. Samtidig kommer der stadigt flere funktioner, herunder muligheder for at aktivere stadigt flere af de apps og digitale services, som vi bruger lokalt.


Perfekte æg og nyhedsoplæsning uden et eneste kig på mobilen

 Mød de førende digitale butlere

Amazon
lancerede i 2014 sin Echo højtaler til hjemmet med den virtuelle assistent Alexa indbygget. Alexa kan facilitere skills på vegne af andre brands, der fungerer lidt som apps på din smartphone – f.eks. “Ask Uber to get me a car”. Amazons styrke ligger særligt i forståelsen af brugernes shoppeadfærd.

Apple har siden 2011 haft sin virtuelle assistent Siri indbygget i iPhonen, og senest i Apple Watch og AirPods. Så sent som i juni 2017 annoncerede Apple den nye HomePod højtaler, markedsført som en “smart” musikafspiller med høj lydkvalitet og fordelen af det velkendte og sofistikerede Apple-design.

Google lancerede i 2016 Home højtaleren som pendant til Amazons Echo. På Home interagerer man med den virtuelle Google Assistant, som allerede bruges af millioner via mobilappen Allo. Googles styrke ligger i viden om brugernes søgeadfærd.

Forestil dig det her. Det er mandag morgen, alarmen ringer tidligt, og du slentrer døsig ud under bruseren. ”Hey Google, afspil Get Lucky med Daft Punk”. Dit favoritnummer lige nu går i gang, og du vågner langsomt op. ”Okay Google, afspil næste sang”, siger din kæreste, idet hun indtager spejlet. I køkkenet sætter du æg over, ”Hey Google, sæt en alarm til 6 minutter og 30 sekunder”. Da der kun er ét æg tilbage i køleskabet, beder du også Google om at tilføje æg til jeres fælles indkøbsliste. Hvis det var weekend, ville du måske spørge, hvordan man laver en omelet med ost, og Google ville guide dig trin-for-trin: ”Omelet med ost til 2 personer, slå fire æg ud i en skål…”. I dag nøjes du med at bede om forslag til aftensmaden.

Din kæreste er nu også nået til morgenbordet. ”Okay Google, hvad er de vigtigste nyheder i dag?”, og efter at Google har læst dem op for jer, begynder I at tænke på dagen forude. ”Hey Google, hvad er første møde i min kalender i dag?” og måske ”Okay Google, hvad tid skal jeg køre fra arbejde for at være hjemme kl. 18?”, hvor I har aftalt at mødes senere. En hel morgen uden et eneste kig på din mobil.

Det er virkeligheden for min kollega Baltazar Ozonek, som er Head of Marketing Technology i GroupM og så fascineret af ny teknologi, at han har anskaffet sig en Google Home, som allerede er blevet en helt intuitiv del af hverdagen. Indtil nu taler han til den på engelsk, og mulighederne er ikke helt så mange som i USA, hvor den er koblet til langt flere services, som f.eks. Dominos og Uber. Men begejstringen er alligevel stor, for der er allerede rigtig mange ting, der kan løses med en henkastet bemærkning til Google uden at skulle trykke rundt på mobilen. Og det gælder også for besøgende, der har set teknologien in action – både de teknologinørdede kollegaer, venner og sågar svigerforældre ønsker sig nu et eksemplar derhjemme.


Stemmeteknologi er magi, vi snart ikke vil leve uden
I Speak Easy studiet siger de amerikanske early adopters af stemmeteknologien, at de ikke ville leve uden Alexa (Amazons digitale assistent), og at ”hun” er blevet en helt integreret del af deres daglige rutiner. Teknologien ventes at vinde frem, fordi det grundlæggende er en mere intuitiv måde for os mennesker at interagere på. Netop det faktum, at interaktion via tale er hurtigere end at taste ordene angives af flest som den primære årsag til, at de anvender teknologien (45%).

Studiets neuroscience research undersøgte blandt andet, hvordan hjernen responderer på stemmeinteraktion sammenlignet med berøring eller tastning. Resultaterne viste, at respondenterne havde betydeligt lavere hjerneaktivitet, når de udførte opgaver ved at tale til Alexa end ved at trykke rundt på en iPad. At tale er således mindre mentalt krævende end at bruge en skærm.

      Resultater fra Speak Easy – neuroscience research

Eftersom vores hjerne i reglen er doven og søger shortcuts, når det er muligt, er stemmeteknologi født til at blive en succes. Dem der har prøvet teknologien er vilde med den, fordi interaktionen bliver mindre forstyrrende og sker hurtigere og uden aktiv indsats. ”It feels like magic”, som én af testdeltagerne formulerer det. Tænker vi tilbage på 2010, havde kun 16% af danskerne en smartphone (Mindshare Reklameanalysen 2010), som nu har fået så stor indvirkning på vores hverdag, at 65% af alle danskere i dag er enige i, at mobilteknologi har gjort deres hverdag nemmere (Mindshare Mindreader 2016). Om 10 år vil ligeså mange formentlig sige det samme om stemmeteknologi.

En afledt gevinst vil være frigørelsen af noget af den tid, som i dag bruges foran skærme. Jeg har i et tidligere blogindlæg skrevet om, at vi i dag bruger knap 11 timer om dagen foran en skærm (Nielsen, 2016). Tid, som vi ellers kunne have brugt på andre aktiviteter. Uden endnu at have taget stemmeteknologien til sig, er 53% af forbrugerne på globalt plan enige i, at teknologien vil hjælpe mennesker til at interagere mere med hinanden, idet de ikke hele tiden vil kigge ind i en skærm. Utopisk måske, men ikke desto mindre kan det motivere lidt ekstra til at kaste sig ud i den nye teknologi.


En fysisk stemme forstærker emotionelle brandassociationer
Stemmeteknologi vil ikke kun gøre vores hverdag lettere. Den vil også skabe en mere meningsfuld relation mellem mennesker og brands, når en fysisk stemme tilfører en ekstra dimension til et brand’s image. Neuroscience studiet viste, at der sker en betydeligt stærkere emotionel reaktion i hjernen, når vi laver en stemmesøgning som indeholder et brandnavn sammenlignet med at taste samme spørgsmål ind på en skærm. Med andre ord forstærkes de eksisterende emotionelle associationer til brandet i langt højere grad, når vi siger det højt, end når vi taster det.

Det understreger behovet for at skabe en stemme, som bygger på brandets personlighed. Hvordan lyder dit brand, og i hvilket sprog vil det kommunikere med målgruppen? I Speak Easy studiet svarer 74% af de nuværende brugere af stemmeteknologi, at brands bør have unikke stemmer og personligheder til deres stemmeaktiverede services. Studiet viser samtidig, at mange forbrugere allerede har en opfattelse af, hvordan bestemte brands lyder baseret på deres øvrige associationer til dem.

En personlig stemme kan hjælpe med at gøre brandet mere menneskeligt. 4 ud af 10 af brugerne af stemmeteknologi erkender, at de elsker deres Alexa eller anden digitale assistent så meget, at de ville ønske det var en virkelig person. Endnu mere interessant er det, at den emotionelle reaktion målt overfor Alexa i neuroscience studiet steg i takt med, at deltagerne blev mere komfortable med at snakke med ”hende”. Dette på trods af, at Alexa stadig lyder meget robotagtig og med tiden vil få en langt mere menneskelig stemme. På sigt kan et brand’s fysiske stemme således bruges som værktøj til at styrke relationen mellem brandet og forbrugerne.


Muligheder og udfordringer for brands
Stemmeaktiveret teknologi har et enormt potentiale for brands, der ligger langt udover onlinesøgninger. For producenter giver det god mening at tænke teknologien ind i produkter og koncepter. Ford og flere andre bilproducenter arbejder eksempelvis med stemmebaserede egenskaber som en del af produktudviklingen. Funktioner der dækker et reelt behov for at kunne multitaske og samtidig holde hænderne på rattet. Et andet eksempel er legetøjsproducenten Mattel, der har udviklet næste generation af babyalarmen i form af en digital babysitter.

Der er også gode muligheder inden for stemmeaktiverede services. My Starbucks er et eksempel på det – en app til iPhone og Amazon Echo med ægte baristaviden, der giver forbrugerne mulighed for at afgive deres ordre blot ved at snakke ind i deres smartphone. Appen HelloGbye er et andet godt eksempel, der har tilsat stemmeinteraktion til en såkaldt chatbot, som du kan læse mere om i dette blogindlæg. Den er udviklet i samarbejde med American Express og guider brugerne til passende fly- og hotelmuligheder, når de fortæller dato, sted og antal rejsende for en ønsket tur. Det er også muligt at bruge teknologien ved begivenheder og events, som museet Pinacoteca de São Paulo i Brasilien gjorde, da det i samarbejde med IBM Watson lod museumsgæsterne interagere med kunstværkerne.

Eksempler på virksomheders brug af stemmebaseret teknologi

Tre vigtige nøgleord, der går igen i disse vellykkede cases, er brugbart, simpelt og intuitivt.

Brands står til gengæld overfor en udfordring, når det kommer til de digitale ”butlere”, som ventes at udgøre en stor andel af fremtidens stemmebaserede interaktioner (Apples Siri, Google Home, Amazons Alexa). Disse assistenter bliver stadig mere intelligente, og vil i fremtiden blive mere proaktive i forhold til notifikationer, forslag og anbefalinger, ligesom de vil spille en vigtig rolle i at opstille og indsnævre valgmuligheder for brugerne baseret på deres behov og præferencer. Der er ikke udsigt til, at butlerne vil lade brugerne interagere med brands direkte. Markedsfører må derfor tænke over, hvordan deres brands bliver anbefalet til de rigtige brugere fremfor konkurrenternes, hvordan de kan skabe indhold der let tilgås med brug af stemmen, og hvordan de fortsat kan tiltrække målgruppens opmærksomhed i en verden af internet of things.


Baggrund
Rapporten Speak Easy er udarbejdet i et samarbejde mellem Mindshare Futures og J. Walter Thompson Innovation Group London. Research er indsamlet i perioden januar til juni 2017 ud fra en række forskellige metoder og på tværs af 9 markeder og 3 kontinenter (UK, USA, Tyskland, Spanien, Japan, Australien, Kina og Singapore). I et samarbejde med Neuro-Insight anvendtes Steady-State Typografi (SST) hjerneteknologi til at måle, hvordan hjernen responderer på stemmeinteraktion sammenlignet med skrift og tastning for en række aktiviteter. 102 personer i alderen 18-65 år deltog i eksperimentet. Herudover består datamaterialet af længerevarende kvalitative forløb med testdeltagere, ekspertinterviews, flere kvantitative studier med i alt 6.780 respondenter på tværs af 9 markeder, og omfattende desk research.

For mere information om Speak Easy rapporten og studiernes resultater, kan du kontakte Camilla Wrang, Business Planning Manager, Analysebureau Mindshare.