Så går det till

MUM – Googles nya storsatsning för informationssökning

En ny AI-milstolpe för att förstå information”. Så beskriver Google sin nya funktion MUM, och vi kan bara hålla med. Google är störst av en anledning, och deras innovativa funktioner för att optimera deras användares sökningar är en av dessa. Nytt för i år är AI-modellen MUM, som vi kommer gå igenom i detta inlägg.

Multitaskande språkexpert at your service

MUM, som står för Multitask Unified Model, är utformad för att ge sina användare maximalt resultat av information och kunskap när de gör sökningar. Även om föregångaren BERT (även det en AI-modell) troligtvis upplevs tillräckligt bra av de flesta är MUM något vi tidigare inte sett. Enligt Google är nämligen MUM 1000 (!) gånger mer kraftfull än dess föregångare. Frågan som många ställt sig sedan Google först började hinta om sin nya AI-modell har dock framförallt varit; vad är egentligen skillnaden mot BERT?

Den absolut största skillnaden mot föregångaren, enligt Google själva, är att MUM tar del av invecklad kunskap i betydligt större utsträckning än tidigare. Eftersom den är multimodal kan MUM ta del av olika typer av information på samma gång – allt från texter i artiklar eller på hemsidor till information som ges i bilder och i videos.

Dessutom är MUM programmerad att förstå över 75 språk, vilket gör att sökningar på t ex engelska inte bara får upp träffar på artiklar skrivna på engelska utan även på t ex japanska. Idag får du upp träffar på det språk du söker på, vilket gör att MUM suddar ut gränser som aldrig förr. Det särskilt innovativa i denna kontext är att dessa japanska artiklar dessutom blir automatiskt översatta till det språket du använder när du söker. På det sättet kan sökningar som görs på svenska – om t ex en plats i Japan – få ännu mer utförlig information direkt från japanska källor, fast på svenska. Wow. Hejdå språkbarriärer!

Få sökträffar från ursprungslandet, översatta till ditt språk. Källa: Google

Fråga Google istället för en mänsklig expert

För att förklara hur MUM kommer kunna hjälpa användare att navigera på nätet, och komma med ännu fler relevanta förslag på det de har sökt på, tar Google upp ett exempel på en person som vill bestiga Mt Fuji i Japan. Denna person har tidigare bestigit Mt Adams i USA och vill nu veta vad som skiljer bergen åt, och vad man ska tänka på denna gång.

Istället för att söka på enstaka ord kopplade till det användaren undrar vill nu Google att man ska kunna ställa frågor som om man frågade och pratade med en mänsklig expert. Frågan blir i detta fall “Jag har bestigit Mt Adams och vill nu bestiga Mt Fuji nästa höst, vad ska jag göra annorlunda för att förbereda mig?”

Med hjälp av MUM:s nya sätt att förstå språk, och sättet den kan söka multimodalt på olika texter, bilder och videos – SAMTIDIGT – kommer användaren få upp sökresultat som matchar frågan på pricken, och lite till om den vill det. Här tar MUM dessutom steget längre och inkluderar sökningar som matchar specifika ord i sökningen, såsom “förbereda”. Användaren kan då få upp förslag på t ex produkter som kan användas under en hikingtur på hösten, i just det klimat som Mt Fuji finns i. Användaren kan även få upp förslag på översatta artiklar kopplade till hiking i området, oavsett originalspråk, och andra produkter som kan relateras till aktiviteten.

Exempel på fråga användare kan ställa Google (vänster) och svar från Google (höger). Källa: Checkout Tech

Ladda upp en bild och en fråga – få svar

En annan funktion, som vi tror kommer att bli uppskattad av användarna, är bild+fråga = svar. MUM tillåter nämligen användarna att ladda upp en bild tillsammans med en fråga, och tack vare MUM:s multimodalitet kommer systemet kunna urskilja både bilden och frågan, och sedan koppla samman dessa till ett (eller flera) svar tillsammans med förslag på t ex relaterade produkter, tjänster eller platser.

Låt oss sätta denna nya funktion i ett vardagsperspektiv genom att lyfta Googles eget exempel med klädmönster. Föreställ dig att du har en blommig skjorta i garderoben, och du vill matcha denna med ett par strumpor. Du kan då ta en bild på skjortan tillsammans med meningen ”Strumpor med det här mönstret” och få förslag på produkter som matchar din sökning. Voila! Har du en cykel som behöver lagas kan du istället ta en bild på reservdelen du letar efter och låta Google ta fram namnet på reservdelen, återförsäljare av reservdelen eller annat relaterat. Smidigt, enkelt och tidssparande deluxe!

Ladda upp en bild och skriv vad du söker efter, få förslag från Google. Källa: Google

Upptäcka, utforska och inspireras i nya Google Sök

Som om inte de funktioner vi listat ovanför inte var tillräckliga – även Google Sök kommer genomgå en rejäl makeover. Här kommer det bland annat bli lättare för användarna att upptäcka och utforska nya ämnen, där sökresultaten baseras på vad andra användare sökt på, och visar de resultat som användare generellt brukar klicka på först. Denna förbättrade söksida fokuserar framförallt på att inspirera användarna och kommer därför visa fler sökresultat i form av bilder, videos och artiklar.

Ny söksida med fokus på inspiration. Källa: Google

Med MUM:s multimodiala AI-verktyg kommer användare även ges möjlighet att utforska objekt, platser och annat som syns i videos de har tittat på. Till skillnad från den AI-teknik som används idag, som trots allt är relativt avancerad, kommer MUM t ex känna igen vilket djurart som syns i en viss video, enbart baserat på det visuella, och utifrån det presentera mer information kopplad till just den djurarten för användaren.

MUM kommer att genomgå flera tester innan den lanseras i sin helhet men redan nu är vissa funktioner live, såsom visuella sökresultat. Vi ser fram emot slutresultatet!

Vill du veta mer om vad Google kan göra för ditt företag, eller vad du kan göra med Google?