Que-puede-hacer-Motion-Sense-basado-en-Project-Soli-de-Google

Kan Motion Sense radikalt ändra hur du interagerar med din smartphone?

Generellt sett har Google generation efter generation Pixel-enheter haft en stor toppram, men i den fjärde iterationen verkar det vara motiverat. Företaget har avslöjat det kommer att ha avancerad 3D ansiktslåsning samt Motion Sense, baserat på Soli-projektet.

Efter några läckor som visade skyddsglaset på Pixel 4 kunde vi se en hel del nedskärningar som vi inte visste vad det handlade om. Nu vet vi vad det handlar om och det kan revolutionera navigeringen av gränssnittet för Pixel-telefoner.

Allt som Motion Sense kan göra baserat på Project Soli

I den nya Google-enheten kommer det att finnas en plattform som ansvarar för gestigenkänning som bara hittills har visats som en prototyp, och Google har bekräftat att de kommer att använda den under det officiella namnet Motion Sense. Chipet som gör detta möjligt kallas “Soli” och använder “en ny avkänningsteknik som använder miniatyrradar för att upptäcka kontaktlösa gestinteraktioner.”

Detta liknar mycket vad LG presenterade för några månader sedaneftersom vi kunde kontrollera vissa aspekter genom gester utan att behöva röra vid skärmen. Även om det inte kände igen gester särskilt bra genom den främre kameran med 3D-detektering i G8 ThinQ, har Google arbetat med denna teknik i flera år och det verkar som om det är redo för korrekt implementering.

Radar-Project-Soli-Google

Företaget som ansvarar för tekniken för Soli-chipet, har gjort det möjligt att inkludera den i en smartphone tack vare avsevärd minskning av denna 3D-igenkänningsmodul. Chipet är lika litet som en rosa nagel, men det kan upptäcka små rörelser med stor precision.

Det fungerar på samma princip som stora flygradar som upptäcker flygplanets rörelser på himlen, varför FCC förnekade genomförandet fram till den 31 december 2018:

”Genom denna order beviljar vi en begäran från Google, LLC (Google) om undantag från avsnitt 15.255 (c) (3) 2 i reglerna för kortdistansinteraktiva rörelsedetekteringsenheter, i enlighet med parametrarna inrättat på Google-Facebook gemensamt inlämnande, för att möjliggöra certifiering och kommersialisering av sin projektstörningssensor (Soli-sensor) för att arbeta vid högre effektnivåer än vad som för närvarande är tillåtet. Dessutom avstår vi från att följa bestämmelserna i avsnitt 15.255 (b) (2) i reglerna för att tillåta användare att använda Google Soli-enheter när de är ombord på ett flygplan.

Vi fann att Soli-sensorer, när de arbetar under de undantagsvillkor som anges i detta dokument, har minimal potential för att orsaka skadlig störning för andra användare av spektrumet och användningen av frekvensbandet 57-64 GHz, inklusive satellitskanningstjänst. Earth (EESS) och Radio Astronomy Service (RAS). Dessutom fann vi att beviljandet av undantaget kommer att tjäna allmänhetens intresse genom att tillhandahålla innovativa enhetsstyrningsfunktioner med hjälp av beröringsteknik utan kontakt. ”

Nu vet du lite mer varifrån det kommer och vad den här mycket exakta lilla rörelsesensorn kan användas till. Men hur fungerar Project Soli?

Hur fungerar Motion Sense?

Logiskt sett är Motion Sense inte bara ett chip som fungerar som en radar utan också Det finns också en stor programvaruimplementering för att uppnå gestigenkänning. Enligt Google kan hårdvara tillsammans med programvara “spåra submillimeterrörelser i höga hastigheter med stor precision.”

sortiment av variationer-radar-soli

Soli-chipet driver ut elektromagnetiska vågor i ett stort utrymme som reflekteras tillbaka till den lilla inomhusantennen att kunna uppfatta den minsta rörelsen.

Rörelserna avger en viss energi, som tack vare kombinationen av sensorer och programvarealgoritmer kan förstå det och bestämma “objektets egenskaper och dynamik, inklusive storlek, form, orientering, material, avstånd och hastighet”. Google har förfinat sina rörelsedetekterings- och förutsägelsealgoritmer för att möjliggöra små variationer i gester som kommer att omvandlas till samma gränssnittsåtgärd, eftersom räckvidden för detekteringsutrymme är begränsat.

Vi är vana vid att interagera med skärmen, det vill säga ett pekgränssnitt. Google syftar till att revolutionera interaktionen med våra mobila enheter genom användning av radarbaserad Motion Sense-teknik som bland annat skulle innefatta naturliga gester som att trycka på en knapp eller att skjuta kan användas i alla riktningar, dag eller natt.

Denna teknik överstiger långt 3D-detekteringen som implementeras på framsidan eller baksidan av vissa enheter. Snart kan det testas. med Google Pixel 4, och kontrollera om den har en verklig acceptans och användning för användarna. På samma sätt har företaget som ansvarar för utvecklingen publicerat en förklarande video om denna nya funktion.