Gear

Nu kan din telefon “se” og tale med dig: Google lancerer ny AI med kameraøjne

Med ny funktion i Gemini-appen kan din Android-telefon nu bruge sit kamera til at forstå og svare på det, du viser den – i realtid og på dansk.

Nu kan din telefon “se” og tale med dig: Google lancerer ny AI med kameraøjne
Gemini Live - Foto: Google

Er du træt af at skulle google dig frem til løsninger på hverdagsproblemer? Google håber, at svaret fremover vil være lige ved hånden – eller rettere, i hånden.

Med lanceringen af den nye kamerafunktion i Gemini Live kan brugere nu tale direkte med den kunstige intelligens, mens de viser den verden gennem telefonens kamera eller deler skærmen.

Funktionen er tilgængelig på dansk og er tænkt til at hjælpe i konkrete hverdagssituationer. Det kan være alt fra at skifte en printerpatron, organisere en rodet skuffe eller redde en visnende stueplante – alt sammen ved blot at spørge Gemini, mens man peger telefonens kamera mod problemet.

En AI der ser og forstår

Samtalen med AI’en foregår i realtid og muliggør skræddersyet og visuelt baseret assistance.

Google nævner også, at funktionen kan bruges til shoppingråd – eksempelvis ved at vise et billede af bukser og spørge, hvilke sko der passer bedst.

På den måde bevæger Google sig tættere på en mere dynamisk sammensmeltning af den digitale og fysiske verden, hvor kunstig intelligens ikke længere blot er et tekstbaseret værktøj, men en smart hjælper, der forstår både billede og kontekst.

Hvem får adgang?

Gemini Live med kamera er i første omgang gratis tilgængelig for brugere af Googles Pixel 9 og Samsungs nye Galaxy S25-modeller.

Brugere med andre Android-enheder kan tilgå funktionen via et betalt Gemini Advanced-abonnement. Foreløbig er funktionen endnu ikke tilgængelig for iOS-brugere.

Det er endnu for tidligt at sige, hvordan brugerne vil tage imod teknologien, men Googles ambition er klar: En mere intuitiv AI-oplevelse, hvor kamera, skærm og stemme smelter sammen for at gøre hjælpen digital – og personlig.