Google Assistant sada može vidjeti ono što korisnik vidi


Google je objavio novu funkciju za svog AI asistenta Gemini. Ali samo vlasnici vrlo novih mobilnih telefona u početku će imati koristi od ovoga.

Google je opremio svog AI asistenta Gemini novim funkcijama. Prema navodima kompanije, Gemini Live sa kamerom i dijeljenjem ekrana sada je dostupan većem broju korisnika Androida. Ova funkcija vam omogućava da razgovarate sa AI asistentom o onome što vidite na ekranu ili snimite kamerom.

Do sada je ova funkcija bila dostupna samo pretplatnicima Gemini Advanced na Android uređajima. Sada je dostupan i svim korisnicima Gemini aplikacije sa Pixel 9 ili Samsung Galaxy S25. Za vlasnike starijih uređaja ova funkcija za sada neće biti dostupna.

Prema Googleu, Gemini Live omogućava korisnicima da vode prirodne razgovore na preko 45 različitih jezika. AI asistent bi trebao biti u stanju obraditi i odgovoriti na vizualni unos.

U svojoj najavi, kompanija predstavlja pet konkretnih aplikacija za Gemini Live: Prilikom organiziranja sobe, korisnik može usmjeriti kameru na neuredne prostore i dobiti savjete za pospremanje. Za kreativne projekte, AI asistent može analizirati izvore inspiracije i pružiti ideje.

Blizanci bi također trebali biti u mogućnosti da pomognu u rješavanju problema – na primjer, s namještajem ili uređajima – pokazujući korisnicima problem s kamerom. Prilikom kupovine putem interneta, savjeti o proizvodima ili odjeći mogu se dati putem dijeljenja ekrana ili korištenja kamere. Usluga se također može koristiti za pružanje povratnih informacija o vašem vlastitom radu, kao što su postovi na blogu ili sadržaji na društvenim mrežama.

Ekspanzija Gemini Livea dio je trenda u kojem AI asistenti postaju sve multimodalni – što znači da mogu obraditi različite oblike unosa kao što su tekst, govor, a sada i slike. Google je predstavio funkciju kamere i dijeljenja ekrana za korisnike koji plaćaju u martu prije nego što je uvede na više uređaja.

Related Posts