Gemini Live stanie się jeszcze bardziej świadomy tego, co dzieje się na naszym smartfonie

Google kontynuuje rozwój Gemini, integrując go głębiej w nasze codzienne życie, jednocześnie przybliżając nas do zakończenia życia Asystenta Google. Oprócz zmian, jakie na bieżąco pojawiają się w samym Gemini, gigant ulepsza również Gemini Live, czyli swoja konwersacyjną sztuczną inteligencję. Tym razem w przygotowaniu są dwie świetne funkcje.
Gemini live
Gemini live

Gemini Live zyska zrozumienie ekranu i otoczenia, ale…

W połowie 2024 roku Google zaprezentował nowy model sztucznej inteligencji, którego celem nie jest wykonywanie zadań – to robi już standardowa wersja Gemini i różne modele w niej zawarte – tylko rozmowa. Gemini Live jest konwersacyjnym modelem, z którym możemy sobie po prostu pogadać. Wybieramy pasujący nam głos, a potem zaczynamy rozmowę głosową na dowolny temat. Wersja Live, podobnie jak prawdziwy rozmówca, ma zapamiętywać nasze słowa i rozumieć ich kontekst, choć jak to zwykle z AI bywa, nie oczekujmy tego na poziomie ludzkim. Mimo wszystko model może się przydać i wielu użytkowników chętnie z niego korzysta. Od tamtego czasu firma stale go ulepsza.

Czytaj też: ChatGPT zrewolucjonizuje generowanie obrazów na Androidzie

Tym razem Gemini Live ma zyskać kolejne funkcje, które zostały już zaprezentowane podczas MWC 2025. Na targach Google zapowiedział, że doda funkcje wideo na żywo i udostępniania ekranu, a w dodatku udostępni je użytkownikom jeszcze w tym miesiącu. Najwyraźniej już rozpoczęło się wdrażanie, bo niektórzy zaczynają widzieć u siebie te nowości. Użytkownik Reddita Kien_PS podzielił się tym, jak to działa u niego, publikując demo możliwości udostępniania ekranu.

Demo pokazuje, jak Gemini Live opisuje różne elementy ekranu głównego użytkownika. Zatrzymanie zegara na ekranie sugeruje, że Gemini Live może zamrażać obraz, aby go dokładnie przeanalizować i wyciągnąć z niego więcej informacji. Mamy również dostęp do funkcji wideo na żywo, ale pokaz tej funkcji na nagraniu był ograniczony, więc niewiele można o tym powiedzieć. Co ważne, użytkownik korzysta ze stabilnej wersji aplikacji, co potwierdza, że wdrażanie ruszyło, ale jest też subskrybentem Gemini Advanced w ramach planu Google One AI Premium. Tak, to właśnie ten haczyk – nowości zostały zarezerwowane jedynie dla tych, którzy zapłacą, jednak czy kogokolwiek to dziwi? Ja w swojej aplikacji jeszcze nie widzę tych funkcji.

Czytaj też: Gmail ulepsza wyszukiwanie dzięki sztucznej inteligencji

Google potwierdził serwisowi The Verge, że te nowe funkcje AI, oparte na projekcie Astra, są już stopniowo udostępniane. Pozwalają one Gemini Live “widzieć” ekran lub obraz z kamery smartfona i odpowiadać na pytania w czasie rzeczywistym. Dzięki tym ulepszeniom wersja Live zyska bardziej kontekstowe rozumienie zapytań, a użytkownicy będą mogli lepiej wchodzić z nim w bardziej naturalną interakcję, ponieważ Gemini Live będzie “widzieć” i rozumieć to, co widzimy my.

Czytaj też: Gemini staje się łatwiej dostępne. Już nie potrzebujesz logowania

Plan Google One AI Premium kosztuje miesięcznie 97,99 złotych i w jego ramach dostajemy 2 GB miejsca dyskowego na dane, Gemini Advanced z dostępem do najlepszych modeli AI, dostęp do modeli eksperymentalnych, dodatkowe funkcjonalności Gemini, takie jak pomoc w pisaniu, nauce czy planowaniu, a także inne ekskluzywne funkcje, które Google rezerwuje dla płatnych użytkowników, takie właśnie, jak najnowsze ulepszenia Gemini Live.