Gemini, flagowy model konwersacyjny Google, otrzymał dziś nową funkcjonalność Deep Research…
Tag: Google
-
Google Gemini 2.0 wprowadza interakcje głosowe z wideo
Google pokazał dziś nowe możliwości swojego flagowego modelu konwersacyjnego Gemini 2.0. Najnowsza aktualizacja pozwala na prowadzenie głosowych interakcji z obrazem wideo lub zawartością ekranu komputera w czasie rzeczywistym. Oznacza to, że asystent Gemini potrafi „zobaczyć” i zrozumieć to, co jest mu pokazywane, a następnie prowadzić na ten temat naturalną rozmowę głosową z użytkownikiem.
Jest to ogromny przełom w dziedzinie asystentów konwersacyjnych, łączący przetwarzanie języka naturalnego z rozumieniem obrazu w czasie rzeczywistym. Gemini 2.0 przynosi nas o krok bliżej do wizji inteligentnych, wszechstronnych asystentów AI, potrafiących wchodzić w złożone interakcje ze światem na podstawie wielu modalności – wzroku, słuchu i mowy. Oczekuje się, że inne firmy, takie jak OpenAI czy Anthropic, niedługo zaprezentują podobne rozszerzenia swoich chatbotów.
-
Głosowe interakcje z wideo w Google Gemini 2.0
Google pokazał dziś nowe możliwości swojego flagowego modelu konwersacyjnego Gemini 2.0. Najnowsza aktualizacja pozwala na prowadzenie głosowych interakcji z obrazem wideo lub zawartością ekranu komputera w czasie rzeczywistym. Oznacza to, że asystent Gemini potrafi „zobaczyć” i zrozumieć to, co jest mu pokazywane, a następnie prowadzić na ten temat naturalną rozmowę głosową z użytkownikiem.
Jest to ogromny przełom w dziedzinie asystentów konwersacyjnych, łączący przetwarzanie języka naturalnego z rozumieniem obrazu w czasie rzeczywistym. Gemini 2.0 przynosi nas o krok bliżej do wizji inteligentnych, wszechstronnych asystentów AI, potrafiących wchodzić w złożone interakcje ze światem na podstawie wielu modalności – wzroku, słuchu i mowy. Oczekuje się, że inne firmy, takie jak OpenAI czy Anthropic, niedługo zaprezentują podobne rozszerzenia swoich chatbotów.
-
Project Astra – wizja przyszłości asystentów AI od Google
Google zaprezentował Project Astra – swoją wizję przyszłości asystentów AI. Ten ambitny projekt pokazuje, jak sztuczna inteligencja może stać się jeszcze bardziej intuicyjnym i wszechstronnym narzędziem w codziennym życiu.
Kluczowe funkcje Project Astra obejmują:
– Zaawansowane możliwości widzenia i analizy obrazu w czasie rzeczywistym
– Naturalne interakcje głosowe z kontekstowym zrozumieniem sytuacji
– Zdolność do wspierania użytkownika w złożonych zadaniach, takich jak gra w szachy czy analiza dokumentówSzczególnie imponująca jest zdolność systemu do rozumienia kontekstu sytuacyjnego i dostosowywania swoich odpowiedzi do konkretnych potrzeb użytkownika. Google nie podało jeszcze dokładnej daty wprowadzenia tych funkcji, ale demo pokazuje znaczący postęp w rozwoju asystentów AI.
Eksperci przewidują, że ta technologia może zmienić sposób, w jaki wchodzimy w interakcje z urządzeniami cyfrowymi, czyniąc je bardziej naturalnymi i intuicyjnymi.