Google zaprezentował długo wyczekiwaną nową wersję swojego flagowego modelu AI – Gemini 2.0 Pro Experimental. Wraz z ogłoszeniem tej aktualizacji, gigant z Mountain View przedstawił szereg innych modeli, które mają na celu zrewolucjonizowanie sposobu, w jaki rozmawiamy z AI.
Wśród najważniejszych nowości znajduje się model “reasoning” – Gemini 2.0 Flash Thinking, dostępny w aplikacji Gemini. W artykule przyjrzymy się, jak te innowacje mogą wpłynąć na rozwój technologii oraz dlaczego warto śledzić rozwój modeli sztucznej inteligencji w kontekście współczesnych wyzwań technologicznych.
Odpowiedź Google na konkurencyjne modele AI
Gemini 2.0 Pro to odpowiedź Google na rosnącą konkurencję w branży sztucznej inteligencji, szczególnie ze strony chińskiego start-upu DeepSeek. Przypomnijmy, że zdobył on ogromne zainteresowanie dzięki swojej wydajności i przystępnej cenie. Google, mając na uwadze te wyzwania, postanowił wprowadzić do swojej oferty nowy model, który wyróżnia się zdolnością do rozwiązywania bardziej złożonych problemów i lepszym rozumieniem wiedzy na temat świata.
Gemini 2.0 Pro może obsługiwać złożone polecenia i kodowanie, oferując lepsze rozumienie świata niż jakikolwiek poprzedni model firmy Google
Ten model jest już dostępny w ramach platformy Google AI Studio oraz Vertex AI i będzie dostępny dla subskrybentów aplikacji Gemini Advanced.
Gemini 2.0 Pro charakteryzuje się ogromnym oknem kontekstowym wynoszącym 2 miliony tokenów, co pozwala mu przetwarzać aż 1,5 miliona słów w jednym przetwarzaniu. Przykładowo, można wprowadzić do modelu całą siedmiotomową serię książek o Harrym Potterze, pozostawiając jeszcze około 400 tysięcy słów do przetworzenia. Takie możliwości sprawiają, że Gemini 2.0 Pro jest wyjątkowo wydajnym narzędziem do analizowania i generowania złożonych treści.
Przeczytaj także: Qwen2.5: Nowe modele Alibaby z oknem kontekstowym do miliona tokenów
Gemini 2.0 Flash Thinking – nowy wymiar rozumowania AI
Kolejną istotną nowością, którą Google wprowadza, jest model Gemini 2.0 Flash Thinking, przeznaczony do bardziej zaawansowanego rozumowania. Google postanowił wyjść naprzeciw oczekiwaniom użytkowników, udostępniając model, który może oferować jeszcze lepsze rezultaty w zakresie analizy i przetwarzania złożonych zapytań.
Takie podejście ma na celu nie tylko konkurowanie z DeepSeek, ale również zaspokojenie rosnącego zapotrzebowania na modele reasoning w branży AI.
Gemini 2.0 Flash-Lite – konkurencja dla tanich modeli AI z Chin?
W odpowiedzi na popularność tanich modeli reasoning od DeepSeek, Google zdecydowało się wprowadzić także model Flash-Lite. Jest to wersja, która nie tylko dorównuje wydajnością modelowi Gemini 1.5 Flash, ale także oferuje bardziej przystępną cenę i taką samą szybkość działania. Tego typu innowacje mogą stanowić istotny krok w stronę popularyzacji sztucznej inteligencji, która stanie się bardziej dostępna dla szerokiego kręgu użytkowników.
Źródło: TechCrunch
Zdjęcie: Google Blog