Meta ogłosiła premierę najnowszego modelu generatywnej AI z rodziny Llama – Llama 3.3 70B. Ahmad Al-Dahle, wiceprezes ds. generatywnej AI w Meta, zapowiedział, że model ten oferuje wydajność porównywalną z największym modelem firmy, Llama 3.1 405B, przy znacznie niższych kosztach.
Nowa generacja AI: Llama 3.3 70B
Llama 3.3 70B została zaprojektowana jako wydajniejsza, tańsza alternatywa dla większych modeli. Jak podkreśla Al-Dahle:
„Dzięki najnowszym technikom po szkoleniu model znacząco poprawia wydajność przy niższych kosztach operacyjnych.”
Zastosowanie nowoczesnych metod optymalizacji pozwoliło Llama 3.3 70B osiągnąć wyniki lepsze niż te uzyskiwane przez konkurencję, w tym Google Gemini 1.5 Pro, OpenAI GPT-4o oraz Amazon Nova Pro, w takich testach jak MMLU (Multitask Language Understanding).
Model jest dostępny do pobrania na platformach takich jak Hugging Face oraz oficjalna strona Llama. Dzięki swojej otwartości Llama znalazła już zastosowanie w szerokiej gamie aplikacji, od asystentów AI po rozwiązania komercyjne.
Meta wykorzystuje Llama również wewnętrznie. Asystent Meta AI, oparty w pełni na modelach Llama, osiągnął imponującą liczbę 600 milionów aktywnych użytkowników miesięcznie. Według Marka Zuckerberga Meta AI ma potencjał, by stać się najczęściej używanym asystentem AI na świecie.
Kontrowersje wokół otwartości
Choć Llama 3.3 70B jest promowana jako “otwarty” model, Meta wprowadziła ograniczenia licencyjne dla platform z ponad 700 milionami aktywnych użytkowników miesięcznie. Taka polityka budzi mieszane opinie w branży.
Dodatkowo Meta zmaga się z problemami związanymi z regulacjami Unii Europejskiej. AI Act oraz RODO nakładają na firmę ograniczenia w zakresie szkolenia modeli na danych użytkowników z UE. W związku z tym Meta musiała tymczasowo wstrzymać trening modeli na danych europejskich.
Przygotowania do wdrożenia Llama 4
Meta planuje ogromne inwestycje w infrastrukturę, aby sprostać rosnącym wymaganiom obliczeniowym generatywnej AI. Firma ogłosiła budowę największego w swojej historii centrum danych AI w Luizjanie, które pochłonie aż 10 miliardów dolarów.
Zuckerberg ujawnił, że kolejne modele Llama będą wymagały 10 razy większej mocy obliczeniowej niż Llama 3. Aby zrealizować te plany, Meta zakupiła ponad 100 tysięcy procesorów graficznych Nvidia, co stawia firmę w jednej lidze z gigantami takimi jak xAI.
Llama 3.3 70B w obliczu globalnej konkurencji
Llama 3.3 70B stanowi istotny krok w strategii Meta, by dominować na rynku generatywnej AI. Dzięki połączeniu wysokiej wydajności, otwartego dostępu oraz wsparcia technicznego firma zyskała już ponad 650 milionów pobrań modeli Llama.
Jednak rywalizacja w sektorze generatywnej AI jest niezwykle zacięta, a konkurenci, tacy jak Google, OpenAI czy Amazon, stale podnoszą poprzeczkę. W tym wyścigu Meta wydaje się stawiać na innowacje technologiczne i dostępność swoich rozwiązań.
Źródło: TechCrunch
Photo by Greg Lippert on Unsplash