Close Menu
  • Główna
  • Aktualności
  • Recenzje
  • Narzędzia AI
  • Ludzie AI
  • Wydarzenia
Najnowsze

OpenAI ogłosił wprowadzenie GPT-5.1

November 12, 2025

Jak AI zmienia pracę programistów? Co dalej z juniorami? [PODCAST 🎙️]

November 11, 2025

Lumen stawia na AI Palantira, by zbudować nową cyfrową infrastrukturę

October 23, 2025
Facebook X (Twitter) Instagram
Button
beAIware.pl
Facebook X (Twitter) Instagram TikTok
  • Główna
  • Aktualności
  • Recenzje
  • Narzędzia AI
  • Ludzie AI
  • Wydarzenia
beAIware.pl
Home » Qwen2.5: Nowe modele Alibaby z oknem kontekstowym do miliona tokenów
Aktualności

Qwen2.5: Nowe modele Alibaby z oknem kontekstowym do miliona tokenów

Maciej BiegajewskiBy Maciej BiegajewskiJanuary 28, 2025Updated:January 31, 20253 Mins Read
Qwen2.5: Nowe modele Alibaby z oknem kontekstowym do miliona tokenów
Share
Facebook Twitter Pinterest Reddit WhatsApp Email

Chińskie modele językowe wywołały w ostatnich dniach prawdziwe trzęsienie ziemi na rynku AI. Najpierw DeepSeek, teraz nowe modele Qwen2.5 od Alibaby. Każda z tych premier to nie tylko technologiczny krok naprzód, ale również poważny cios dla konkurencji zza oceanu.

Spadki na giełdzie wywołane doniesieniami z Chin jasno pokazują, że inwestorzy zaczęli kwestionować przyszłość dominacji amerykańskich firm w tej branży. Czy amerykańscy giganci sztucznej inteligencji mogą spać spokojnie? Nowe modele, takie jak Qwen2.5-7B-Instruct-1M i Qwen2.5-14B-Instruct-1M, wprowadzają nie tylko innowacje w postaci pracy z kontekstami do miliona tokenów, ale także redefiniują oczekiwania wobec tego, co mogą oferować publicznie dostępne modele.

Qwen2.5: Nowe modele Alibaby z oknem kontekstowym do miliona tokenów

Dlaczego okno kontekstowe w modelach LLM jest takie ważne?

Standardowe modele językowe zazwyczaj operują na kontekstach o ograniczonej długości, co bywa problematyczne przy analizie obszernych dokumentów. Qwen2.5-7B i Qwen2.5-14B wychodzą naprzeciw tym wyzwaniom, umożliwiając przetwarzanie ogromnych ilości danych w jednym podejściu.

Jak działają te modele? Zastosowano technologię rzadszej uwagi (sparse attention), która skupia się jedynie na najistotniejszych fragmentach kontekstu. W efekcie przetwarzanie danych jest nawet trzy do siedmiu razy szybsze niż w przypadku tradycyjnych metod, a wyniki mogą sięgać do 8 tysięcy tokenów na jedno zapytanie.

Podczas testów Qwen2.5-14B oraz wersja Turbo modelu osiągnęły doskonałą dokładność w wyszukiwaniu ukrytych liczb w długich dokumentach. Mniejszy model, Qwen2.5-7B, również poradził sobie świetnie, choć zdarzały się drobne błędy. Warto jednak zaznaczyć, że testy te w większym stopniu mierzyły zdolności wyszukiwania informacji (podobne do funkcji Ctrl+F), niż zrozumienia głębszego sensu tekstu.

Qwen2.5: Nowe modele Alibaby z oknem kontekstowym do miliona tokenów

Jak wypada Qwen na tle systemów RAG?

Systemy Retrieval-Augmented Generation (RAG), które podczas analizy korzystają z zewnętrznych baz danych, wciąż pozostają bardziej precyzyjne przy pracy z mniejszymi oknami kontekstowymi, sięgającymi 128 tys. tokenów. Modele z oknami o długości miliona tokenów, takie jak Qwen2.5, oferują jednak większą elastyczność i prostotę obsługi, co może być decydujące w wielu przypadkach użytkowych.

W testach takich jak RULER, LV-Eval czy LongbenchChat modele Qwen2.5 wyraźnie przewyższyły swoich rywali z oknami 128K, szczególnie przy sekwencjach dłuższych niż 64 tys. tokenów. Qwen2.5-14B osiągnęł nawet ponad 90 punktów w RULER – to pierwszy taki wynik w serii Qwen, pokonujący między innymi GPT-4o mini w wielu zestawach danych.

Co ważne, modele Qwen nie tracą na efektywności w przypadku krótszych tekstów, gdzie ich wyniki są porównywalne z modelami o mniejszych oknach kontekstowych.

Użytkownicy mogą przetestować Qwen2.5 za pośrednictwem Qwen Chat – interfejsu podobnego do ChatGPT, lub na platformie Hugging Face, gdzie dostępne są również inne modele Alibaby. Warto zwrócić uwagę, że Alibaba, wraz z innymi chińskimi firmami, takimi jak Deepseek, rzuca wyzwanie amerykańskim dostawcom, oferując podobne możliwości za niższe koszty.


Źródło: The-decoder

Zdjęcie: x.com

Alibaba Chiny Qwen Chat Qwen2.5 Qwen2.5-14B-Instruct-1M Qwen2.5-7B-Instruct-1M sparse attention technologia rzadszej uwagi
Previous Article2,6 miliona pobrań aplikacji DeepSeek w kilka dni!
Next Article OpenAI stworzyło ChatGPT Gov dla amerykańskich agencji rządowych
Maciej Biegajewski

    Add A Comment
    Leave A Reply Cancel Reply

    10 NAJLEPSZYCH PROMPTÓW 2023
    Polecane

    Jak włączyć i korzystać z wtyczek do ChatGPT – poradnik krok po kroku

    May 17, 2023

    Wszystko, co musisz wiedzieć o Midjourney

    April 20, 2023

    Co to jest ChatGPT? – i inne najczęściej zadawane pytania

    March 30, 2023
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • LinkedIn
    • TikTok

    Bądż na bieżąco!

    Bądź na czasie z najlepszymi narzędziami i zastosowaniami AI!

    Prosto do Twojej skrzynki mailowej.

    Dziękujemy!

    You have successfully joined our subscriber list.

    O nas
    O nas

    Dołącz do biznesowej rewolucji AI i odkrywaj z nami narzędzia przyszłości.

    Bądź na bieżąco. Be AI-ware!

    Kontakt: [email protected]

    Facebook X (Twitter) Instagram TikTok
    Najnowsze posty

    OpenAI ogłosił wprowadzenie GPT-5.1

    November 12, 2025

    Lumen stawia na AI Palantira, by zbudować nową cyfrową infrastrukturę

    October 23, 2025

    Edge Copilot kontra Atlas: czy nadchodzi era przeglądarek z AI?

    October 23, 2025

    Type above and press Enter to search. Press Esc to cancel.