Wyobraź sobie świat, w którym sztuczna inteligencja nie tylko rozumie dane, ale naprawdę rozumuje. Przez ostatnie miesiące to właśnie modele rozumujące — jak OpenAI o3 — budziły największe emocje w branży. Ale nowe analizy pokazują, że ta fala postępu może wkrótce wyhamować.
Modele rozumujące – nowy etap w ewolucji sztucznej inteligencji
Modele rozumujące, takie jak wspomniany model o3, to coś więcej niż typowe chatboty czy narzędzia do analizy tekstu. To systemy zaprojektowane tak, by myśleć wieloetapowo, podejmować decyzje, a nawet rozwiązywać złożone problemy matematyczne i programistyczne.
Ich siła tkwi w tzw. reinforcement learning – metodzie uczenia się przez informację zwrotną. Po klasycznym etapie treningu na ogromnych zbiorach danych, model dostaje „lekcje” z rozwiązywania trudnych zadań. Dzięki temu staje się coraz lepszy… ale też znacznie bardziej kosztowny w utrzymaniu.
Więcej mocy, mniej zysków?
Organizacja badawcza Epoch AI zauważa jednak niepokojący trend. Dotychczasowe przyspieszenie w rozwoju modeli rozumujących – możliwe dzięki ogromnym zasobom obliczeniowym – może zbliżać się do granic opłacalności.
OpenAI, twórca modelu o3, już teraz inwestuje dziesięciokrotnie więcej mocy obliczeniowej w proces uczenia wzmocnionego niż w poprzednich generacjach. A plany na przyszłość zakładają dalszą intensyfikację – większą nawet niż w etapie wstępnego treningu.
Ale jak zauważa Josh You z Epoch AI, możliwości skalowania tej metody są ograniczone – zarówno przez fizyczne limity mocy, jak i rosnące koszty badawcze.
Co dalej? Granice wzrostu i możliwe spowolnienie
Według analizy Epoch AI, efekty wzrostu wydajności przez reinforcement learning rosną dziesięciokrotnie co 3–5 miesięcy. Jednak taka dynamika nie może trwać wiecznie. Do 2026 roku tempo rozwoju modeli rozumujących prawdopodobnie zbiegnie się z tempem ogólnego postępu AI, co oznacza… potencjalne wyhamowanie.
To niepokojąca wiadomość dla całej branży, która zainwestowała miliardy dolarów w rozwój tej technologii. Tym bardziej że modele rozumujące, mimo imponujących osiągnięć, nadal mają poważne wady – jak np. większą skłonność do tzw. halucynacji (czyli generowania błędnych informacji).
Czy to koniec rewolucji? Niekoniecznie
Zatrzymanie się wykładniczego wzrostu nie musi oznaczać końca innowacji. Wręcz przeciwnie – może to być moment, w którym branża przestawi się z „więcej mocy” na „lepsze podejście”. Zamiast bez końca pompować zasoby w jeszcze większe modele, firmy mogą zacząć szukać nowych metod optymalizacji, łączenia modeli, czy lepszej interpretacji danych.
Źródło: TechCrunch
Photo by Meritt Thomas on Unsplash
