Premiera GPT-5 ostudziła euforię i… wyostrzyła pytania. Dlaczego część użytkowników czuje dysonans między obietnicami a realnymi możliwościami modeli? W tym odcinku rozbieramy to na czynniki pierwsze: od LRM-ów (large reasoning models) i ich „warstwy autorefleksji”, przez twarde ograniczenia danych i mocy obliczeniowej, po bardzo ludzkie pułapki oczekiwań. Pokazujemy, skąd bierze się wrażenie „innej osobowości” nowych modeli, dlaczego przy trudniejszych problemach potrafią… myśleć mniej, oraz czemu bez człowieka „w pętli” ryzyko błędu rośnie. Dochodzimy też do sedna: epistemologii — czy świat da się uchwycić jedną, obiektywną interpretacją? I co to oznacza dla praktycznego wdrażania AI w firmach. To odcinek o granicach technologii, ale przede wszystkim o granicach naszych oczekiwań.
TL;DR
Po GPT-5 opadł kurz i widać dysonans oczekiwań. Zmiany m.in. w promptach systemowych i guardrailach wpływają na „charakter” modelu i to, jak ludzie odbierają jego odpowiedzi.
Czym są LRM-y? „Duże modele rozumujące” dodają warstwę autorefleksji nad generacją; są droższe obliczeniowo i projektowane pod złożone, sekwencyjne zadania oraz systemy agentowe — ale nie są magią.
Modele to statystyka, nie rozumienie. To przewidywanie kolejnych tokenów zależne od kontekstu — gdy dajemy go za mało, rośnie przepaść między tym, czego chcemy, a tym, co dostajemy.
Dane wysokiej jakości się kończą. Publiczny „paliwko” może wyczerpać się około 2026–2028; syntetyka bywa konieczna, ale rozcieńcza „ludzki ekstrakt”.
„Iluzja rozumowania”. Badania cytowane w rozmowie pokazują, że na złożonych łamigłówkach LRM-y potrafią myśleć mniej, a nawet z gotowym algorytmem — mylić się.
GPU i geopolityka. Monopol mocy obliczeniowej (NVIDIA), subsydia w USA i niepewność co do realnych alternatyw (szum vs. przełom) — to dziś kluczowe wektory ryzyka.
Human-in-the-loop to nie banał. Autopiloty istnieją od lat, ale pilot dalej siedzi w kabinie — analogicznie z AI: skrajne przypadki i „czujniki” człowieka są nie do zastąpienia.
Kultura i poznanie mają znaczenie. Od „kiwania głową” w Bułgarii po różne sposoby myślenia o przyszłości — brak jednej, uniwersalnej interpretacji świata ogranicza „uniwersalne” rozumienie przez modele.
Wniosek dla firm: osadzaj model w kontekście, dawaj precyzyjne wymagania, testuj i kontroluj, licz koszty GPU, nie kupuj „marzeń” — weryfikuj.
Maciej Biegajewski
Cześć wszystkim, witamy Was serdecznie w naszym kolejnym podcaście. Ja nazywam się Maciej, razem ze mną jest po raz kolejny Adrian, z którym wspólnie tworzymy beaware.pl, czyli portal, blog, kanał na YouTubie, gdzie staramy się opowiadać co nieco o tej rewolucji, którą przechodzimy obecnie w związku ze sztuczną inteligencją.
Maciej Biegajewski
I dzisiaj tak opowiemy troszeczkę o ostatnich zmianach tak naprawdę ponieważ jesteśmy właściwie już chyba dwa czy trzy tygodnie po premierze GPT-5 już trochę opadł tak, czar prysu po pierwszej euforii zaczęły się pojawiać właśnie takie głosy tego, że to nie jest jednak to czego wszyscy się spodziewali po takim kolejnym, dużej wersji tego popularnego modelu językowego Dzisiaj właśnie chcielibyśmy się pochylić nad tym, skąd się biorą te rozczarowania, czy to są tylko takie powierzchowne głosy osób, które nie do końca potrafią wykorzystać możliwości tych modeli, czy faktycznie są pewne bariery rozwojowe, z którymi do końca jeszcze naukowcy czy technologowie jakby nie potrafią sobie poradzić. Ale zanim zaczniemy to myślę, że warto powiedzieć trochę słów wprowadzenia, ponieważ będziemy mówić dzisiaj m.in. O tym, czym są LRM-y.
Adrian Żebrowski
Boże, kolejne 3-lektorowe skróty.
Maciej Biegajewski
Kolejny skrót, który tutaj nas czeka, więc Adrian, ty jesteś na pewno bardzo dobrze zorientowany i mógłbyś pokrótce przedstawić.
Adrian Żebrowski
Wiesz co, ja lubię zaczynać od rysu historycznego, mianowicie cała ta infrastruktura myślenia czy rozumowania, tak tłumacząc bezpośrednio ten skrót, który możemy rozwinąć jako duże modele rozumujące, large reasoning models. Ona się wywodzi, o ile dobrze pamiętam, z połowy zeszłego roku, 2024. I jest ściśle powiązana z przełomem. I tutaj przełom to jest cytat z artykułów naukowych. I z white paperów, które OpenAI opublikowało, mianowicie jest to takie dodanie warstwy refleksji, właściwie autorefleksji na pracę modelu, na przetwarzanie tych tokenów wejścia i na zbudowanie odpowiedzi na podstawie tych tokenów wejścia. Tam występuje warstwa autorefleksji w tym modelu.
Adrian Żebrowski
On z reguły jest poddany też jakimś tam konkretnym wytycznym związanym z promptem systemowym i na podstawie tej refleksji, która się dokonuje w momencie generacji, takiego utrzymania atencji troszeczkę też w pewnym wymiarze, ta odpowiedź ma być lepsza, ma być bardziej zoptymalizowana pod kątem złożonych zadań, pod kątem rozumowania logicznego, pod kątem takich sekwencyjnych czynności, o które możemy ten model prosić. Jeżeli chodzi o wykorzystania takich modeli, bo one się pojawiły właściwie w pierwszej takiej postaci wraz z publikacją modelu O1. To te modele są bardziej kosztowne w przetwarzaniu, bardziej kosztowne w użytkowaniu, jeżeli chodzi o koszty użytkowania API tych modeli. Są one także bardziej wymagające obliczeniowo, naturalnie, no bo mamy więcej danych do przetworzenia, jest ta pętla zwrotna, nazwijmy ją sobie tak na potrzeby tutaj naszej rozmowy. I co idzie za tym, tak jak już powiedziałem wcześniej, to są modele, które są zoptymalizowane pod zadania logiczne, pod sekwencyjność.
Adrian Żebrowski
One zostały właściwie wrzucone do użytku, udostępnione z taką myślą z tyłu głowy pod kątem systemów agentic, agentycznych. I to jest bazujące na pewno na potężnej masie danych, które OpenAI ma na temat użytkowania tych modeli. I pewnego paradygmatu współpracy z tymi modelami, który jest, tymi modelami przed tymi large reasoning models, które się pokazywały wśród wielu użytkowników. Mianowicie i tutaj zahaczę o nasz podcast o prompt engineering, bo tam żeśmy o tym mówili wprost, żeby to konkretnie robić, to znaczy ludzie zazwyczaj podają za mało kontekstu tym modelom.
Adrian Żebrowski
Podają za mało wymagań, te prompty są nieszczegółowe i w związku z tym występuje pewnego rodzaju dysonans między oczekiwaną odpowiedzią, między tym co użytkownik wprowadza do tego modelu, mając kontekst w głowie, zakładając, że ten model już jest osadzony w tym kontekście, w którym użytkownik sobie wymyślił to, czego od niego chce i finalnym rezultatem, który ten model, oczywiście patrząc z takiego bocznego punktu widzenia, ten model jest odseparowany od kontekstu w głowie użytkownika, więc on nie ma tylu informacji, więc wyprodukuje gorsze odpowiedzi w kontekście, w który celował użytkownik, bo ma mniej danych, bo ta predykcja następnego znaku, następnego wyrazu będzie mniej dokładna, będzie oparta o mniejszą próbę.
Maciej Biegajewski
Właśnie, wydaje mi się, że warto teraz przypomnieć w jaki sposób działają w ogóle LLM-y, bo to jest coś, co często mówimy o tym, ale mam wrażenie, że w dalszym ciągu dla wielu osób faktycznie za tą sekwencją znaków jest faktycznie Coś, co ma znamiona inteligencja, a tak naprawdę jest to pewnego rodzaju model statystyczny. Pokrótce jakbyś mógł powiedzieć właśnie, jak to właściwie wszystko działa.
Adrian Żebrowski
Wiesz co, ja nie będę się zagłębiał w takie kwestie techniczne, bo je ciężko też… Ja jestem słuchowcem, znaczy wzrokowcem i mi ze słuchu ciężko się absorbuje, więc nie będziemy wchodzić tutaj. Natomiast oprę się o taką maksymę, która na którą natrafiłem na LinkedIn, w fantastycznym portalu, na którym jednozdaniowe maksymy są najcenniejszą walutą. I ta maksyma zapadła mi w pamięć i fundamentalnie, jeżeli chodzi o poznawczy wymiar tego wszystkiego, to zgodziłbym się z tym. Mianowicie, modele językowe odpowiadają na pytanie, jak brzmiałaby, jak mogłaby brzmieć odpowiedź na i tu klamry prompt. To jest statystyczny model najbardziej prawdopodobnego tokenu, który też może się składać z kilku znaków. Obliczony na podstawie danych wejściowych i wag tego modelu sieci neuronowej.
Adrian Żebrowski
Oczywiście jest też infrastruktura transformera i to jest już też kolejna taka permutacja i gdzieś tam takie niszowe zagadnienie w tym konkretnym kontekście naszej rozmowy, bo nie w kontekście oczywiście modeli językowych jako programów. Natomiast myślę, że to jest bardzo dobra esencja, bardzo dobry ekstrakt. To jest program, który odpowiada na pytanie, jak mogłaby brzmieć odpowiedź na pytanie i tu wstawiamy swój prompt. I tu wstawiamy swoją wiadomość. Więc jest to koniec końców w pewnym wymiarze statystyka.
Maciej Biegajewski
No właśnie, bo wracając do tematu, skąd w takim razie jest ten rozjazd między oczekiwaniami a jakby faktycznymi możliwościami. Na przykład się dotykamy teraz przy okazji tego GPT-5 i ja mówię tylko o GPT-5 jakby w kontekście pewnego rodzaju przykładu, to znaczy nie chcę mówić, że akurat ten konkretny model Nie wiem, jest zły czy nie, bo nie o to mi chodzi. Tylko skąd się bierze ten taki dysonans?
Adrian Żebrowski
Jasne. Wiesz co, dysonans moim zdaniem i odpowiedź na to pytanie nie jest jednodymiarowa i na pewno nie jest do zamknięcia w jednym zdaniu. Natomiast bardzo popularnym przykładem, na który natrafiłem w kilku miejscach po premierze GPT-5 była tęsknota za poprzednimi modelami. Było zauważenie takiej zmiany w percepcji, o ile możemy mówić o percepcji, no właśnie, łapiemy się całej percepcji faktów i tokenów przez te modele. I to jest wprost uwarunkowane promptem systemowym, który na pewno się zmienia przy tych wszystkich nowych iteracjach modeli. I tutaj też dobrym przykładem jest Grok, który wyzywał Romana Giertycha i mu nawtykał tak, że aż ciarki przechodzą. Cały ten ambaras nie wynikał z jakiejś tam zmiany wag, czy jakiejś tam nie wiem, tragicznej pomyłki infrastrukturalnej, tylko z promptu systemowego. I właściwie o jedną linijkę tam poszło. Jako, że grok jest open source’owy, no to można sobie zobaczyć jaka zmiana nastąpiła.
Adrian Żebrowski
Bodajże 6 tygodni temu to było.
Maciej Biegajewski
Ciekawa kwestia jest właśnie z tym GPT-5 i z tym co mówisz, jakby testota za tymi starymi modelami. Ja się spotkałem z dosyć taką dystopijną dyskusją na Redditzie dotyczącą tego, że jest spora grupa osób, które leczą swoją samotność tworzeniem wirtualnych partnerów. Mężczyzn, ale również spotkałem się tam z dyskusjami kobiet. I GPT-5, z tego co pamiętam, on bardzo mocno ograniczył ten sposób na przykład komunikowania się z tym modelem językowym w postaci poszukiwania jakichś takich osobistych porad, takich psychologicznych stricte. To znaczy, tam zostały przynajmniej w tej początkowej fazie narzucone pewne takie klamry. Które są dosyć zrozumiałe pod kątem tego, żeby np. No jednak temu modelowi statystycznemu jakby nie poświęcać swojego zdrowia psychicznego, tak? No ale właśnie duża część z tych osób jakby upolewała nad tym, że stracili swojego partnera, z którym jakby nie można już dłużej rozmawiać.
Adrian Żebrowski
No cóż, to jest choroba cywilizacyjna myślę. Kolejna z chorób cywilizacyjnych, który nam się tutaj na horyzoncie rysują. No w każdym razie to jest pierwszy wymiar tylko tak skąd, skąd ten rozjazd. Drugi rozjazd może wynikać z tego, że wymagamy od tych modeli za dużo podając za mało danych. Oczekujemy jakichś nadludzkich zdolności i myślimy, że wynaleźliśmy sobie Boga. A tak nie jest. To wszystko trzeba podać temu modelowi w kontekście. Trzeba go osadzić w rzeczywistości, bo model jako taki ma ograniczoną liczbę sensorów i czujników, z których zbiera informacje na bieżąco. Właściwie jedynym tym sensorem i czujnikiem i kontrolerem przepływu logiki w tym interfejsie sieciowym, czy też jeżeli chodzi po API z tym modelem. No to jest użytkownik, tak? To jest komputer. Więc model nie ma zestawu sensorów, które same z siebie gdzieś tam rejestrują każdy wymiar naszego życia.
Adrian Żebrowski
A jednak ewolucji albo Bogu, no zależy kto w co wierzy, zajęło to masę czasu w wykształceniu takiego koherentnego zestawu czujników, które podają nam do mózgu bodźce, że tak powiem, symultanicznie. W różnych wymiarach, z różnym natężeniem i o różnej sile w zależności od tego w jakiej sytuacji się znajdujemy. Więc komputery tego nie mają, nie mogą tego przesłać na serwery OpenAI i są skazane nas. Więc to jest drugi wymiar potencjalnego rozjazdu. Potencjalnego rozjazdu oczekiwań a faktycznego stanu. I trzeci i to jest słoń, który jest w pokoju. Sprzedają nam marzenia po prostu. Te ogromne firmy, które są napchane kapitałem, które są dofinansowane kolejnymi rundami fundraisingu, sprzedają nam marzenia.
Maciej Biegajewski
A co rozumiesz przez sprzedawanie marzeń?
Adrian Żebrowski
Nie prostują tego, że musimy, że jesteśmy ograniczeni przez właśnie kontekst, przez informację, którą podejmie tego modelu. Jest nam sprzedawana wizja tak naprawdę wszechmocnego i wszechelastycznego systemu, który zawsze będzie dążył do poznania obiektywnej prawdy. I o obiektywności i prawdzie pewnie też sobie jeszcze porozmawiamy, bo to jest ściśle związane z taką epistemologiczną dziedziną analizy wpływu modeli językowych nasz świat. I tego jak ludzie nawet poruszają się i używają języka. Natomiast z czysto biznesowego punktu widzenia powiedz mi, czy uważasz za prawdopodobne, że te firmy obiecują złote góry? Niekoniecznie mając poparcie na to, biorąc pod uwagę, wiesz, całą historię amerykańskiej giełdy i kapitalizmu finansowego. Czy to jest możliwe, twoim zdaniem?
Maciej Biegajewski
Na pewno, nie? Jakby często, często się podaje ten przykład dot.com, bubble, nie?
Adrian Żebrowski
No jasne.
Maciej Biegajewski
Jakby ja nie lubię tego typu odniesień jakby stricte przenosić, bo jest masa czynników, natomiast to, co ja zawsze uważam za wspólne, To jest to, że zarówno sztuczna inteligencja, jak i internet pod koniec lat dziewięćdziesiątych to były, to są jakby tak samo przełomowe technologie, które w długim okresie na pewno, że tak powiem, doprowadzą nas do wielkich rzeczy i firmy, które się nad tym skupią na pewno osiągną bardzo wiele, wiele dużych rzeczy. Natomiast tak jak w przypadku dot.com, bubble, zachodzi też czynnik po pierwsze to co o czym wspomniałeś, czyli możliwości, ale ten także timing tego co tak naprawdę ludzie mogą wykorzystać na podstawie tej technologii, bo nie zapominajmy, że na przykład Wiele firm, np. Z tego co dobrze pamiętam, Netscape, który na przełomie lat 90-tych i 2000-tych był czołową przeglądarką, też chyba wyszukiwarką z tego co pamiętam.
Adrian Żebrowski
W Mozilla przeistoczył, czy został wykupiony przez kogoś i potem zmienił.
Maciej Biegajewski
Może być, ale…
Adrian Żebrowski
W każdym razie nie przeszedł tego w tej chwili.
Maciej Biegajewski
Ale z tego jakby to była wielka firma wyceniona na ileś tam miliardów, a okazało się, że bardzo szybko przegrała z Googlem, który potrafił, nie wiem czy lepiej wyczuł trendy, czy lepiej po prostu jakby zaadaptował się na tym zmiennym, zmiennym środowisko, no ale jakby możemy mnożyć przykładów firm, które w momencie jakby tej bańki internetowej miały bardzo szybki wzrost, o czym okazało się, że albo ludzie nie są gotowi na to, albo w ogóle ta obietnica była pisana patykiem po piasku tak naprawdę. Dzisiaj pewnie też jest taki wyścig tego, kto więcej obieca i przy okazji kto uzyska więcej czasu, żeby spróbować dowieść choć część tych obietnic.
Maciej Biegajewski
Wielokrotnie już jakby mieliśmy do czynienia z takimi sytuacjami że wychodził nowy jakiś tam piękny startup ubrany w piórka jakby czego on to nie zrobi aż dochodziło do momentu kiedy API OpenAI miało awarię i okazywało się że to nie była firma która robiła swoje własne swój własny produkt tylko budował po prostu nadbudówkę jakiś interfejs nad czymś na czymś więc Więc na pewno jesteśmy w czasach takiej gorączki złota, co niejednokrotnie podkreślaliśmy. I na pewno jest na rynku dużo film, które, jak to się mówi, fake it till you make it, tak? Czyli jakby wiele filmów coś obiecuje, co po prostu, jak to mówią, król Król jest nagi, tak? I prawdopodobnie jeszcze w wielu przypadkach nie dotarliśmy do tego momentu, kiedy szersze audytorium nie powiedziało. Sprawdzam, tak? Sprawdzam tych wielkich możliwości.
Adrian Żebrowski
Ale nie.
Maciej Biegajewski
Aczkolwiek, tak jak mówię, ten trend jest wszechpotężny i na pewno firmy, które będą rozsądnie do tego podchodzić, jakby znając swoje możliwości i też jakby wszystkie bariery, o których też dzisiaj będziemy mówić, No to na pewno na końcu będzie znaczący profit, znacząca nagroda. Myślę, że wszyscy chyba czekają na to, aż AI się przewróci z tego rowerka.
Adrian Żebrowski
Trochę tak jest. Na takie urealnienie wszyscy czekają i to jest emocja, którą też bardzo często spotykam. W różnych miejscach internetu i w dyskusjach także. Natomiast taka jest specyfika nowych technologii, tak jak już powiedziałeś. Więc tutaj myślę, że nie musimy się absolutnie odrywać od szerszego kontekstu historycznego.
Maciej Biegajewski
Ale wiem, bo też zaczęliśmy o tym opowiadać, bo wiadomo, że o tych barierach rozwoju, tych takich różnicach między oczekiwaniami, a ostateczną jakby formą tego, co nam dostarczają te wszystkie narzędzia, jest, jest bardzo dużo barier i wiele miejsca my poświęcaliśmy również w naszych dyskusjach na temat tych barier technologicznych. Ale tak jak ty tutaj przygotowałeś kilka takich ciekawostek, jakby nie tylko o to się rozbijamy w kontekście sztucznej inteligencji.
Adrian Żebrowski
Tak, nie tylko o to i tutaj ważnym elementem w kontekście ograniczenia takiej teoretycznej skalowalności tych modeli będą znowu dane. To znaczy wracamy do tego koronnego punktu, który sobie wyprowadziliśmy na początku. Trafiamy na limity danych, na których możemy wytrenować te modele. I z danymi właściwie idzie też taka konkluzja i taka fundamentalna natura tych modeli. One są trenowane na danych ludzkich, to znaczy mogą ekstrapolować pewne analogie, pewne gdzieś tam zależności logiczne, co dzisiaj nawet profesor Dragan na Twitterze… Przepraszam, X-ie. Trzy lata minęły z kawałkiem, a ja dalej Twitter. Pokazywał na zasadzie takiej gry logicznej, takiej zagadki logicznej, jak wadliwa może być ekstrapolacja logiki z jednej dziedziny na drugą, którą czat GPT i właściwie ten model GPT-5 robi automatycznie właściwie. Operuje na bardzo dużych analogiach i trochę takich korwinizmach.
Adrian Żebrowski
To znaczy, jeżeli pewna sekwencja logiczna się sprawdziła w jednej dziedzinie, w jednym kontekście, to model od razu zakłada, że to się stanie także w zupełnie innej sytuacji, przy zupełnie innych uwarunkowaniach. I to jest pewne zachowanie, które wynika właśnie z kończących się danych. Z faktu, że jest pewna ogromna oczywiście, ale skończona liczba 0 i 1, które można do tego modelu załadować. I to jest myślę największy z problemów, które napotkają te ogromne firmy typu właśnie OpenAI, bo możemy z kolei gdzieś tam generować sobie te dane syntetyczne i używać modeli i właściwie trenować modele tylko pod generację tych danych syntetycznych. Natomiast to będzie rozwadnianie tego nektaru, tego ekstraktu, który bierze się właśnie z ludzkiej umiejętności syntezy wiedzy, syntezy tych bodźców i środków, które do nas docierają.
Maciej Biegajewski
Ja tutaj tylko przerwę, bo to jest też informacja jakby z artykułu naukowego, który podsyłałeś i według którego publiczne dane wysokiej jakości szybko się wyczerpują. I według prognozy mogą się skończyć już w latach 2026-2028. Czyli jesteśmy jakby, no widzimy już tą ścianę, do której się zbliżamy i bardzo trudno jest przed nią wyhamować.
Adrian Żebrowski
No i co dalej, bo tak jak mówię, problemem także jest taka fundamentalna nieścisłość i nieadekwatność. Przekładania jednego gdzieś tam systemu logiki czy rozumowania na zupełnie niepowiązane dziśny. To nie jest problem, który te firmy rozwiążą na pewno łatwo. No profesor Jan Lekun, czyli głowa właściwie, głowa, ręce, rozum i człowiek, instytucja odpowiadający za rozwój AI w Facebooku dzisiaj Meta. Boże, ale tym jest termin, nazwę posypię. Stary już jestem. Odpowiada na te wszystkie pytania, które także jemu są zadawane, że modele językowe nie są architekturą, która doprowadzi nas do superinteligencji. Że jego zdaniem to jest technologia, która fundamentalnie musi się rozbić o to, o co się rozbija w tej chwili i rozbije się zapewne za dwa lata. Że te architektury nam znane i tak mocno dokapitalizowane i stawiane gdzieś tam w centrum na dzisiaj mają swój wymierny limit przydatności w kontekście właśnie progresu superinteligencji.
Adrian Żebrowski
Także to mówią mądre głowy. Drugą stroną problemu jest także monopol pewnych dużych firm na moc obliczeniową. Na serwery, na których to może być wszystko hostowane, na karty graficzne, na których dokonuje się ta inferencja, którą potem w Friendpointach możemy odpytywać i odbierać. Jak i samo trenowanie. I tutaj myślę, że także NVIDIA odgrywa ogromną rolę jako ten monopolista. I jestem ciekaw Twojego zdania właśnie. Co sądzisz w obliczu tam obecnych wiatrów geopolitycznych, które wieją na Pacyfiku? Jak widzisz rozkład sił, w kontekście zdobywania przez głównie Chiny, bo mamy do czynienia z tym tygrysem chińskim, który jest bardzo drapieżny, szczególnie w kontekście modeli open source. Jak myślisz, czy Chiny znajdą jakąś odpowiedź na kurczącą się moc obliczeniową i czy przełomu z Twojej perspektywy powinniśmy dopatrywać bardziej po amerykańskiej stronie Pacyfiku, czy po stronie chińskiej?
Maciej Biegajewski
To jest bardzo ciekawe pytanie, ponieważ Chiny zresztą ten rok trochę należał do… Jakby Chiny trochę odkryły karty, tak? Premierami swoich modeli językowych, które znowu mam trochę wrażenie, że były trochę demonstracją siły. Ale z biegiem czasu okazało się, że nie wszystko jest takie piękne jak tutaj informacje z dalekiego wschodu, z Pekinu nam pokazują. Trudno mi się szczerze mówiąc wypowiadać na temat rynku chińskiego i myślę, że to jest też podyktowane tym, że nie ma aż tak wiele wiadomości na ten temat. To znaczy, wszystko co dzieje się w Chinach jest może nieocenzurowane, ale jest pod takim płaszczykiem niedopowiedzeń. Jakby oni sobie dbają o to żeby o tym nie mówić za głośno i być może jest to słuszna taktyka. Natomiast patrząc na rynek amerykański co jakiś czas dochodzą informacje na temat konkurentów rzekomych konkurentów Nvidia. Czy to są konkurenci którzy faktycznie mają jakieś realne szanse ugrania czegoś.
Maciej Biegajewski
Nie wiem. Jakby nie jestem aż takim specjalistą w tej technologii. Wydaje mi się znowu że jesteśmy w takim okresie że wszystkie takie nowinki w stylu że tutaj rośnie konkurent Nvidia mogą być takim po prostu pump and dump trochę. No bo jednak rynek liczy na szybkie wzbogacenie się a obecnie najłatwiej wzbogacić się pewnie na tego typu spekulacje pod kątem mocy obliczeniowej. Sztucznej inteligencji itd. A na co chciałem zwrócić uwagę, że NVIDIA mimo tego, że naprawdę od dwóch lat praktycznie raz w tygodniu czytam artykuł o tym, że NVIDIA już się kończy. To już jest ten czas, kiedy NVIDIA będzie szła tylko w dół.
Maciej Biegajewski
No to NVIDIA cały czas powoli, bo powoli, ale gdzieś tam zmierza w kierunku kolejnych szczytów i rekordów i chyba rynek przynajmniej w obecnym momencie no jasno pokazuje, że dla nich liczy się tylko, tylko ten amerykański dostawca, który zresztą też z tego co kojarzę też w pewnym sensie złagodziło się to prawo eksportowe też, też, też, też.
Adrian Żebrowski
Tak, tam były bardzo polityczne scenariusze.
Maciej Biegajewski
Więc mogę się oczywiście mylić, ale na tą chwilę Wychodzi na to, że to Nvidia cały czas trzyma i rozgrywa karty, ale być może w korytarzu gdzieś czeka już być może chiński odpowiednik, który czeka na tą premierę. Natomiast pamiętajmy, że raz, że samo zaawansowanie technologiczne to jest jedna kwestia, która dyktuje jakieś warunki na tych rynkach GPU. Ale drugą kwestią są też takie kwestie jak np. Koszt siły roboczej. I tak dalej i tak dalej. I też jakby nie do końca już rynek chiński jest konkurencyjny pod kątem tej ceny siły roboczej. A tu jeszcze warto przypomnieć o tym, że inne firmy strategiczne dla tego rynku i dla w ogóle amerykańskiej gospodarki Intel można powiedzieć, że częściowo też został znacjonalizowany ostatnio ponieważ kilka miliardów dolarów zostało jakieś w postaci subsydiów jakby wysłane tam.
Adrian Żebrowski
W zamian za pakiet decyzyjny, tak?
Maciej Biegajewski
I to też jest jakby taki znak, że że Amerykanie lubią mieć rękę na pulsie i mimo, że wiele osób mówiło o tym, że Intel zaraz już nie będzie z nami co zbierać, okazuje się, że jest to firma na tyle ważna, podejrzewam, że z militarnego punktu widzenia, że będzie musiała być utrzymywana. Temat rzeka.
Adrian Żebrowski
Temat rzeka, tak. Natomiast bardzo ciekawy temat poruszyłeś, mianowicie amerykańskie kolosy technologiczne, które mogą przespać albo nie dać sobie rady z pewną rewolucją. I tutaj ciśnie mi się na usta przypadek Apple, który absolutnie nie dał sobie rady z wdrożeniem AI do swoich urządzeń. Mówią o AI, tylko mówią o machine learning. To taka ciekawostka. Oni nie mówią, że to jest AI, bo wszyscy mówią, że to jest AI. Apple musi mieć to po swojemu. I oni na przykład pokpili sprawę totalnie, jeżeli chodzi o wdrożenie AI do Siri. Z tego co wiem, mają kupić teraz Mistral AI, co dla nas, Europejczyków, powinno być czerwoną lampką i powinno być alarmem w Brukseli podniesionym tak głośno, jak tylko się da. A także Preplexity chcą kupić. To taka ciekawostka. Natomiast ja o Preplexity też mam swoje zdanie jako tam nakładka na modele, a nie jakieś tam pionierskie rozwiązanie.
Adrian Żebrowski
Ale mogę być tylko tetrykiem i marudzić po prostu jak zwykle. Natomiast chciałem w przypadku Apple’a odwołać się do ich artykułu, który opublikowali kilka tygodni temu. Mianowicie ten artykuł się nazywa The Illusion of Thinking Understanding the Strengths and Limitations of Reasoning Models. To wraca właściwie do esencji naszej rozmowy, czyli te Large Reasoning Models, które według tego opracowania opublikowanego przez ludzi odpowiedzialnych za właśnie wdrożenie i research sztucznej inteligencji w ramach operacji firmy Apple, te badania zakładają i wywodzą taką teorię, taki zestaw, można powiedzieć, argumentów naukowych, które wykazują, że te modele, large reasoning models, o których mówiliśmy na początku, one zawodzą w kontrolowanych testach, na łamigłówkach, które wymagają prawdziwego, abstrakcyjnego rozumowania. Czyli znowu dochodzimy do fundamentalnej konkluzji, że ekstrapolacja pewnych zasad logicznych, ona nie zawsze się musi spełnić ostatecznie. Nie wydaje mi się, żeby publikacja tego artykułu naukowego była, przepraszam, była powiązana z jakimiś celami biznesowymi Apple’a.
Adrian Żebrowski
Wydaje mi się, że to jest absolutnie, że tak powiem, rozwiedziony pomysł z celami biznesowymi i z wykazywaniem jakichś tam zarobków, czy uzasadnieniem polityki, a właściwie nawet nie tyle polityki, co pomyłek firmy. Natomiast to jest bardzo ważny sygnał, jeżeli osoby decyzyjne w tak ogromnych korporacjach pokazują, że to nie jest idealna technologia, no to możemy mówić o pewnego rodzaju urealnieniu oczekiwań w odniesieniu właśnie do tego, cośmy mówili na początku. Do tego w tej pracy wyprowadzone i przedstawione przykłady udowadniają, że przy trudnych problemach te modele myślą mniej. Co stawia ogromne pytanie, ponieważ jest to zupełnie kontrintuicyjne i odszczepione od tego, jak myślą i jak zastanawiają się nad tym wszystkim ludzie. Co więcej, i tu będzie taka już w ogóle podkreślona i zakreślona trzy razy konkluzja. Mianowicie nawet w przypadku podania gotowego algorytmu do rozwiązania danego problemu, te modele i tak się mylą.
Adrian Żebrowski
Co wydaje mi się, że to był w ogóle taki bardzo popularny przykład, którym też się posiłkowałem kiedyś, kiedyś, kiedyś, bije się w piersi, że ci modele są jak juniorzy, jak starzyści. A przynajmniej, że trzeba do nich tak mówić. No i tutaj też jest problem, bo Jak starzyście powiesz, żeby zrobił coś według konkretnych instrukcji, to on to zrobi. A modele przeczytają.
Maciej Biegajewski
Potrafią to interpretować po swojemu.
Adrian Żebrowski
I potrafią to tak, potrafią to zupełnie wyprowadzić w ogóle jakimś innym torem. Także, no tutaj pytanie też do ciebie. W kontekście właśnie takiego, takiej dysobediencji i kontrintuicyjnego postępowania w ramach tych modeli. Ty jako specjalista w marketingu, odpowiedzialny za naprawdę wiele skomplikowanych takich projektów i zadań. Jeżeli miałbyś coś zlecić, zaobserwować takiemu modelowi, to byłbyś w stanie to zrobić z czystym sumieniem i sercem? Jakie w ogóle minusy zauważasz tego wszystkiego? Jaka jest twoja perspektywa jako osoby odpowiedzialnej?
Maciej Biegajewski
Oczywiście, że nie. To może też brzmieć jako taki banał, że zawsze musi być kontrola człowieka itd. Że może jest to trochę życzenie myśleniowe. Odwrotnie. Myślenie życzeniowe, tak? Bo w każdym z nas jest jakaś tam obawa przed sztuczną inteligencją. No ale w obecnym poziomie zaawansowania nie wydelegowałbym wszystkiego jakoś tak bezmyślnie, bez kontroli do nawet najskuteczniejszych jakichś algorytmów. No bo skoro ludzie potrafią się mylić, to pewnie podejrzewam, że jeżeli właśnie te wszystkie algorytmy zostały zbudowane na jakichś takich naszych wnioskach, jakiejś twórczości, to zawsze jest tam zaszyta jakaś taka niedoskonałość. A z drugiej strony to jest to, o czym często my rozmawiamy, że koniec końców jakby w takiej pracy tak naprawdę w bardzo szerokim pojęciu nie liczy się de facto kto coś zrobi, kto za cały ten proces weźmie odpowiedzialność.
Maciej Biegajewski
Jakby budując most, okej, jakby tam na pewno praca wszystkich osób, które budują to jakby jest bardzo ważna, no ale de facto jakby największą odpowiedzialnością jest inżynier jakiś nadzór budowlany, który wszystko zmierzył, żeby kiedy przejadą dwie ciężarówki, żeby ten most się nie zawalił. I wydaje mi się, że to jest jakby dobra analogia do właściwie każdej pracy, czy to biurowej, programistycznej, jakiejkolwiek. Na końcu liczy się właśnie ten pilot. O, to jest ten dobry przykład. Pamiętajmy, że w samolotach od wielu lat mamy praktycznie autonomiczne systemy lotu, tak? Oczywiście, świetny przykład. Natomiast nie pozbyliśmy się z kabiny pilota, bo zawsze musi być człowiek, który w razie czego… To nie jeden, słuchaj. Tak, który chwyci właśnie za stery i sprowadzi tak jak chyba kapitan Wrona, tak? Słynny nasz polski. Pozdrawiamy naszego jednego z…
Adrian Żebrowski
Śmiało, ale tak, pozdrawiamy. Że nas słucha, pozdrawiamy.
Maciej Biegajewski
Myślałem, że jakieś inne są kontrowersje, ale z tego względu… Nie, nie, absolutnie. Także no zawsze o… Bo to jest też to, jeżeli mówimy o jakimś tam w moim rozumowaniu, które może być niekompletne, bo nie jestem tutaj żadnym specjalistą, ale jeżeli mówimy o modelach opartych na statystyce, tak? To statystycznie jest jakieś, że tak powiem, prawdopodobieństwo wystąpienia ekstremalnej sytuacji, którą nie zawsze te modele mogą brać pod uwagę, a życie swoje, tak? No tutaj często się mówi o różnych takich przypadkach, że jak coś ma pójść źle, to właśnie pójdzie, nie? I od tego jest człowiek, który jest w stanie myśleć nie szablonowo, wbrew czasem regułom, wbrew logice czasem też nie. No dlatego jakby z perspektywy osoby właśnie z marketingu która oczywiście jakby daleko jest mi do tutaj postawienia się w roli pilota samolotu. Ale też mam swoje odpowiedzialności wobec klientów czy przełożonych.
Maciej Biegajewski
No nie poświęciłbym w tym momencie i nie wiem czy kiedykolwiek poświęciłbym jakby właśnie tą tą tą tą Możliwość wzięcia odpowiedzialności.
Adrian Żebrowski
Bycia w pętli decyzyjnej. Oczywiście, że tak. Zgadzam się z Tobą w stu procentach. Natomiast jest jeszcze jeden wymiar tego delegowania odpowiedzialności i takiej przewagi człowieka nad tymi modelami. I to jest liczba czujników, które ma nasze ciało. I tak jak już powiedziałem, natura poświęciła na to kupę czasu, żeby nas doprowadzić do takiej okrągłej natury, nazwijmy to, która pozwala na rozpoznawanie chociażby mowy ciała innych ludzi. Także sama pętla decyzyjna nawet, przetworzenie wszystkich tych bodźców dopasowanie się, podjęcie jakichś czynności na podstawie tych rzeczy, no to przecież to mogą być ułamki sekund w przypadku człowieka.
Maciej Biegajewski
Zwłaszcza, że…
Adrian Żebrowski
A robot, nawet jeśli przybierze taką bardzo humanoidalną formę, no to będzie zawsze ograniczony, nawet jeśli nie w czasie reakcji, to w wymiarze tej reakcji, czy jakiejś mobilności, to będzie zawsze jakoś obostrzone. Mamy przewagę.
Maciej Biegajewski
Zwłaszcza, że takie paterny, takie wzorce, najprostsze w mowie ciała, czyli jeżeli, podejrzewam, w 90% ludzi na świecie, czyli w znakomitej większości, jeżeli się potakuje, jeżeli się mówi tak, kiwamy głową, jeżeli się zaprzecza to kręci się głową, tak? Natomiast Bułgaria, kraj do którego jutro jadę, ma to zupełnie na odwrót, tak? I jest to jakby kulturowo zakorzenione, ponieważ tak jak mówi tam Głoś jakaś legenda, był to odpowiedź na atak osmański, gdzie chcieli zmylić przeciwnika. Czyli mamy bardzo małe odstępstwo od normy w takiej globalnej skali. I ty jako człowiek jesteś w stanie się tego nauczyć, zinterpretować to itd. Maszyna myśląca jakimiś tam globalnymi systemami. No nie zawsze jakby w tej kontekście właśnie mowy ciała mam wrażenie, że będzie mogła wychwycić tego typu małe rzeczy.
Adrian Żebrowski
Jasne. Jesteśmy skazani wbrew pozorom na pewną linearność postępowania przy tych systemach. Kolejna sprawa i myślę, że to nam zdefiniuje esencję całej tej naszej dyskusji i sprowadzi nas na taką ścieżkę ku konkluzji, ponieważ bardzo dużo mówimy dzisiaj o ludziach wbrew pozorom, mimo że to podcast o EJ, to jednak ten ludzki wymiar jest wszechobecny i tutaj wszystkie te dywagacje o statystyce, o probabilistyce, o skrajnych scenariuszach postępowania, o tym jak przetwarzamy my dane, jak przetwarzają dane komputery, o sensorach, o czujnikach. To wszystko sprowadza się do istoty poznania, do epistemologii. I takie pytanie, a także do filozofii. No i pytanie, które filozofowie sobie od tysięcy lat już zadają.
Maciej Biegajewski
I my też se musimy… To się filozofom nie śniło.
Adrian Żebrowski
Tak, dokładnie. I to się filozofom nie śniło. I tu mam pytanie do ciebie. Czy twoim zdaniem My jako ludzie rozumiemy świat w sposób jednoznaczny. I tutaj dlaczego zadaję to pytanie? Ponieważ to nam zdefiniuje kontekst obecnej architektury modeli językowych i tego właśnie skalowania logiki na inne dziedziny, czy takiego przybrania pewnych sekwencji, zadawania sobie pytań, rozumowania. I w przypadku, gdyby to była odpowiedź twierdząca, że tak, jest pewna jednoznaczność w tym, jak my rozumiemy świat i jak on naprawdę działa, No to jesteśmy na prostej drodze gdzieś tam do zbudowania tej superinteligencji. Teoretycznie, tak bym postawił koniunkcję w tym przypadku. Natomiast jeżeli tak nie jest, no to znowu rozjeżdżamy się tak już spektakularnie. Ciekawe Twojego zdania na ten szeroki temat i możemy tutaj chyba rozmawiać 8 godzin.
Maciej Biegajewski
To jest piękne pytanie, ponieważ ja jestem też amatorem, bardzo lubię rozmyślać na tego typu filozoficzne tematy. Ja staram się myśleć zawsze o perspektywie człowieka jakby z dwóch płaszczyzn, to znaczy takiej racjonalnej, bym powiedział biologicznej, to znaczy interpretacja świata i tego wszystkiego, co nas otacza przez pryzmat jakichś praw natury. To znaczy tego, że celem człowieka jest konsumpcja, prokreacja, jakieś bezpieczeństwo, ale też zdobycie terytorium. Wszystko to, co sprowadza się do rozumienia świata poprzez te wartości przedłużenia gatunku, to jakby cały czas w nas jest. Zresztą to pokazuje tak naprawdę, co się dzieje teraz na świecie. Wszystkie jakieś tam rzeczy polityczne, tak? No jakby to jest jakby zbudowanie pięknej historii do tego, że zawsze musi być ktoś silniejszy od drugiego i zawsze będzie to walka.
Adrian Żebrowski
Szczepiona dynamika.
Maciej Biegajewski
Więc w takim sensie jednoznaczności świata myślę, że tak. Natomiast pamiętajmy, że człowiek wyewoluował i to jest właściwie chyba dobra informacja i to jest ta doskonalsza forma człowieka, bo dorzuciliśmy sobie takie spektrum myślenia abstrakcyjnego, myślenia o rzeczach większych niż ten biologiczny żywot, bo myślimy o życiu po śmierci, o życiu przed naszym życiem. O nawet jakichś alternatywnych światach. I przede wszystkim stworzyliśmy sztukę, która też jest moim zdaniem takim wyrazem pewnych niezrozumianych emocji. Te, które właśnie się kłócą z tym takim biologicznym, najbardziej pierwotnym, ale to też nie chcę powiedzieć, że to jest jakaś tam zła strona. Człowieka to jest po prostu inna strona człowieka, bo ja zawsze mówię, że przede wszystkim człowiek Najpierw jest zwierzęciem, a potem jest człowiekiem. Jakby nie odwrotnie.
Maciej Biegajewski
I ubranie tych wszystkich abstrakcyjnych myśli, które kłócą się trochę z tą egzystencją właśnie tego biologicznego żywota, że tak to brzydko może nazwę, ma jakieś swoje ujście właśnie czy w sztuce pisanej, czy w poezji, czy w tańcu, czy w malarstwie i tak dalej. No i samo to pokazuje nam, że jakby ten aspekt życia ludzkiego i jakiejś tam twórczości nie jest możliwy do jednoznacznej interpretacji. I tutaj podam dwa przykłady. Jeden przykład jest taka anegdotyczna. Mam nadzieję, że się nie pomylę, ale chyba Wisława Szymborska jeszcze jak żyła, to ktoś po prostu dał jej do interpretacji Jej wiersz, który pojawił się na jednej z matur, z egzaminów dojrzałości. No i autorka zinterpretowała go jako autorka i zostało to pokazane komisji, która zinterpretowała to zupełnie inaczej. I to pokazuje, że jaki jest rozjazd, że interpretacja autora czasem może się nie równać nawet z interpretacją społeczną.
Adrian Żebrowski
A mówimy o tym samym zestawie danych wejściowych, co ciekawe, więc to już w ogóle.
Maciej Biegajewski
No to tak, jakby przekładając na ten świat, ejaj tak. Natomiast jakby druga znowu anegdota. Jednym z moich ulubionych filmów jest Fight Club, polsku Podziemny Krąg i ja go oglądam praktycznie co roku na różnych etapach mojego życia i pierwszy raz oglądałem go w wieku bodajże 17 lat i wtedy wydawał mi się to taki fajny film o biciu się, o jakimś tam takim wyładowaniu się i tak dalej, ale z każdym kolejnym obejrzeniem tego samego filmu i z moim dojrzewaniem i pewnie z jakimiś zmianami świata poglądowymi, interpretuje ten film w ogóle w zupełnie innym stopniu, zwracam uwagę na inne rzeczy. No i samo to pokazuje, że tak naprawdę interpretacja naszego życia może naszymi oczami też przebiegać w zupełnie inny sposób. Więc jeżeli myślimy o takiej abstrakcyjnej części myślenia, języka itd., który też myślę, że można do sztuki zakwalifikować, no nie jest możliwe, nie?
Adrian Żebrowski
Po prostu, zgadzam się.
Maciej Biegajewski
Zresztą, no mówię, tutaj też ostatnio na Instagramie był taki ciekawy release, rolka o kobiecie pochodzącej z Afryki, która studiuje filozofię i ona właśnie tłumaczyła o tym, że jest wiele afrykańskich narodów, plemion, które nie potrafią zinterpretować przyszłości. Po prostu przyszłość dla nich nie istnieje. I nam, powiedzmy, z zachodniego świata jest to niewyobrażalne. My właściwie w zachodnim świecie żyjemy tylko i wyłącznie przyszłości. Przyszłością, a no spora część kontynentu, spora część ludzkości nie żyje tym.
Adrian Żebrowski
Oni sobie rzekomo tam tworzą czas poprzez swoje wspomnienia, poprzez czynności, poprzez taką aktywną, intelektualną obecność w tym, co robią.
Maciej Biegajewski
I samo to pokazuje, że jakby te różnice interpretacji w ogóle są takich bardzo podstawowych rzeczy, no bo wydaje mi się, że większość z nas zapytana na ulicy by powiedziała, no przyszłość jest. Wszyscy w nią wierzą, nie? A to nie jest prawda, ale to też pokazuje, to znowu jakby to jest taka dygresja kulturowa bardzo i też może właściwie to jest bardziej taka rozmowa o jakichś takich typowo filozoficznych aspektach, ale jeżeli byśmy się zastanowili nawet nad tym, że właśnie architekci sztucznej inteligencji obecnie to jest albo świat zachodni w dużej mierze, który kształci tą sztuczną inteligencję przez pryzmat swoich doświadczeń, swoich wizji świata i ewentualnie właśnie świat dalekiego wschodu, który też jest zupełnie inny mentalnie. No też pozostaje właśnie kwestia tego, że kiedyś możemy się obudzić właśnie w takich Nawet nie wiem, czy bańkach, nie? Ale w jakichś zupełnie systemach żyjących swoją jakby własnym życiem, nie?
Maciej Biegajewski
Który, który… Do którego nawet nie będziemy w stanie przeskoczyć, nie? Więc, więc w ten sposób… O ile.
Adrian Żebrowski
O ile nie nastąpi jakaś walka o dominację.
Maciej Biegajewski
No, ale to już… Być może, ale.
Adrian Żebrowski
Ale… Za głęboko w naturę będziesz.
Maciej Biegajewski
W ten sposób bym, że tak powiem, rozdzielił jakby te dwie kwestie i na pewno jakby w tym… W świecie abstrakcyjnym tutaj jestem w stanie postawić naprawdę spore kwoty na to, że nie jesteśmy w stanie dojść do jakiejś.
Adrian Żebrowski
Jednoznacznej obiektywnej natury świata i że takowa nie istnieje. Jasne, dobra, zgadzam się z Tobą całkowicie. Od A do Z wyczerpałeś temat, słuchaj. I na tym będziemy, na tej fantastycznej refleksji filozoficznej.
Maciej Biegajewski
Uszy parują, także serdecznie dzięki za wysłuchanie. Dajcie nam znać w komentarzach, co wy o tym sądzicie.
Adrian Żebrowski
Tak, pszenki filozoficzne o tym bardzo mile widziane. To jest klub dyskusyjny.
Maciej Biegajewski
To jest jakby ten czas na filozofię, bo tak jak słusznie zauważyłeś, niby mówimy o sztucznej inteligencji, ale mam wrażenie, że na tych podcastach częściej mówimy o tej ludzkiej stronie.
Adrian Żebrowski
Ale to dobrze.
Maciej Biegajewski
Tak, no to też jest chyba slogan naszego podcastu, nie?
Adrian Żebrowski
Ojaj ludzkim głosem.
Maciej Biegajewski
Ojaj ludzkim głosem. Także serdeczne dzięki za wysłuchanie i do usłyszenia jak najszybciej mam nadzieję.
Adrian Żebrowski
Tak jest, do usłyszenia.
![JAKIE SĄ BARIERY ROZWOJU AI? [Podcast] bariery rozwoju ai](https://beaiware.pl/wp-content/uploads/2025/10/bariery-rozwoju-ai-1024x576.jpg)