W tym odcinku podcastu BeAIware – o sztucznej inteligencji ludzkim głosem przyglądamy się jednej z najbardziej niepokojących, ale i fascynujących koncepcji ostatnich lat — teorii martwego internetu. Czy to tylko kolejna teoria spiskowa? A może realny opis zmian, które właśnie na naszych oczach przeobrażają sieć?
Maciej Biegajewski i Adrian Żebrowski zabierają nas w podróż po temacie, który z każdym miesiącem staje się coraz bardziej aktualny. Rozmawiają o tym, jak wiele treści w sieci generowanych jest przez AI (i co na ten temat mówią badania), jak zmienia się nasze postrzeganie mediów społecznościowych oraz jakie konsekwencje może mieć zalew syntetycznej treści — nie tylko dla jakości informacji, ale i dla naszej zdolności do ich przyswajania.
Poruszamy wątki etykietowania treści AI, wpływu algorytmów na jakość Internetu, roli open source w przyszłości sieci oraz – co szczególnie ciekawe – próbujemy odpowiedzieć na pytanie: czy to już moment przesilenia, czy dopiero początek cyfrowego rebootu?
Zanurz się w transkrypcję pełną obserwacji, faktów, anegdot i intelektualnych wędrówek. To odcinek, który daje do myślenia – nie tylko o przyszłości Internetu, ale i o naszej roli w jego współtworzeniu.
00:00
Adrian Żebrowski
Ja myślę, że już jesteśmy w tym punkcie i dlaczego się w nim znajdujemy, na to też jest bardzo prosta odpowiedź. Więc zmienił się też interfejs konsumowania tych informacji, co wcale nie zmieniło popytu na samą informację. On się po prostu przeniósł z człowieka do crawlerów.
00:17
Maciej Biegajewski
Czyli jakby sama ta chęć zastępowania tych treści ludzkich, w tym takim osobistym sensie takiego bardziej emocjonalnego, jest to twór algorytmów, czy to jest raczej nasza chęć optymalizacji tego, przyspieszania tego, wyciągania. Ja się nie dziwię temu, że te treści przejmują powoli ten Internet, bo bardzo często to są bardzo abstrakcyjne rzeczy, które wywołują w nas taką natychmiastową chęcią podzielenia się tym z innymi osobami.
00:57
Maciej Biegajewski
Cześć wszystkim, bardzo serdecznie was witamy w kolejnym odcinku podcastu BeAiware o sztucznej inteligencji ludzkim głosem Po raz kolejny razem ze mną jest Adrian Dzisiaj opowiemy o takim, no jak to bywa naszym blogu, na takim bardzo na czasie temat, ale ten temat trafił mi się również dosyć przypadkowo, to znaczy dzisiaj opowiemy troszeczkę o teorii martwego Internetu, co to jest za koncepcja i czy w ogóle to jest jakaś teoria spiskowa czy to faktycznie możemy mówić już o czymś co zmienia raz na zawsze sieć taką jaką ona jest i ten temat trafił mi się tak jak mówiłem dosyć przypadkowo ponieważ w ostatnim czasie na Linkedinie pojawił mi się post kilku osób, które mówiły praktycznie o tym samym.
02:05
Maciej Biegajewski
Pojawił się taki trend, który wskazywał na to, w jaki sposób odróżniać treści pisane właśnie na LinkedIn czy też na blogach za pomocą sztucznej inteligencji i ogólnie przyrodził się z tego taki manifest jakby niezadowolenia tego, że trafiamy na tyle treści generowanych przez sztuczną inteligencję i Adrian, czy ty też masz takie samo wrażenie, czy twój fit, twoje tablice też są jakby ubogacone tego typu wpisami?
02:43
Adrian Żebrowski
Bez dwóch zdań, wszyscy dzisiaj jesteśmy dziećmi algorytmów i treści pisanych dokładnie pod te algorytmy, tak że chyba nie da się przed tym uciec. Ilość tych treści jest wprost proporcjonalna też do stopnia zaawansowania technologii. No i to jest też oczywiście mechanizm, który nakręca całą tę gospodarkę cyfrową, ponieważ im więcej, można powiedzieć, punktów pomiaru, sensorów w internecie nastawionych zostaje przez duże firmy czy przez firmy, które dostarczają oprogramowanie, które z kolei dostarcza nam jakąkolwiek wiedzę czy też feedback dotyczący tego, jak się zachowujemy w internecie, to siłą rzeczy będzie też rosła świadomość takich mechanizmów, takiego nazwijmy to gatekeepingu informacji czy algorytmicznego sortowania tej informacji, no i będą też próby optymalizacji pod właśnie te algorytmy, pod właśnie te trackery.
03:42
Maciej Biegajewski
Ja zrobiłem pewien research dotyczący tego na ile się szacuje jak wiele treści w ogóle obecnie jakby na dzień na sierpień 2025 roku na ile się szacuje właśnie ile tych treści w internecie jest generowanych przez AI. A czy ty byś zaryzykował jakąś liczbę jak miałbym cię zapytać.
04:14
Adrian Żebrowski
Myślę, że z 85%, 80-85%. Tak, nie mam pojęcia.
04:20
Maciej Biegajewski
Tak źle jeszcze nie jest, przynajmniej według tych badań, do których ja dotarłem i to są badania, pierwsze z nich to jest badanie Dirka z Penmana, tutaj z jednego z australijskich uniwersytetów, zaraz też wyświetlę tutaj źródło, żeby nie być gołosłownym i to są badania z końcówki 2024 roku, czyli stosunkowo świeże i wtedy właśnie pan Dirk wskazywał na to, że ponad 30%, a prawdopodobnie nawet 40% tekstów na aktywnych stronach internetowych pochodzi z narzędzi generatywnych AI i w ogóle sama metodologia tego badania była bardzo ciekawa. Ponieważ tam sprawdzono, jakby zauważono, że w tekstach generowalnych przez AI pojawia się często bardzo wiele podobnych fraz, nie, to jest jakby taki, przyjęto to za słowo klucz, za taką metodę pomiaru i przyjęto właśnie takie specyficzne słowo, może zaraz je znajdę, o ile się nie mylę, dwell, Tak, tak, dokładnie tak.
05:45
Maciej Biegajewski
I zauważono właśnie, że od czasu, kiedy chat GPT zaczął sugerować to słowo, bardzo często w przypadku eksperckich tekstów, to również wzrosła liczba użycia tego słowa właśnie w publikacjach naukowych, wzrosła także właśnie w takich eksperckich blog postach, czyli metodologia dosyć ciekawa, interesująca, bo też spotkałem się właśnie z tymi opiniami, że stosunkowo trudno jest obecnie sprawdzić tak naprawdę, bo te treści zazwyczaj tworzone przez sztuczną inteligencję są na tyle dobre, że naprawdę ciężko jest nam na pierwszy rzut oka, zwłaszcza dla osoby, która nie miała z tym styczności, która nie pracuje z tym na co dzień, stwierdzić, że to faktycznie jest taki obiektywnie tekst napisany przez generatywne AI, natomiast jest jeszcze drugie, badanie, a właściwie praca naukowa pod tytułem That Internet Theory, a Survey on Artificial Interactions and the Future of Social Media i ono pokazuje, że nawet do 60% ruchu w sieci może być generowane przez boty, czyli wciąż są to bardzo wysokie liczby, nie tak wysokie jak tutaj ty zasugerowałeś, no ale właśnie jakie są właściwie konsekwencje tego, bo tutaj jeszcze w kilku zdaniach przytoczę czym jest ta teoria martwego internetu, to pojawiła się ona z tego co pamiętam w ogóle prawie 15 lat temu i ona się odnosiła do przyszłości i tam sugerowano, że mniej więcej w połowie drugiej dekady lat dwutysięcznych internet będzie martwy, to znaczy użytkownicy będą botami automatycznymi i które będą tworzyć dla siebie treść i potem będą tą treść sobie konsumować, ale czy już jesteśmy w tym punkcie, czy to jest dopiero pieśń przyszłości?
07:55
Adrian Żebrowski
Ja myślę, że już jesteśmy w tym punkcie i dlaczego się w nim znajdujemy, na to też jest bardzo prosta odpowiedź. Mianowicie internet się rozwijał, można powiedzieć, wykładniczo, ta krzywa adopcji postępowała. Ilość treści, które były wrzucane do tego internetu także, można powiedzieć, z migawką epoki, późnych lat dziesiątych aktualnego wieku, było to, że coraz więcej tych informacji że nasze życia są omniprzesiąknięte twórczością i treścią pisaną przez człowieka do Internetu. Każdy element naszego życia był fotografowany, nagrywany, udokumentowywany w jakiś sposób. I w pewnym momencie nastąpiło przesycenie. Ludzie świadomie zaczęli odcinać się od internetu czy poddawać się cyfrowym detoksom, bo fizycznie nie byliśmy w stanie zaabsorbować takiej dawki bodźców, takiej porcji informacji, jaką generowali dla nas ludzie. Pojawiła się na końcu 2022 roku możliwość redukcji tej informacji, zredukowania jej do postaci właściwie kilku zdań, które nas interesują z danego tematu.
09:17
Adrian Żebrowski
Mówię tutaj o czacie GPT, o tym, można powiedzieć, wyjściu do publiki. Więc zmienił się też interfejs konsumowania tych informacji. Co wcale nie zmieniło popytu na samą informację, on się po prostu przeniósł z człowieka do crawlerów, firm, które te modele językowe trenują. Tak że ten ciężar absorpcji i syntezy informacji został przeniesiony poziom wyżej do poziomu cyfrowego, a my konsumujemy od tych trzech lat prawie już tylko redukcję statystycznie wyliczoną modelami prawdopodobieństwa i modelami statystycznymi redukcję.
10:04
Maciej Biegajewski
To jest bardzo ciekawe, co mówisz o tym dostępie do informacji, ja jestem dosłownie świeżo, 15 minut temu skończyłem oglądać spotkanie z Andrzejem Draganem podczas Akademii Sztuk Pięknych na PolenDrog Festival i właśnie Oczywiście, siłą rzeczy Andrzej Dragan jest wielkim autorytetem w dziedzinie nie tylko sztucznej inteligencji, jak i w ogóle nauki i fizyki, ale powiedział właśnie bardzo ciekawą rzecz o tym, że nie można przewidywać przyszłości, ponieważ w tak skomplikowanej rzeczywistości z tak ogromnym postępem technologicznym, chociażby, no po prostu próby przewidywania przyszłości są bzdurami, natomiast możemy możemy obserwować pewne takie długofalowe trendy, które faktycznie w dużym stopniu się sprawdzają, on za przykład podał spadek kosztu pozyskania informacji, jakby tysiąc lat temu uzyskanie informacji chociażby o tym, jaka będzie pogoda następny dzień, już nie mówiąc o jakichś tam przewidywaniach gospodarczych czy coś takiego, były warte fortuny i były dostępne naprawdę dla garstki osób, gdzie jakby w tym momencie wystarczy odpalić urządzenie, które mamy w kieszeni i mieć do tego dostęp.
11:33
Maciej Biegajewski
Faktycznie to o czym mówisz, o tej informacji, o tej potrzebie konsumpcji informacji, faktycznie jakby ma duży sens, ale ja bym chciał wrócić trochę do tych social mediów, ponieważ to też jest bardzo ciekawe jak się tak zastanowimy w ogóle w jaki sposób rozwijał się internet, jak wyglądały jego początki, raz że już nawet nie zagławiając się do tych czasów, kiedy internet był bardzo elitarnym miejscem, i poziom kultury, ja trafiłem na faktycznie koniec lat 90., początek lat 2000, kiedy gdzieś tam mniej lub bardziej świadomie funkcjonuję w internecie, ale pamiętam właśnie to jako miejsce z bardzo wysoką kulturą osobistą, to co w ogóle w tym momencie ten internet, ostatnie chyba co przychodzi nam do głowy, to że panuje to jakaś kultura osobista i to już jest ciekawa zmiana, która zaszła pod kątem tej masowości upowszechnienia i tej anonimizacji, która jeszcze w jakimś stopniu jest w tym internecie, ale to też miało duży wpływ na samo powstanie mediów społecznościowych, które pierwotnie były takimi miejscami, gdzie faktycznie mogliśmy budować historię rzeczywistą swoich postaci, czyli informacje, które tam publikowaliśmy były może nie tyle osobiste pod kątem prywatności, co faktycznie były stanem naszego ducha, poetycką obserwacją rzeczywistości i łączyło się to właśnie z tym takim nieperfekcyjnym udostępnianiem rzeczy, czyli te pierwsze zdjęcia były bardzo takie spontaniczne, jakby tam nikomu nie chodziło o to, żeby zdobywać popularność, bardziej żeby trzymać kontakt ze swoją siecią, stąd zresztą nazwa, sieci społecznościowe, ale faktycznie to ewoluowało w tym kierunku algorytmicznym, kiedy to Co ciekawe, też znalazłem taką informację i to jest faktycznie bardzo ciekawa obserwacja, gdzie pewnie większość z nas pamięta jeszcze te czasy, kiedy na przykład tablica na Facebooku czy na przykład konto na ówczesnym Twitterze wyświetlały nam się informacje, chronologicznie, teraz obecnie potrafią nam się wyświadlać informacje sprzed np.
14:11
Maciej Biegajewski
Dwóch miesięcy, które algorytm gdzieś tam przypasował do nas, no i właśnie czy jakby sama ta chęć zastępowania tych treści, że tak powiem, ludzkich, tak, mówię w tym takim osobistym sensie takiego bardziej emocjonalnego, jest to twór algorytmów, czy to jest raczej nasza jakaś tutaj chęć optymalizacji tego, przyspieszania tego, wyciągania z tego jak najwięcej.
14:42
Adrian Żebrowski
Algorytmy są bezbłędne i nie wybaczają absolutnie niczego. Są, można powiedzieć, taką, no nie chcę powiedzieć czystą, bo być może dla innych wejść mają inne wyjścia. Natomiast są odzwierciedleniem tego, jak zachowujemy się w internecie. Są odzwierciedleniem masy informacji zebranych na styku wielu dziedzin naszego życia i tego, jak się zachowujemy w tychże. Jeżeli algorytmy odzwierciedlają potrzebę konsumpcji danych sztucznych, nazwijmy to, w języku polskim nie ma dobrego wyrazu na coś wygenerowanego.
15:27
Maciej Biegajewski
Mówisz o tych danych syntetycznych.
15:29
Adrian Żebrowski
Tak, dokładnie. Możemy też mówić o syntetycznej treści. Jeżeli pojawia się potrzeba konsumpcji tej treści syntetycznej, jasny sygnał, że ludzie na końcu są o tym zainteresowani, że poprzez udostępnianie ryby z głową krokodyla dajemy przyzwolenie na coś takiego i sami sobie podajemy czarną polewkę intelektualną.
16:02
Maciej Biegajewski
Też jakby ciekawa rzecz, ponieważ tutaj akurat przytoczę inny wpis, to akurat jest wpis Wojtka Kardysia, jednego z ekspertów polskich zajmujących się obecnie też sztuczną inteligencją w ujęciu takim właśnie tworzenia treści influencerów, a sam wywodzi się w ogóle z takiego badania zjawiska influencingu, zwłaszcza w polskim internecie. I on przytoczył właśnie kilka miesięcy temu informację, to była informacja w ogóle podana przez Financial Times, że sam Facebook, meta w ogóle rozważa w związku ze spadającym trendem zaangażowania uczestników, użytkowników Facebooka m.in.
16:50
Maciej Biegajewski
Żeby stworzyć profile AI różnych osób, które będą miały właśnie jakąś tam historię tak naprawdę tego profilu, czyli będą miały jakieś publikacje i będą wchodziły w interakcje, nie tylko ze sobą, ale też z tymi jeszcze realnymi użytkownikami, więc to jest w ogóle taka skynetowa historia, można to powiedzieć, właśnie tutaj się odnoszę do naszego ostatniego wywiadu z Piotrem Królem, który też zachęcam serdecznie do obejrzenia, właśnie to było to życzenie Piotra, żeby jedyne życzenie w stosunku do sztucznej inteligencji, żeby ona się nie zamieniła w ten Skynet, który znamy z jakichś filmów z lat 90., a okazuje się, że powoli już tutaj docieramy.
17:41
Adrian Żebrowski
Tak, no to jest absolutnie straszna wizja, bo doświadczenie w internecie każe nam mieć z tyłu głowy, że ludzie będą można powiedzieć, transponować swoje doświadczenia i swoje potrzeby interakcji z ludźmi na takie urządzenia. Z jednej strony mówi się o starzeniu się społeczeństw, szczególnie tych zachodnich, o postępującej samotności. Pytanie, czy to jest recepta? Natura ma zawsze jakieś wyjście na wszystko, więc może to być takie wyjście natury na samotność.
18:21
Maciej Biegajewski
Ten temat był też przedmiotem rozważań w jednym z odcinków Black Mirror. Nie będę spoilerował, ale tam została poruszona ta kwestia, też słynny film, z tego co pamiętam, Her, o randkowaniu właśnie z, że tak powiem, idealną osobą wygenerowaną przez sztuczną inteligencję i co ciekawe jest to film sprzed dobrych 15-20 lat może nawet.
18:58
Adrian Żebrowski
Jak rzucamy klasyką, to jest jeszcze Aldous Huxley i Nowy Wspaniały Świat. To już zupełnie jest skalp z literatury. Huxley właściwie bardzo się nie rozminął z tym, w jakim kierunku zmierzamy.
19:17
Maciej Biegajewski
To prawda, ale też na ciekawą taką dyskusję natrafiłem przy okazji tego researchu i wiadomo, że jednym z problemów, tak naprawdę barier dotyczących rozwoju sztucznej inteligencji może uściślając tej generatywnej, czyli tych modeli językowych, ale wydaje mi się, że to też jakby jest problem dosyć szerszy. Wyłączając jakieś tam problemy techniczne, czyli brak mocy obliczeniowej i tak dalej, ale jest również brak źródeł wiedzy.
19:57
Maciej Biegajewski
Jakby zbliżamy się albo nawet już być może już dotknęliśmy do tego momentu, gdzie za bardzo nie mamy czym nakarmić tych wszystkich mechanizmów, no i też pojawiają się te modele, które są uczone na właśnie tych danych syntetycznych, które raz, że znacząco obniżają koszt takiego treningu, a dwa, że też wydaje się być to jakimś takim obejściem tego problemu, natomiast Znowu, są rozważane na temat zjawiska kanibalizacji tych danych, to znaczy, że tak powiem bardzo brzydko, skrótem myślowym, maszyny będą tworzyć wiedzę, którą potem będą konsumować, żeby tworzyć kolejną porcję wiedzy. No i pytanie, czy widzisz, czy to faktycznie jest zagrożenie, bo może ja patrzę na to z innej perspektywy, czy może jest to jakiś nieunikniony proces, w który po prostu musimy wejść?
20:59
Adrian Żebrowski
Wiesz, wydaje mi się, że im więcej takich zakłóconych danych, im więcej szumu w tych danych, tym gorsza będzie jakość tych modeli, bo jeżeli one działają troszeczkę jak modele regresywne, to znaczy przewidują następny znak, następny token, Jeżeli mamy dobre tokeny wejściowe, to nasze przewidywanie będzie w miarę skuteczne. Jeżeli te tokeny wejściowe będą umocowane w takiej rzeczywistości empirycznie potwierdzonej, to, co przewidujemy, pewnie też się zmieści, załóżmy, w 80% będzie składne z tym, co zostało w tych danych wejściowych zaprzęgnięte. Natomiast jeżeli będziemy sobie stopniowo zanieczyszczać ten zbiór danych wejściowych danymi syntetycznymi, z mniejszą dokładnością, z mniejszym odzwierciedleniem faktycznego stanu rzeczy, no to siłą rzeczy też ta końcowa ćwiartka grafu będzie jeszcze mniej skuteczna i jeszcze mniej dokładna w odzwierciedlaniu następnego tokenu.
22:17
Adrian Żebrowski
Także ten spadek wydajności i spadek jakości on będzie postępował wraz z syntetycznymi danymi i to jest wpisane wydaje mi się w formułę samego realizowania tego w ten sposób.
22:32
Maciej Biegajewski
Tak, myślę, że to jest bardzo słuszna obserwacja, ja cały czas właśnie myślę, mówiąc o tym temacie, mam w głowie te obrazy tych dyskusji, które się przewinęły właśnie przez LinkedIn, bo ja też osobiście jakby zauważam trochę Trochę dwie sprawy, o których często są wrzucane do tego samego worka, to znaczy samo używanie narzędzi generatywnej AI do tego, żeby stworzyć jakąś treść, versus zadbanie o jakość tej treści, Moim zdaniem jest stosunkowo duże niezrozumienie i to też wśród ludzi, którzy naprawdę bardzo długo działają w branży, co jest dla mnie takim dosyć dużym zaskoczeniem, dotyczącym tego, że np. Zaczęliśmy się przyczepiać, że odkryjesz, że ten post został napisany, ponieważ używasz jakiegoś tam słowa, albo używasz przecinka, albo jest on gramatycznie poprawny, albo jest myślnik, który faktycznie jest myślnikiem, a nie jest znakiem minus, który bardzo często z pośpiechu wpisujemy na klawiaturze, bądź AI używa prawidłowych cudzysłowiów.
23:56
Maciej Biegajewski
I mi się wydaje, że to jest w ogóle takie dosyć, może nie tyle szkodliwe, co jakby to jest trochę odwracanie kota ogonem, ponieważ ja osobiście uważam, że świetnie, że właśnie sztuczna inteligencja może nam pomóc zabrać ten taki najbardziej żmudny, że tak powiem task, to najbardziej żmudne zadanie, czyli ty, jeżeli jesteś jakimś twórcą treści, powiedzmy, naukowcem, biznesmenem, nie musisz tracić czasu na tym, żeby być pewnym, że twoje przemyślenia są bez np. Błędów ortograficznych, no bo trochę wstyd, jakby będąc naukowcem, choćby wybitnym np. Fizykiem czy biologiem, opublikować coś np. Z błędem gramatycznym, nie?
24:43
Maciej Biegajewski
Natomiast zupełnie inną sprawą jest i tutaj faktycznie trzeba potępić to, ludzie którzy starają się oszukać system, chociaż być może oszukać w taki sposób można było to jeszcze dwa lata temu, ale wpisują byle co, nie sprawdzają, nie poddają to żadnym krytycznemu myśleniu, tylko wrzucają to byle więcej, byle któryś post został tutaj przechwycony przez algorytm.
25:18
Adrian Żebrowski
Tak, to jest bez wątpienia plaga dzisiejszych czasów, takie podejście. No i to niezrozumienie jest, można powiedzieć, wszechobecne. To też widać po tym, jak Google podchodzi do tych postów, jak wprost karze takie bezmyślnie generowane treści, jak portale, które publikują to masowo. Widzą spadki. Wymowna jest też oczywiście częstotliwość aktualizacji algorytmów Google, która dzieje się chyba teraz co trzy miesiące.
25:55
Maciej Biegajewski
Nawet częściej, tak mi się wydaje.
25:57
Adrian Żebrowski
Takich dużych mówię, a takie mniejsze to podejrzewam o wiele krótsza jest ta pętla. Więc taki jest znak czasów. Ja jestem cały czas z dania tego, że jeśli tam koniec końców ludzkie okno kontekstowe jest też skończone i będzie szukać najprostszej, najwydajniejszej opcji pozyskania informacji takiej, która tego człowieka na końcu interesuje, więc zwróci się ku takiej absolutnej redukcji z informacji generowanych sztucznie. Oczywiście to, czy one będą trafne, czy będą empirycznie potwierdzalne i takie spójne, logicznie składne, to jest zupełnie inna kwestia. To jest wpisane niestety właśnie w tą algorytmikę przewidywania i im więcej tych przewidywań będzie, tym gorzej niestety te informacje będą wyglądać, bo wiadomo, że jeżeli mamy 100 jakichś tam punktów i chcemy przewidzieć kolejne 100 punktów, ale z dokładnością 97%, no to przewidzimy tylko te 97% w dobry sposób statystycznie.
27:16
Adrian Żebrowski
Jeżeli to zrobimy, no to te 97% z 97% i tak dalej, aż w końcu będziemy schodzić do bardzo niezadowalających współczynników, można powiedzieć, wierności względem tego oryginalnego, potwierdzonego zestawu danych. Więc taka jest dynamika.
27:36
Maciej Biegajewski
Ja jestem bardzo ciekaw ponieważ to jest to co ostatnio nawet tobie podsyłałem. Ja zauważyłem oczywiście jakby kwestia oznaczania treści AI jakby nie jest nowa bo ona już jest z nami nie wiem przynajmniej pół roku może nawet dłużej. Ale to co ja zauważyłem to jest właśnie to że np. Na Linkedinie który podejrzewam że jest też jedną z takich platform, powiedzmy, społecznościowych, która jest narażona bardzo na te treści AI i o ile np.
28:10
Maciej Biegajewski
Na Instagramie czy na Facebooku możemy sobie z przymrużeniem oka trochę przyjąć jakieś tam rzeczy, nie wiem, które są wygenerowane, jakieś tam filmy, które pokazują pociąg jadący po szklanym moście i część osób się na to złapie, ale ma to mniej szkodliwą dla samej nawet reputacji platformy, ma mniej szkodliwe konsekwencje niż na przykład na LinkedInie, który nagle by się stał jakimś tam słupem ogłoszeniowym właśnie dla biznesowych, coachingowych czy jakichś tam innych treści właśnie robionych na kolanie za pomocą takiej generatywnej AI.
28:51
Maciej Biegajewski
No i właśnie LinkedIn, zauważyłem, że wprowadził, być może to jest już powszechne, tylko ja gdzieś to przeoczyłem, ale właśnie wprowadził to tagowanie automatyczne, to znaczy sam LinkedIn wyszukuje takie treści i oznacza je całkiem dokładnie, to znaczy podaje nawet informację, jakim narzędziem to zostało zrobione, tutaj wrzucę takiego screena, który nam się przytrafił, bo myślę, że może nie wszyscy właśnie mają tego świadomość to jest też jakby ciekawa zmiana bo tak jak mówię samo etykietowanie i oznaczanie tych treści AI to nie jest nowość ale do tej pory było to takie na zasadzie samooceny bardziej w sensie ja np. Kojarzę to z Instagrama czy z YouTube gdzie np. Dla mnie na YouTubie to jest to bardzo takie ciężkie nawet do użycia ponieważ ja czasami stosuję w jakichś tam filmach np.
29:55
Maciej Biegajewski
Sztuczną inteligencję załóżmy do wygenerowania jakiegoś dźwięku, nie wiem, jakiegoś przejeżdżającego samochodu czy zbitej szyby No i jakby pytanie, które zajmuję się w YouTubie, czy jakby ta treść generowana przez sztuczną inteligencję modyfikuje zrozumienie treści, modyfikuje wypowiedź jakby osoby znanej i tak dalej. No i ja za każdym razem tak naprawdę jak używałem AI do tego musiałem zaznaczyć nie, no bo nie było to, jakby nie zawierało się to w tych kryteriach co No też uważam, że nie jest do końca fair, bo też użytkownik ma prawo wiedzieć, że nawet jakiś tam użyty kwiat w jakimś tam tle jest wygenerowany AI i to jest ciekawe w jaki sposób to będzie też ewoluowało tutaj.
30:49
Adrian Żebrowski
Pytanie, gdzie się zaczyna ta granica poznawcza, którą trzeba oznaczać i która wpływa drastycznie na zrozumienie czy to materiału filmowego, czy artykułu. Mi się wydaje, że dokona się taki podział i on się dokona oddolnie. To znaczy dojdziemy do momentu masy krytycznej sztucznej treści, która będzie ludzi męczyć i nastąpi taki odwrót w pewnym momencie do wszystkiego, co naturalne, co ludzkie, co z krwi i kości. Myślę, że ludzie będą bardzo wyczuleni na tym punkcie. Pytanie, To nie będzie przychodziło jakimś takim za dużym wysiłkiem kognitywnym, żeby zrozumieć, że faktycznie coś takiego jest. Ja się ostatnio na TikToku dałem złapać, na filmie generowany AI, tylko dlatego, że spojrzałem w komentarze. Jak przeczytałem komentarze, to wróciłem do tego filmu i myślałem sobie, że ok, faktycznie to jest… To jednak nie jest to.
31:55
Maciej Biegajewski
Rozpoznawanie filmów jest w ogóle już bardzo ciężkie. Ja też tutaj odsyłam do naszej rozmowy z Piotrem, który też opowiadał co obecnie może wskazywać nam na to, że to jest wygenerowane AI, ale faktycznie ja też i to też jest jakby, ja się nie dziwię temu, że te treści przejmują powoli ten internet, bo bardzo często to są bardzo abstrakcyjne rzeczy, które wywołują w nas taką natychmiastową chęcią podzielenia się tym z innymi osobami i tak naprawdę ten mechanizm udostępnienia czegoś jest jakby szybszy i bezkosztowy niż zatrzymanie się na chwilę i stwierdzenie kurczę, a może to w ogóle nie jest prawda.
32:40
Adrian Żebrowski
No tak, ciężko sobie wypracować taką pętlę feedbacku, biorąc pod uwagę to, ile tej treści faktycznie konsumujemy codziennie. Więc wydaje mi się to być taką troszeczkę sytuacją bez wyjścia, ale w takich dwuznacznych sytuacjach myślę, że ludzie będą woleli być zachowawczymi. I będzie jakiś taki odwrót od cyfrowego świata, od cyfrowej rzeczywistości, przynajmniej w przypadku tych, których będzie na to stać.
33:11
Maciej Biegajewski
Prawda. No tak, tutaj też jest ta ciekawa koncepcja, pamiętam ja o niej usłyszałem z dobre 15 lat temu, o tym, że w przyszłości wszystko będzie i to w ogóle pochodzi, przynajmniej ja ją przeczytałem, bo być może to źródło jest zupełnie inne, ale ja przeczytałem ją na blogu stosunkowo niszowego fotografa i to chyba z Japonii, to w ogóle był taki dziwny i on pisał o tym, że w przyszłości wszystko będzie albo darmowe albo bardzo drogie i ja wtedy się zastanawiałem, mówię kurczę, ale jak darmowe i teraz zaczynam już rozumieć co to przewidywanie mogło oznaczać, że właśnie jeżeli chcesz darmowych treści, to one będą właśnie tego typu syntetyczne, jak już powiedzieliśmy, z takim ryzykiem, że nie zawsze są prawdziwe, a te treści, które będą faktycznie wiarygodne i tworzone przez ludzi będą bardzo drogie.
34:11
Maciej Biegajewski
Natomiast Korzystając z mądrości, którą dzisiaj dostałem od Andrzeja Dragana, nie chcę, żebyśmy przewidywali przyszłości, bo jak już usłyszeliśmy, to nie ma do końca sensu. Ja się osobiście zgadzam z tym poglądem, natomiast warto mieć opinię jakąś, albo przemyślenie na taką refleksję. No skoro faktycznie jesteśmy już zalewani i wydaje mi się, że ta teoria martwego internetu no faktycznie powoli jest już jakąś tam rzeczywistością w jakimś stopniu, to pytanie czy ten internet naprawdę umarł i będziemy mieć internet 2.0, 3.0, 4.0 pod jakąś inną postacią, czy przyjdzie moment, że te wszystkie takie zabiegi właśnie w stylu etykietowania treści AI algorytmów Google’a, które mają gdzieś tam odseparować nas od spamu generowanego, od nawet wartościowych informacji, ale stworzonych przy użyciu AI. Czy właśnie ten internet utrzyma się w tych ryzach, czy czeka nas w ogóle przejście na zupełnie inny model sieci?
35:26
Adrian Żebrowski
Na pewno czeka nas przejście na zupełnie inny model konsumpcji informacji cyfrowej. Wydaje mi się, że i to może być moja naiwność, a może być czucie tego, co jest gdzieś tam pod różnymi warstwami, co się gotuje, wydaje mi się, że open source zyska na tym bardzo dużo, że w momencie, w którym będziemy musieli jakiejś dużej firmie przekazać cały swój internetowy dobytek, kapitał, Jako jednostka to dużo ludzi zwróci się w kierunku rozwiązań open source’owych, takich, które przynajmniej w wiarygodny sposób obiecują stopień prywatności i stopień, można powiedzieć, autonomii w ramach tego scentralizowanego interfejsu dostępu do wiedzy.
36:15
Maciej Biegajewski
No i to było ciekawe, ponieważ to był tak naprawdę powrót do korzeni internetu, który wyrósł z tego, że tak jak mówiłem, ja pamiętam czasy końca lat 90, początku 2000, w internecie wszystko było za darmo. Słusznie mówimy o prawach autorskich itd., ale były czasy, gdzie jeżeli znalazło się zdjęcie w internecie, to zdjęcie było bezpłatne, nieważne czy to było zdjęcie zrobione przez Helmuta Newtona czy kogoś z drugiego końca miasta. Oczywiście to jest ta zła strona tej otwartości internetu, bo każdy za swoją jakąś pracę twórczą powinien zostać wynagrodzony, jego prawa powinny być respektowane, ale faktycznie to co mówisz, ten open source to jest zwrot Ja bym powiedział do tej dobrej strony internetu, którą też zatraciliśmy. Jakiś czas temu, być może znajdę w linku, ale na portalu chyba Wykop pojawiła się ama z twórcą tego słynnego silnika forów internetowych PHP Byte.
37:31
Maciej Biegajewski
Przemo tutaj na pewno część słuchaczy może pamiętać, bo kiedy nie było mediów społecznościowych to większość z nas wymieniało się jakimiś tam informacjami na forach internetowych i jakby w tym ama właśnie czuć tego starego ducha internetu, że ten przemo, tak to nazwać On nigdy nie robił tego komercyjnie, w sensie on miał szansę to skomercjalizować, ale z takiego poczucia starego internauty, takiego pioniera internetu stwierdził, że to jest coś co powinno pozostać open source, więc Jeżeli taka miałaby się spełnić droga tego to wydaje mi się że to byłby dobry powrót na tą tak jak mówię jasną stronę internetu. Pytanie czy szeroko pojęty biznes i polityka pozwolą na to bo to też jest jakby bo to też jakby fajnie się zbija te wszystkie tematy właśnie z tym web 3 tak z tymi blok czy innymi z jakąś taką decentralizacją.
38:38
Maciej Biegajewski
Więc być może jest to faktycznie kolejne krok do czegoś takiego.
38:45
Adrian Żebrowski
Dokładnie, szczególnie, że Linux przeżywa swój rozkwit w tej chwili, zarówno w środowiskach korporacyjnych, jak i prywatnych. Różne dystrybucje Linuxa zyskują najwięcej pobrań od lat, także jest na pewno głód na rynku. Kompetencje cyfrowe siłą rzeczy rosną. Ludzi, którzy z tego korzystają, bo ta technologia jest z nami dłużej, nie jest już jakąś anomalią historii, tylko jest czymś, na czym działa realnie gospodarka, więc te kompetencje cyfrowe się opłacają i coraz więcej ludzi na świecie je ma, coraz więcej ludzi na świecie się z nimi po prostu rodzi. Także tutaj jest bardzo duże pole manewru. Do tego Facebook udostępnia swoje modele językowe tylko i wyłącznie w postaci open source. Największa firma w Europie, która zajmuje się trenowaniem modeli językowych, Mistral.ai, także publikuje wszystko w formule open source.
39:45
Adrian Żebrowski
I jeszcze mamy na dodatek informację o tym, że OPD.ai jest już za rogiem i wczai się premiera ich modelu językowego, który także będzie open source i będzie zawierał 120 miliardów parametrów, więc wszystkie wagi będą na wierzchu i będzie można bawić się tym. Dla porównania GPT-4 miał 175 miliardów, tak mi się wydaje, parametrów. Tak że to jest już porządna inteligencja, porządny model. Które oddają w ręce ludzi, którzy chcą się z tym w jakikolwiek sposób bawić, customizować i odpalać lokalnie. Siłą rzeczy też my w Europie jesteśmy ograniczeni danymi osobowymi i gdzieś tam sam fakt przekazania informacji firmie trzeciej i wyzbycia się odpowiedzialności realnej, a prawnej nie, może się kłócić z wieloma przedsiębiorstwami. I z ich polityką, i z polityką ich klientów. Także wydaje mi się, że są jeszcze takie prawne frameworki, które nas tu w Europie trzymają, można powiedzieć, w jakimś konkretnym rozwiązaniu.
40:57
Adrian Żebrowski
I tym rozwiązaniem może być open source, postowany lokalnie.
41:01
Maciej Biegajewski
Jest to bardzo ciekawa informacja i myślę, że warto w tym momencie zakończyć ten temat dotyczący martwego internetu, bo będzie to dosyć optymistyczny, wydaje mi się, koniec związany z tym, że co prawda jesteśmy teraz w punkcie przegrzania internetu treściami AI, ale już za rogiem pojawiają się alternatywy właśnie w postaci tego open source’u, tego też większego zrozumienia ludzi i mimo wszystko chyba chęci pozostania w takim, że tak powiem, kontakcie z faktycznie nie algorytmem, a tym, co druga strona chce przekazać, bo po to był stworzony internet i miejmy nadzieję, że w nowej postaci również pozostanie takim miejscem. Także serdeczne dzięki.
42:01
Maciej Biegajewski
Adrian, za dzisiaj zachęcamy do subskrybowania naszego kanału, gdzie tutaj regularnie publikujemy nie tylko tego typu rozkminki, ale również wywiady z ekspertami, jak na przykład wywiad z Piotrem Królem, też w najbliższym czasie mamy kilka, myślę, że ciekawych gości będzie tutaj dostępnych u nas, Mam nadzieję, że do szybkiego zobaczenia i usłyszenia z Wami. Dzięki za dzisiaj i do usłyszenia.
42:32
Adrian Żebrowski
Do usłyszenia.
![Czy WSZYSTKIE treści w Internecie są generowane przez AI? – o teorii martwego Internetu [PODCAST 🎙️] Czy WSZYSTKIE treści w Internecie są generowane przez AI? - o teorii martwego Internetu [PODCAST 🎙️]](https://beaiware.pl/wp-content/uploads/2025/08/MARTWY-INTERNET-cover-photo-1024x576.jpg)