W najnowszym odcinku podcastu Maciej i Adrian zastanawiają się, czy modele sztucznej inteligencji, takie jak ChatGPT, mogą wykazywać polityczne skłonności. Opierając się na wynikach badań i wypowiedziach liderów technologicznych, analizują, co oznacza to dla użytkowników oraz jak AI wpływa na społeczeństwo i kształtowanie opinii.
Zapraszamy do zapoznania się z transkrypcją rozmowy – to fascynująca lektura dla wszystkich zainteresowanych etyką i przyszłością sztucznej inteligencji.
Maciej: Siemanko, po krótszej, dłuższej przerwie witamy Was w kolejnym podcaście. Znowu z tej strony Maciej i Adrian z BeAIware.pl
Słuchajcie, dzisiaj taki ciekawy temat myślę, o którym już myśleliśmy bardzo, bardzo dawno temu. Trochę dojrzewało to.
Natomiast myślę, że temat, który jest trochę clickbaitowy. Jeszcze nie wiem, czy tego użyjemy w opisie, czy nie. Czy to nie będzie za grube, ale powiemy sobie dzisiaj, postaramy się odpowiedzieć na pytanie, czy ChatGPT jest lewakiem, czy prawakiem?
Adrian: No ale teraz pojechałeś na początku.
Maciej: Dobry temat, mocno na czasie, bo nagrywamy to w sumie otóż po wyborach w Stanach Zjednoczonych.
Adrian: Dwa tygodnie, ale jeszcze nie zaprzysiężony, więc jesteśmy na bieżąco.
Maciej: Dużo się dzieje, znowu stanęliśmy nad przepaścią tutaj wojny nuklearnej.
Adrian: Musimy zrobić wielki krok naprzód.
Maciej: Tak, ale może dzisiaj nie będziemy się aż tak zagłębiać w takie destrukcyjne rzeczy. Natomiast będzie trochę punktu widzenia naukowego, będzie trochę punktu widzenia biznesowego, bo wiemy, że w ostatnim czasie w sumie zarówno CEO OpenAI, czyli Sam Altman się wypowiedział na ten temat.
Wydaje mi się, że Elon Musk też coś co nieco powiedział, dolał oliwy do ognia.
Adrian: W czym ostatnio Elon Musk nie jest ekspertem, w jakim temacie się nie wypowiada?
Maciej: Dokładnie, dokładnie. Trzeba by było poszukać u Elona korzeni polskich.
Adrian: Tak, to jest dziwne, że o naszej kadrze nic nie powiedział.
Maciej: Dokładnie, no właśnie, właśnie. To też jest temat bardzo na czasie…
Ale wróćmy do sztucznej inteligencji, więc poczytaliśmy trochę. To nie jest tak, że chcemy tutaj rzucać jakieś kontrowersyjne stwierdzenia, bo w ogóle nie chcemy tutaj budzić kontrowersji. Bardziej chcemy jakby wyjaśnić pewne zjawisko i zastanowić się nad tym, jakie mogą być konsekwencje pewnych takich zaburzeń w treningu sztucznej inteligencji.
Znalazliśmy trochę danych. Między innymi pierwsze nasze źródło to jest artykuł naukowy z Public Choice. Jest to magazyn naukowy Norwich Business School z University of East Anglia.
Jest to artykuł zatytułowany More Human Than Human – Measuring ChatGPT Political Bias.
Jego autorami są Fabio Motoki, Valdemar Pinho Neto i Victor Rodrigues. Oczywiście wszystkie źródła dodajemy do opisu, także zachęcamy też, żeby się zapoznać, bo jest to lektura… Nie jest aż taka długa. To nie jest taki tom, który nie wiadomo ile się czyta. To jest do kawy, jeżeli ktoś jest zainteresowany.
To bardzo ciekawa lektura. I tutaj też trzeba zaznaczyć, że jest to artykuł naukowy opublikowany 17 sierpnia 2023 roku, czyli perspektywa ponad roku, ale przywołamy też trochę świeższe źródła, które optują mniej więcej w tej samej tezie. Więc krótki wstęp do tego.
Może przechodząc, zdradzając, jakie są rezultaty, to faktycznie tym naukowcom wyszło na podstawie badań, testów. O tym jak wyglądały te testy zaraz opowiemy. Wyszło, że ChatGPT ma skłonności lewicujące, bardziej progresywne.
Skręca troszeczkę na lewo pod kątem demokratów.
Adrian: Można powiedzieć, że to jest taki lekki Bernie Sanders może troszeczkę. Myślę, że tak, bo tam były też pytania o progresywne opodatkowanie i jego skutki.
Maciej: Może zaczniemy od tego jak można to zmierzyć. Na razie konsensus jest taki, że nie ma dobrej metody na zbadanie czegoś takiego jak poglądy polityczne albo takie “bias”.
Jak by to przetłumaczyć na polski? Jakieś problemy, błędy, odchylenia.
Tendencje sztucznej inteligencji do tego jakie właśnie ma poglądy polityczne, bo oczywiście jak to twórcy ChatGPT zapewniają, że został stworzony tak, żeby prezentować ten neutralny punkt widzenia. No i w idealnym świecie na pewno tak jest, ale wiemy, że idealnego świata nie ma. I też wydaje mi się, że trochę co bardziej, że tak powiem, osoby w temacie albo z jakimiś pewnymi otwartymi horyzontami chyba też nie oczekują, żeby sztuczna inteligencja była neutralna światopoglądowo.
Adrian: No zdecydowanie nie, bo zdają sobie sprawę z natury istnienia tego algorytmu i tego jak właściwie skąd biorą się te dane, które potem gdzieś tam są zsyntezowane przez te modele i przetwarzane. Także zdecydowanie nie ma to być wyrocznia, która potrafi rzucić taką obiektywną prawdą. Inną sprawą jest to czy ta obiektyw naprawdę oczywiście istnieje.
Maciej: O pewnych zagrożeniach też powiemy. Natomiast metodologia. Metodologia w skrócie była taka, przynajmniej akurat w tym konkretnym artykule, w tym badaniu, że ci naukowcy przygotowali pewny zestaw pytań, które właśnie poruszały takie najważniejsze kwestie światopoglądowe, gospodarcze, społeczne.
Tak jak tutaj wspomniałeś kwestie podatków itd. Natomiast też zostały zastosowane takie narzędzia jak polityczny kompas. Czyli została zrobiona taka oś.
To też tutaj zaraz wyświetlimy wam jak wyglądały rezultaty. Może trochę spoiler, może trochę chaotycznie, ale warto zobaczyć jak to wygląda, jak wyglądają te wyniki zanim zaczniemy rozmawiać o tym co one właściwie oznaczają. Więc kompas polityczny, czyli taka oś XY, na których są takie cztery macierze, cztery przestrzenie, które są przypisane do poglądów lewicowych, prawicowych, progresywnych i konserwatywnych.
I tam są narzucone takie archetypy pewnych, takich najważniejszych postaci świata polityki, czyli autorytarny lewicowy archetyp to jest Józef Stalin, autorytarny prawicowy podziwą Winston Churchill. Myślę, że byłoby kilku innych kandydatów.
Adrian: Moglibyśmy usłyszeć trochę dalej na prawo.
Maciej: Tak. Libertariańska lewicowa strona to jest Mahatma Gandhi i libertariańska prawicowa to jest Friedrich Hayek. No i jakby skąd zostały wzięte dane do tego, żeby uszeregować tego, przepisać.
Została stworzona właśnie taka porcja stu pytań takich, które myślę, że każdy z nas, robiąc kiedyś latarnika wyborczego, gdzieś tam miał zbyt potyczność z podobnymi tematami. Zostało to tysiąc razy powtórzone, właśnie zapytany ten czat GPT. Zostały przygotowane takie testy, to znaczy zostały, te pytania zostały zadane w sposób taki personalizowany i raz tam została stworzona taka persona, faktycznie osoby o poglądach amerykańskich demokratów, właśnie z takimi procesami.
Adrian: Chociaż czy to centrum?
Maciej: Różnie mówią i różnie na przestrzeni dziewięćdziesięcioleci to się zmieniało…
Adrian: Jeden rabin powie tak, drugi powie nie.
Maciej: Natomiast właśnie były to zestawienie tych odpowiedzi demokraty i republikanina i było to porównane też w takich testach do takich domyślnych odpowiedzi, czyli tych neutralnych, światopoglądowych i tych poglądów, tak zwany test placebo. Więc jakby jest tam zawarta metodologia, odsyłamy też do źródła, ale statystycznie, faktycznie to się wydaje, że to nie było po prostu kilka zapytań.
Zresztą to też nie mogło tak wyglądać, bo nigdy by nie trafiło to do takiego magazynu. Więc to tyle na temat teorii. No natomiast właśnie skutki.
Skutkiem tego jest, tak jak mówiliśmy, jakby efektem jest to, że ChatGPT faktycznie przynajmniej te rok, półtorej, roku temu wskazywał na te odchylenia właśnie w kierunku poglądów lewicowych, demokratycznych. No i właśnie pierwsze pytanie, jakby skąd to się wzięło? Czy jest tutaj jakaś teoria konspiracyjna, że właśnie to zostało w ten sposób zrobione, żeby zawładzać umysłami wszystkich? Czy jest to efekt czegoś innego? Czy możemy to jakoś racjonalnie wytłumaczyć?
Adrian: Racjonalnym wytłumaczeniem jest fine tuning modelu, ponieważ w tym wtórnym etapie, można powiedzieć, trenowania modelu AI przypisywane są wagi do pewnych stwierdzeń. Jest wprowadzony mechanizm wynagradzania za to za odpowiednie odpowiedzi.
I powołując się na New York Times, który to doskonale opisał w swojej publikacji, link do niej także znajdziecie w opisie tego filmiku, to jest proces, który jest narażony na o wiele wyższą ekspozycję na człowieka. I to człowiek koniec końców podejmuje decyzję, czy wynagrodzić, czy przyznać ten token nagrody algorytmowi, czy też go ukarać. Także tutaj być może to jest gdzieś tam, można powiedzieć, zwierciadło tego, jakie poglądy mają ludzie, którzy zajmują się tym fine tuningiem.
No i siłą rzeczy, na chłopski rozum, logika nakazuje takie wnioski wyciągać w tej sytuacji, że zazwyczaj są to ludzie z Kalifornii, z dużych miast, z wyższym wykształceniem. I oni naturalnie będą skręcać w lewo, tak pokazują dane, chociażby na podstawie wyborów w Stanach, które odbyły się dwa tygodnie temu. Wyższe poziomy społeczeństwa amerykańskiego pod kątem wiedzy i zarobków, one skręcają na lewo.
Czy to dobrze, czy to źle? Oczywiście nie dam osądzać.
Maciej: Tak, nie dam tu osądzać i też nie ma to być jakaś manifestacja poglądów. To jest prawda, co mówisz.
Inna rzecz jest też taka, nad którą się zastanawiałem, że oczywiście jakby te wszystkie, cała wiedza LLM-ów pochodzi z pewnych danych, które zostały dostarczone. No i właśnie pytanie tutaj, czy faktycznie być może jakby w ostatnich dziesięcioleciach, że tak powiem cała globalna orientacja, a przynajmniej orientacja amerykańska, nie szła właśnie w kierunku takim, żeby nie promowała właśnie tego typu źródeł, albo te źródła właśnie miały większą, że tak powiem… Większy standing, lepszy standing. Więcej było ich tworzonych i była większa dostępność i jakby siłą rzeczy, kiedyś w podcaście o tym mówiliśmy, że to, co dostarczysz, to co dostarczysz ChatGPT, to tak naprawdę to otrzymasz w zamian.
Czyli jeżeli dostarczasz informację opierających na pewną tezę, no to możemy się spodziewać tego, że chat GPT tą tezę obroni. Ale ciekawostka jest też taka, bo tutaj z kolei możemy się odwołać do innego źródła. To jest źródła z autorstwa Melissa Keikila.
Wydaje mi się, że jest to jakieś fińskie tutaj pochodzenie. Mam nadzieję, że dobrze tutaj wypowiedziałem. I to jest artykuł z MIT Technology Review, więc znowu jeden z największych, o ile nie największych i najlepszych uniwersytetów technologicznych na świecie.
Tam również odbyło się takie badanie. Zdaje się, że na początku 2024 roku i tam wzięto pod uwagę te najważniejsze modele LLM, czyli ChatGPT, Llama od Meta. I tutaj ciekawostka jest taka, że znowu tu jest potwierdzenie tego, że ChatGPT faktycznie ma lewicująco-libertariańskie poglądy.
Natomiast Llama od Meta ma już bardziej prawicowe, autorytarne zachowania, poglądy. Jestem ciekaw, czy możemy wskazać przynajmniej jakiś taki cień, dlaczego jest taka duża różnica. Bo ja mam coś na końcu języka, ale nie wiem, czy dobrze myślę.
Adrian: Open source? Coś z tym związanego?
Maciej: Bardziej myślę pod kątem tego, że Llama jest modelem LLM tworzonym przez Meta, które ma najwięcej danych dostępnych z Facebooka i mediów społecznościowych. Wydaje mi się, że te źródła danych i skąd była czerpana wiedza może być diametralnie różna od ChatGPT, bo jeżeli jest to budowane na podstawie poglądów osób obecnych na Facebooku…
Adrian: Może być o wiele bardziej zatomizowane pod kątem tych opinii.
Maciej: Może być właśnie to przyczyną, natomiast znowu nie wiemy.
Ci naukowcy też tego nie wiedzą, bo to i na pewno nie możemy stwierdzić, co było tak naprawdę tym zakresem danych, ale wydaje mi się, że to jest przynajmniej na tą chwilę przychodzi mi dokładnie odpowiedź.
Adrian: Najbardziej sensowna odpowiedź.
Maciej: Ale jeżeli wy macie inne przemyślenia, to po prostu dajcie znać, bo to też się zapoznamy.
My staramy się wam dawać taką bardziej skróconą formę tych faktów, do których my się dokopaliśmy, bo jest to temat tak zwanych nocnych Polaków rozmów. My tyle czasu nie mamy, ale właśnie. Gdzieś tam zastanowiliśmy się, skąd się mogą brać te odchylenia, ale co one tak naprawdę dla nas oznaczają.
Adrian: Przede wszystkim mogą się odbijać echem świadomości użytkowników tych narzędzi. Jeżeli będziemy mieli już taką szeroką adopcję tych narzędzi, to obawiam się, że ich natura i tendencja do podawania gotowych już informacji, do podawania prawd objawionych bądź też złotych przepisów, w połączeniu z taką tendencyjnością polityczną może nawet podświadomie troszeczkę zniekształcać poglądy polityczne szerszej populacji. Czy to dobrze, czy to źle? Tutaj mówię, to już jest bardzo subiektywne zdanie, które każdy sobie musi sam wyrobić.
Natomiast jestem ciekaw, jak to będzie wyglądać w Europie, która nie ma żadnej sprawności tak naprawdę nad tym jak te modele będą wyglądać.
Maciej: To jest bardzo ciekawy temat. My też mamy w planach porozmawianie o geopolitycznym, to jest bardzo teraz modny temat, ale o takim geopolitycznym spojrzeniu w ogóle na rozwój LLM-ów, bo jak wiemy są chyba dwa główne ośrodki rozwoju LLM-ów, to są Stany Zjednoczone i to są Chiny.
Gdzieś po środku jest Europa, która też próbuje, bo mamy tutaj przykład Mistrala na przykład AI, który ostatnio dostał dużą porcję funduszy. Ale to jest bardzo ciekawe, co zauważyłeś, co to znaczy dla Europy, bo jest też inny koncept, ponieważ tak jak Stany Zjednoczone wydaje mi się, jakby wyczuły w sztucznej inteligencji swoją szansę na to, żeby pozostać tym mocarstwem i z wykorzystaniem sztucznej inteligencji właśnie być może nawet rozbudować albo powrócić do tej gospodarki, która była bardzo mocarna, bardzo potężna w sferze wytwórczościowego czasu. I nie mówi się tak dużo w Stanach Zjednoczonych o pewnych regulacjach prawnych.
Adrian: To znaczy wiesz, nawet jeżeli te regulacje były, to Stany mają o wiele mocniejszy, o wiele mocniejsze, nazwijmy to oręzem do regulowania tego wszystkiego. Bo będzie tak jak z Googlem. Pojawi się nagle antitrust, pojawi się przesłuchanie przed Senatem i pojawią się wytyczne, które trzeba będzie spełnić, bo nigdzie inni te firmy nie będą miały swoich siedzib i będą koniec końców w jurysdykcji wyłącznej Stanów Zjednoczonych.
A w Europie, jeżeli zaczniemy coś blokować, to może się pojawić sytuacja taka jak z Twitterem, czy dzisiaj Exen, że Europa chce to obostrzyć, Europa chce to uregulować i nagle wiceprezydent Stanów Zjednoczonych, wiceprezydent elect J.D. Vance mówi, że no to w takim razie my nie będziemy wam pomagać militarnie, jak wy chcecie nasze koncerny technologiczne tutaj wstrzymywać. Więc jesteśmy, można powiedzieć, rozgrywani, a nie mamy swoich kart.
Maciej: To jest ciekawe, że taka technologia stała się, powiedzmy, można powiedzieć konsumpcyjna, bo Twitter czy X od jakiegoś czasu jest medium konsumpcyjnym.
Oczywiście to wciąż jest jakby platforma społecznościowa, medialna, gdzie pewne wzorce mogą być przekazywane, ale właśnie szantażowanie na poziomie jakby takim transakcyjnym jest w ogóle taką ciekawą rzeczą. Ale wracając do tematu, to co w takim razie jakby jest tym zagrożeniem dla nas, dla Polski, dla Europy właśnie w tym, że w pewien sposób jakby no nie mamy kontroli nad tym, jakie te odchylenia światopoglądowe czy poglądów politycznych mogą mieć LLM.
Adrian: Zabrzmi to jak czarny scenariusz, ale tak naprawdę co przeszkadza i co broni amerykańskim firmom, że tak powiem “Bake in” z angielskiego, wdrukowywać amerykańską rację stanu i troszeczkę odchodząc, odsuwając na boka spekty etyczne, tworzyć z nich tuby propagandowe dla amerykańskich redselerów.
To wcale nie musi być czy też chińskie i tutaj od razu, żeby nie byli posądzeni o jakąś tam antyatlantyckość.
Maciej: Ten oręż ma dwa ostrza.
Myślę, że chodzi właśnie o tą taką sprawczość, że jakby nie mając kontroli nad tym, co dostajemy, bo nie wiem, czy też słuchacze i widzowie też mają takie odczucia, ale odkąd pojawił się właśnie ChatGPT, bardzo rzadko, a zwłaszcza jak już teraz nawet jest ta opcja searcha w ChatGPT, jakby rola Googla się zmienia, tak?
Jakby coraz mniej się googluje rzeczy, żeby zdobyć jakąś wiedzę, tak? Na zasadzie takiej, że nawet jak się googlował, no to wiadomo, Google też może jakby wspierać pewne poglądy albo podrzucać nam rezultaty, które chcesz aby… Natomiast zawsze jest szansa, że w pięciu pierwszych wynikach masz cztery, które są powiedzmy okej dla Googla, a jedno jest takie, które ma jakby przeciwstawną opinię. Oczywiście tak by było w takim świecie, w którym byśmy chcieli żyć, ale czy tak jest, no to też jest jakby kwestia dyskusyjna.
Natomiast ChatGPT już nam to uniemożliwia, nie? Bo jeżeli wpiszemy jakiś prompt, że na przykład szukamy jakiejś wiedzy załóżmy o no słynnym już przykładzie, tak? Co do Google’a się używa na przykład masakry na placu Tiananmen, tak? Gdzie na przykład w Chinach jakby nic się nie dowiemy. Tutaj oczywiście u nas te wyniki w chatie GPT by się pojawiły, ale jeżeli zakładamy właśnie o to, czy jakieś fakty na przykład, z którymi na przykład rząd Stanów Zjednoczonych się nie chce do końca pogodzić albo nie chciałby, żeby inna narracja niż jego jakby się pojawiła, czy znowu jakby odbijając piłeczkę Chin, tak?
Adrian: Tu mamy nawet idealny przykład do Chin, tak? Chatbot Ernie produkcji firmy Baidu, która jest firmą, no jak właściwie każdy duży potentat technologiczny w Chinach pod kontrolą rządu centralnego, odmawia jakichkolwiek odpowiedzi na pytania związane z postacią Xi Jinping’a. Także gdzieś tam persona przywódcy jest nietykalna i oni po prostu nie będą o tym rozmawiać.
Podejrzewam, że jak zadasz pytanie o Ujgurów, to też nie otrzymasz żadnej tak naprawdę odpowiedzi. Jestem ciekaw o pytania związane z Taiwanem. Jak manewrowała by ta sztuczna inteligencja w sprawach dzisiejszych, bieżących? Czy ta opinia ma jeszcze większe znaczenie niż interpretacja faktów historycznych?
Maciej: To jest bardzo ciekawa kwestia i myślę, że to jakby bardzo już zbliżyliśmy do tego, żeby porozmawiać o tych bańkach informacyjnych, bo to jest coś, co wraz z postępem internetu, wraz z postępem właśnie mediów społecznościowych, tak naprawdę objawiło się i jest to poważny problem właśnie baniek informacyjnych, tego, że jeżeli mamy jakieś poglądy, to na przykład media społecznościowe, o których jesteśmy i przy tym grono znajomych, których się otaczamy, jakby wspiera właśnie te poglądy, które mamy i mamy bardzo rzadko okazję do pewnej konfrontacji, ale konfrontacji takiej pokojowej na zasadzie ludzi inteligentnych.
I właśnie obawiam się, że takie niekontrolowane albo nawet brak świadomości tego, że właśnie takie odchyły, takie problemy wynikające z jakąś taką pewną ustrukturyzowaniem jakby tych poglądów politycznych LLM-ów, może wpłynąć jeszcze bardziej destrukcyjnie na tego typu bańki informacyjne. Znaczy destrukcyjne w takim sensie, że one się jeszcze będą obudowywać, to jeszcze będą większe twierdza, które będzie ciężko przebić.
Adrian: Może tak być, szczególnie, że sama informacja i można powiedzieć popularyzowanie wiedzy, że te dane mogą być fałszywe, że z tymi danymi może być coś nie tak, że one mogą mieć jakąś celowość wbudowaną w swój nazwijmy to rdzeń. Może nie wystarczyć w kontekście szerszej populacji, w kontekście takich już naprawdę masowych liczb użytkowników i te opinie po prostu będą się rozprzestrzenić, bo ludzie nie będą mieli czasu potrójnie weryfikować każdej treści. Zresztą tu też temat halucynacji jest bardzo adekwatny.
Jak rozgraniczyć to, co jest prawdą, a co jest tylko nazwijmy to szpachlą w tej informacji, którą podaje ChatGPT, żeby to wszystko się razem trzymało.
Maciej: A propos halucynacji, to jeszcze odwołując się do tych badań naukowych, to też tam właśnie była taka rzecz, na którą zwróciłem uwagę, że nawet ci naukowcy założyli to, że jest jakiś pewien poziom halucynacji. Oni to nazwali randomness, czyli takiej randomowości odpowiedzi, że nawet jakby ograniczając te parametry takiej temperatury i kreatywności od odpowiedzi charta GPT, zawsze trzeba brać pod uwagę to, że on może właśnie halucynować i może narzucić coś, co kompletnie jakby nie przystoi temu tematowi nawet.
To jest, mówię, jakby sprawa się rozchodzi moim zdaniem nawet nie tyle, co tak jak powiedzieliśmy na początku, bo nikt o zdrowych zmysłach myślę nie oczekuje, żeby ChatGPT czy inny LLM był całkowicie neutralny. Natomiast bardziej myślę, że ważna jest tutaj ta świadomość tego, że możemy właśnie być poddawani pewnym, może nie manipulacjom, ale pewnym ukierunkowywaniem na pewną drogę, na pewne poglądy i tak dalej. To może być też bardzo subtelne, bo też nie będzie tak czy też ordynarny, tylko gdzieś tam akcent bądź wspominanie pewnych faktów.
Adrian: Chociaż z ordynarnych przykładów to jest taki jeden. Sam Altman ostatnio wrzucił na Twittera, właściwie na X. Cały czas się nie mogę przestawić…. Parę, chyba lata mi zajmie.
Maciej: To jest też wyzwanie brandingowe.
Adrian: No jest, jest.
Sam Altman wrzucił zdjęcia odpowiadając na krytykę Elona Musk’a. Taką niebezpośrednią Elona Musk powiedział, że potrzebny jest też AI, który będzie promować wolność słowa, że będzie niezależny. I tu znowu pudlowa narracja o niezależności, o drugim nurcie, ale to też jest jakby taka cecha tych ruchów do dzisiaj prawicowych, żeby budować równoległy nazwijmy to potok informacji.
Po raz kolejny. Czy to dobrze, czy to źle? Nie dam oceniać. I Sam Altman odpowiedział na te pośrednie zarzuty w swoją stronę, jako ta nazwijmy to firma Legacy AI, wrzucając screenshot z konwersacji z Grokiem, czyli modelem właśnie wbudowanym X’a, który na pytanie o wybranie lepszego kandydata na Urząd Prezydenta Stanów Zjednoczonych podał wprost Kamal Harris.
Zostawił to ze screenshotem z GPT-o1 bodajże tu. Tu też to wyświetlimy, nie? Bo to jest bardzo… Tak, które nie podało wprost odpowiedzi i rozbiło sprawę Urzędu Polityki, Polityki Urzędu Prezydenta Stanów Zjednoczonych na pomniejsze kwestie programowe, bądź też predepartamenty. Także to też ciekawe, że ta informacja może być w zupełnie innym miejscu niż to, w którym się jej spodziewałem.
Maciej: Jeszcze wrócę do jednego z poprzednich naszych odcinków, kiedy mówiliśmy o World ID. Czy czasem to nie jest droga, znowu to jest jakby pytanie zadane w próżnie, tak? Na którym jakby nie chcę, żebyśmy się tak dawali jednoznaczną odpowiedź, ale pogdybali.
Czy World ID albo jakiś inny sposób identyfikacji może być działaniem rządu, instytucji o odpowiednim poziomie zaufania, żeby w jakiś sposób czy ograniczać dezinformację, tak? Czy też wpływać na to, że te poglądy polityczne zaszyte w elemach nie będą sprawiać nam takich problemów jak na przykład umacnianie baniek informacyjnych czy polaryzację społeczeństwa.
Adrian: Pytanie na ile ufasz rządom i na ile ufasz korporacjom. To tak najprościej. Wydaje mi się, że to jest ambitny plan.
Myślę, że dostęp do tych informacji ma i już rząd, i już mają korporacje, bo przecież Face ID skanuje nasze rysy twarzy, mamy czytniki linii papilarnych w telefonach i nie było z tym, że tak powiem, dużego problemu, żeby publika się do tego przekonała.
Bo oczywiście jest to ubrane z zapewnieniem o bezpieczeństwie i nieprzetrzymywaniu tych danych. Natomiast my już wpuściliśmy tą taką inwazyjność i możliwość identyfikacji. I pytanie, gdzie jest granica bólu?
Maciej: No już ona nie robi chyba takiego wrażenia jak kiedyś.
Adrian: Tak, to już jest, może być to problemem dla naszego pokolenia, a dla następnego już po prostu nie będzie.
Maciej: Będzie rzeczywistością. Wydaje mi się, że to tyle, bo to też jest jakby tak obszerny temat i to jest temat tak naprawdę, który jeszcze nie jest zbadany, bo to naprawdę trwa. Pamiętajmy, że te modele językowe cały czas się rozwijają i to o czym mówimy teraz, miejmy nadzieję, nie będzie problemem w przyszłości.
Ale raczej myślę, że skłaniamy się ku temu, że ważniejsza będzie świadomość o tych niedoskonałościach. Także oprócz halucynacji, czyli mówienia po prostu nieprawdy, również LNM-y mogą być odchylone w pewien sposób od poglądów politycznych, które na pierwszy rzut oka tak łatwo nie widać. Bo o ile możemy zauważyć poglądy, które będą dyskryminowały na przykład rasy albo płeć, tak jakieś subtelne wskazania poglądów politycznych mogą być już trudne do uchwycenia.
Także myślę, że otwórzmy taką dyskusję. My też na pewno wrócimy do tego kiedyś. Porównamy to.
Być może warto też sprawdzić pod kątem polskich wyborów. To będzie na pewno temat, który…
Adrian: To będzie ciekawe. Ja jestem ciekaw jak wyjdą z tego wszystkiego Niemcy, którzy są bardzo wrażliwi na punkcie ochrony danych osobowych. Też mają wybory i też są w centrum zainteresowań naszego sąsiada ze wschodu.
Maciej: No właśnie. Może doczekamy się prewencyjnych wyłączeń LLM-ów. To by dopiero…
Adrian: Nie, jak nie zrobili tego dla Stanów Zjednoczonych, to może być. A nie zrobią tego dla…
Maciej: Słuchajcie, źródła, to co my czytaliśmy i z czego się przygotowaliście macie w opisie. Mega będziemy właśnie wdzięczni za wasze poglądy na ten temat. To znaczy co o tym sądzicie, jakie wy jeszcze widzicie zagrożenia, a może widzicie w ogóle jakieś rozwiązania tego tematu.
I dajcie znać przede wszystkim czy ten temat wam się podobał i czy jest coś o czym chcielibyście wysłuchać. No i zapraszamy was po prostu do subskrypcji i obserwacji zarówno naszego bloga jak i tego kanału na YouTube. Także dzięki serdeczne i do zobaczenia wkrótce.
Adrian: Tak, do zobaczenia. Dobrze was widzieć po przerwie.