Prezentujemy dla was nową porcję informacji o sztucznej inteligencji. W najnowszym odcinku podcastu omawiamy najważniejsze wydarzenia lipca, które wydarzyły się w świecie AI. Chcemy pomóc wam nadążać za dynamicznymi zmianami w technologii.
Jednym z najważniejszych wydarzeń, które poruszamy w tym odcinku, jest pojawienie się aplikacji Chat GPT na Androida. Oczekiwane przez wielu użytkowników, dostępne teraz także w Polsce. Wydaje się to być ważnym krokiem w kierunku zwalczania cyfrowego wykluczenia i zwiększania dostępności narzędzi opartych na sztucznej inteligencji.
Podczas rozmowy Maciej i Adrian omawiają również nową funkcjonalność ChatGPT, Code Interpretera. Ta funkcja pozwala na operacje na różnego rodzaju plikach, w tym na plikach PDF, PNG, GIF czy XLSX, sprawiając, że staje się coraz bardziej dostępny dla osób nie technicznych. Dzięki temu ChatGPT staje się nie tylko narzędziem do rozmów, ale również pomocnikiem w realizacji bardziej złożonych zadań.
Dowiedz się więcej o tym, co działo się w świecie AI, słuchając najnowszego odcinka podcastu BeAIware!
Posłuchaj poprzedniego odcinka BeAIware podcast na temat Worldcoin i WorldID
O czym usłyszycie w tym odcinku podcastu?
0:00 – Intro
0:10 – Wstęp
1:42 – Aplikacja ChatGPT dla systemu Android
5:41 – Code Interpreter w ChatGPT
11:25 – Zwiększenie limitu zapytań dla GPT-4
14:10 – Custom Instructions w ChatGPT
16:50 – Nowy model językowy Claude 2
19:30 – ChatGPT pozbawiony wtyczki Browsing by Bing
20:35 – Worldcoin i WorldID
24:53 – Wycofano narzędzie do detekcji AI rozwijane przez OpenAI
29:01 – AI, a system edukacji
31:33 – Stack Overflow AI
37:52 – Zakończenie
Słuchaj naszego podcastu na innych platformach
🟢 Słuchaj podcastu “O AI ludzkim głosem” na Spotify
Transkrypcja podcastu BeAIware [s01e02]
Maciej: Dobra, to lecimy. Cześć wszystkim, witamy was serdecznie po raz kolejny w naszym kolejnym nagraniu. Z tej strony Maciej i Adrian z bloga BeAIware.pl oraz z kanału na YouTubie BeAIware. Jeżeli oczywiście słuchacie nas również w formie podcastu, to również serdecznie witamy wszystkich słuchaczy. Dzisiaj kolejnym, miejmy nadzieję, pierwszy odcinek takiej serii, którą będziemy planować, to jest takie większe podsumowanie miesięczne, a być może przyszłości nawet tygodniowe, tego co działo się w AI. właśnie brać na tapet najważniejsze tematy, omawiać się krótko i dać Wam takie poczucie tego, że faktycznie mimo, że to wszystko się tak bardzo dynamicznie zmienia, to chcemy dać Wam szansę tego, żebyście nadążali razem z nami.
Maciej: Bo tak jak Adrian, tutaj ustaliliśmy tą listę tematów, chociaż krótką, to prawda jest taka, że w lipcu zdarzyło się bardzo dużo, prawda?
Adrian: Ogromnie wiele rzeczy się zdarzyło i mieliśmy w ogóle problem na początku, żeby to uściślić, uszczuplić. I właściwie im bliżej do rozpoczęcia nagrywania, tym kolejne pomysły gdzieś tam wpadały. I łapaliśmy się, że a jeszcze to, a jeszcze to, a jeszcze wspomnimy o tym. Więc zobaczymy jak to będzie też czasowo wyglądało, czy was nie zanudzimy na śmierć, ale jest o czym mówić, więc będziemy tutaj.
Maciej: Dokładnie. Zwłaszcza, że nawet na ostatnią chwilę tutaj tak rzutem na taśmę wpadł nam temat, czyli to właściwie temat, od którego wydaje mi się, że powinniśmy zacząć. To jest właściwie, ubraliśmy go w takie ramy całościowego update’u, który zaszedł w naszym ulubionym i chyba najpopularniejszym narzędziu chat GPT, ale to co zdarzyło się dosłownie kilkanaście minut temu, bo to jest news z Twittera, że w końcu mamy aplikację ChatGPT na Androida.
Czyli to co było długo wyczekiwane, to co kilka tygodni wcześniej dostali użytkownicy iOS-a, jest już dostępne w Polsce. W Polsce i w ogóle to był taki globalny update tej aplikacji na Androida. Jest to po prostu tak nagła wiadomość, że również nawet nie mieliśmy szansy tego przetestować, ale wydaje mi się, że to jest krok w dobrym kierunku.
Adrian: Wiesz co, accessibility i takie zwiększanie dostępu do tego narzędzia nawet w formie, jeśli by to miało być dostęp darmowy do wersji 3.5, to jest na pewno dobry krok. Im szybciej, im więcej ludzi będzie z tym zaznajomionych, tym mniejsze będą efekty te negatywne wprowadzają do społeczeństwa.
Maciej: myślę, że tak, że o ile iOS jest, czyli system operacyjny urządzeń Apple’a jest rozpowszechniony w krajach rozwiniętych, tak naprawdę kraje rozwijające się, w tym Polska, tutaj stoi Adroidem, a więc to faktycznie jest ważny krok w kierunku zwalczania tej takiej, wydaje mi się, tej takiej dziury, takiego cyfrowego wykluczenia, która gdzieś tutaj rysuje nam się na horyzoncie.
Adrian: Całkowicie i nie wiem jak to będzie w przypadku Androida. Wiem, że na iOSie ta aplikacja nie wspierała pluginów, więc gdzieś tam też była taka odgórna inklinacja do tego, żeby używać jej w formule darmowej. I myślę, że to jest taki właśnie typowy look pod zwiększenie liczby bazowej użytkowników, bo choć ChatGPT dało się używać na telefonie przez aplikację sieciową, to zawsze to była jakaś tam niedogodność i taka dedykowana aplikacja jest myślę świetnym pomysłem, żeby wciągnąć jak najwięcej osób. I to kolejny też kanał ekspozycji, chyba najbardziej wydajny, tak mi się wydaje, bo wchodząc do sklepu Play od razu zauważysz, że jest aplikacja, którą można pobrać i to jest ten ChatGPT, więc ta bariera wejścia jest od razu niższa i więcej tych płatek subskrypcji potem w dalszym etapie może się konwertować.
To zresztą jest chyba master planem OpenAI i Sama Altmana.
Maciej: Dokładnie tak, dokładnie tak. Swoją drogą też ciekawą rzeczą jest to, ja po raz pierwszy jako użytkownik Androida od podejrzewam 15 lat, to jest jakby system operacyjny mobilny, od którego ja zacząłem i z którego na razie uciekać nie zamierzam, ale jako pierwszy raz w historii miałem takie doświadczenie, że była udostępniona możliwość zapisania się na listę oczekujących aplikacji. I ja to zrobiłem po raz pierwszy i to też moim zdaniem jest taki sygnał do tego, jak duża to jest zmiana w ogóle dla jakiegoś takiego naszego ekosystemu rozumienia technologii. Wykluczając też to i biorąc pod uwagę, że jestem tutaj AI-owym geekiem i na pewno to też napędzało tą moją ciekawość, ale z chęcią właśnie dzisiaj przetestuję tą aplikację i damy Wam znać właśnie na naszym blogu z czym to się je.
No dobra, ale właśnie ta aplikacja na Android to jest taka nowość, właśnie taka najbardziej świeża, gdzieś ten zapach tutaj z kuchni się unosi, ale to nie jest jedyna nowość tutaj z powiedzmy tego środowiska chatu GPT, ponieważ chat GPT dołożył w lipcu code interpretera dostępnego dla wszystkich użytkowników ChatGPT Plus, beta funkcjonalność. Ja co prawda nie miałem jeszcze z tym dużej styczności, ale wiem, że Ty próbowałeś coś zrobić, więc może opowiesz trochę więcej co to jest i właściwie co możemy z tym osiągnąć.
Adrian: Tak, Code Interpreter ja bym osobiście określił jako taki prywatny ekspert od Excel, bo taka główna funkcjonalność tego modułu to możliwość wrzucenia do niego plików i operowania na tych plikach, niezależnie czy to jest PDF, PNG, GIF czy XLSX. Chat GPT jest w stanie teraz operować na tych plikach, jest w stanie tworzyć linki z pobieralnymi plikami. I wydaje mi się też, że ten Code Interpreter jest takim troszeczkę rozszerzeniem kompetencji w kierunku programowania, że gdzieś tam skraca ten dystans między osobami nie technicznymi, a już gotowymi rozwiązaniami. Bo i z mojego doświadczenia wiem, że te skrypty napisane przez Code Interpretera, one działają.
I wydaje mi się, to jest tylko moja subiektywna opinia, jeśli ktoś ma inne doświadczenia w komentarzach, to zachęcamy do podzielenia się nimi. Wydaje mi się, że te skrypty pisane przy użyciu Code Interpreter, one są szybsze w takiej deployowalności, nie trzeba nad nimi tyle śledzyć, nie trzeba tyle debugować i nie trzeba tyle wrzucać czatowi do poprawek, tak? Więc jest gdzieś tam ten zmysł programowania o wiele bardziej rozwinięty. Tak mi się wydaje, to są moje odczucia.
Maciej: No to jest właśnie ciekawe, bo ja byłem świadkiem jak ty korzystałeś z tej funkcji i wiem, że mając jakieś takie czysto teoretyczne przygotowanie do programowania byłeś w stanie faktycznie napisać stosunkowo szybko skrypt.
Jakbyś mógł powiedzieć też trochę więcej o tym skrypcie, bo to jest fajny taki praktyczny przykład, do czego to właściwie było Ci potrzebne.
Adrian: Jasne, jasne. To znaczy, to się w ogóle zaczęło od takiego mojego trochę SEO-wego zadania, trochę takiej chęci zautomatyzowania sobie pewnych rzeczy. Patrząc od samego początku użyłem całego taki workflow właściwie. ChatGPT pozwolił mi dzięki właśnie tym modułom Code Interpreter przyszykować formułę do Excela, która brała gdzieś tam wtek linków, który potrzebuje i potrafiła to wszystko przeformatować w jedną komórkę w Excelu i potem gdzieś tam przy użyciu kolejnych rozszerzeń i wpisaniu tego Chata GPT do samego Google Sheets, bo to właściwie na tym się opierała cała procedura, byłem w stanie generować podobne teksty do tej bazy wiedzy, która została przechwycona z tych linków, które sobie wybrałem.
Więc dokładając do tego skrypt, który potrafi wziąć słowo kluczowe, które sobie zamierzyłeś, na przykład, nie wiem, najlepsza karma dla psów i potem ten skrypt napisany też przy użyciu Code Interpreter on potrafił wyszukać najlepszą karmę dla psów, zeskrapować pierwsze 10 stron z Google’a w postaci tekstowej, przez content strony tekstowej. Potrafił to wrzucić do pojedynczego pliku i z tego pojedynczego pliku potem dało się tworzyć kolejne treści, tak replikować je na bazie tej twardej bazy wiedzy pobranej przez ten skrypt.
No ja mówię, ja nie jestem osobą techniczną, broń Boże. Mam jakieś tam teoretyczne wyobrażenie i doświadczenie pracy około developerskiej, bo gdzieś tam z programistami na co dzień się zderzam i ta terminologia gdzieś tam lata nad uszami.
Maciej: Tak, ale to jest właśnie mega fajne takie… uważam właśnie, to jest ten atut w ogóle sztucznej inteligencji takiej przekazywanej właśnie osobom nietechnicznym, które mają jakieś takie szersze horyzonty, tak? I wiedzą gdzie szukać, z czego szukać i w jaki sposób szukać, bo to bardzo mocno obniża te bariery wejścia, czyli ty masz pomysł, co prawda nie masz doświadczenia, nie masz takiej stricte mocnej wiedzy technicznej, ale dzięki właśnie temu, że masz takiego osobistego asystenta, możesz być w pełni niezależny, nie musisz czekać właśnie na pomoc programistów, czy też, no to jest uważam super narzędzie do w ogóle takiego startupowego tworzenia jakichś MVP, bo jesteś w stanie bardzo szybko tutaj stworzyć coś, co nie będzie finalnym produktem, ale będzie na tyle dobre, żeby sobie zweryfikować pewne hipotezy biznesowe.
Adrian: Dokładnie tak, to jest taki bardzo pojętny i kompetentny stażysta, tak bym to mówił.
Maciej: Myślę, że o Code Interpreter w ogóle kiedyś się porozmawiamy i sobie osobno pogadamy, ale jeszcze chciałem wspomnieć o dwóch takich nowościach od ChataGPT, które zaserowało nam OpenAI. Jedna rzecz bardzo prosta, bardzo szybka, myślę, że wielu osobom jak to zostało ogłoszone, to uśmiech pojawił się na twarzy, ponieważ został w ChatGPT Plus zwiększony ten limit zapytań, tak, do 50 wiadomości na 3 godziny. Taki jest obecnie limit.
No i pytanie, tutaj trochę jeszcze zahaczę o to, bo dużo dyskutowaliśmy, tak, bardzo często zastanawialiśmy się nad tym i dużo pojawiało się też takich informacji w ogóle w sieci, czy ChatGPT faktycznie obniżył trochę swoje loty pod kątem takiego performance’u w stosunku do GPT-4, czyli jakości odpowiedzi, szybkości tych odpowiedzi, czy nie. No i to jest ciekawe, ponieważ dostaliśmy tak naprawdę dużo informacji, że faktycznie nawet były przeprowadzone jakieś takie benchmarki, dotyczące tego, że faktycznie coś jest na rzeczy, a jednocześnie dostaliśmy stosunkowo zaraz po tym, jak ta sprawa gdzieś wypłynęła, dostaliśmy to zwiększenie tego limitu wiadomości, co też może wskazywać na to, bo ja nie sądzę, żeby nagle chat GPT stał się o tyle bardziej rentowny i jakby ta moc obliczeniowa o tyle wzrosła, żeby przekazać jakby większą możliwość zapytań użytkownikom
Adrian: Wiesz co, ja myślę, że OpenAI nie przyznaje tego wprost, nie mówi tego na głos, ale poszło śladem Google’a. Google mianowicie jak ogłaszał ten swój flagowy model Palm 2, którym zasilany jest BART, to przy okazji wymienił też szereg submodeli do poszczególnych zastosowań. Więc myślę, że to było gdzieś świetnie świeże jak wyszedł GPT-4. Jak wyszedł GPT-4, że nie będzie GPT-5, będą kolejne iteracje, będą mniejsze bloki do realizowania i pchania tego wszystkiego do przodu. I będą też różne modele do różnych zadań i wydaje mi się, że to jest dokładnie to co teraz widzimy, że GPT-4 jest zbiorem modeli, jest jakimś tam parasolem technicznym, parasolem specyfikacji, które te modele muszą spełniać. Natomiast one mogą się różnić zarówno gdzieś tam w skłonnościach do interpretowania inputu, które wrzucamy, jak i prędkości, więc myślę, że tutaj mamy do czynienia z takim zdywersyfikowaniem planety modeli, bardziej niż z zakręceniem kół.
Maciej: Jasne. Natomiast to jest też coś nad czym będziemy się przyglądać, ale skoro mówisz już o tym parasolu specyfikacji, no to dostaliśmy również od ChaTGPT tak zwane Custom Instructions.
I ja pamiętam taki był slogan na naszym blogu, że ChatGPT uzyskuje nieskończoną pamięć, tak?
Adrian: Długotrwałą.
Maciej: Tak, pamięć długotrwałą, więc co to tak naprawdę jest? Bo to brzmi, wiesz, bardzo futurystycznie, ale co to oznacza, że mamy większe okno kontekstowe, czy jeszcze coś za tym dalej idzie.
Adrian: Wiesz co, zabrzmi to strasznie właściwie, ale ChatGPT będzie wiedział kim jest. I to w takim sensie, że jak powiemy mu, że jesteś moim specjalistą.
(brakujący fragment)
Maciej:
jest mocniejsza niż kiedykolwiek. Czy w ogóle sam ten temat detekcji AI jest, uważam, kluczowy? Z takich bardzo przyziemnych powodów, bo mamy prace magisterskie, mamy prace doktorskie. Ja, co prawda, pisałem te wszystkie prace już kilka lat temu, ale podejrzewam się, że jakbym teraz musiał do nich usiąść, no to pokusa, żeby napisać za pomocą ChatGPT byłaby przeogromna, nie? Albo chociaż teraz… No właśnie, nie? No i teraz jakby tutaj się pojawia pytanie, na ile powinno być to właśnie wykorzystywane czy weryfikowane w tego typu pracach naukowych? Myślę, że to też jest w ogóle dla systemu edukacyjnego bardzo duży orzech do zgryzienia. No bo właśnie, na pewno będzie to się musiało pojawić w takim, że tak powiem, ekwipunku czy to ucznia liceum, czy to studenta, ponieważ jest to coś, od czego nie uciekniemy.
Ale pytanie też takie czysto społeczne bym powiedział, na ile powinniśmy dopuszczać ingerencję tego typu narzędzi, platform do faktycznego takiego dorobku naukowego każdej z tych osób.
Adrian: Zabrzmię trochę jak idealista, ale wydaje mi się, że tutaj system edukacji powinien spojrzeć głęboko w lustro i zacząć sobie zadawać pytania, po co jesteśmy i jakie znaczenie ten system edukacji będzie miał w tym nowym społeczeństwie, który się kształtuje, które będzie podpierane. Chcemy, czy nie chcemy sztuczną inteligencją. Więc uważam, że piłka już nie jest chyba po naszej stronie.
Ludzie, którzy się martwią, chcą to jakoś obwarowywać i robić z tego jakąś personę non grata. Personę non grata, chyba tak się powinno to wymienić. W właściwym otoczeniu naukowym, akademickim, nawet jeśli schodzimy tak nisko jak liceum na tej drabinie, no to myślę, że jedyna możliwość reakcji to zaadoptowanie tego w jakiś kreatywny sposób albo przynajmniej pogodzenie się z faktem, że informacja staje się powszechna i ocenianie ludzi za to, ile informacji są w stanie przyswoić jest po prostu niedorzeczne już teraz, a będzie jeszcze bardziej niedorzeczne za lat 5, gdzie każdy telefon będzie miał więcej informacji niż człowiek kiedykolwiek będzie w stanie je zrozumieć.
Maciej:
Okej, z naszej listy został nam ostatni temat, również bardzo ciekawy. Myślę, że łączący się trochę z tymi zmianami, które zaserwował nam ChatGPT, to jest Stack Overflow, czyli dobrze znana wszystkim osobom tutaj interesującym się technologią czy programującą. Serwis społecznościowy oferujący bazę wiedzy głównie dla programistów wypuścił swoje narzędzie, które nazywa się Stack Overflow AI. Ja obejrzałem takie demo produktowe. W ogóle sam koncept jest bardzo ciekawy i to jest jakby moim zdaniem takie twórcze…
To jest właśnie to, w jaki sposób powinno się budować rozwiązania oparte na sztucznej inteligencji. I sam Stack Overflow podkreślił to, że oni nie widzą, że to jest zastąpienie człowieka, jakby w ten sposób wykorzystanie sztucznej inteligencji, tylko to jest właśnie danie ludziom większych możliwości korzystania ze swojej wiedzy, ze swojej wyobraźni i kreatywności. Bo Stack Overflow wprowadzi teraz możliwość wsparcia swoich poszukiwań, odpowiedzi na pytania. Tutaj może takie szybkie wyjaśnienie czym jest Stack Overflow. Najprostsze, jaka można wytłumaczyć to tak, że jeżeli jakiś programista ma do rozwiązania pewien problem, czyli napisać w jakiś sposób kod, jakąś funkcjonalność i zastanawia się nad tym, to prawdopodobnie ktoś już kiedyś miał podobny problem i opisał go właśnie na Stack Overflow, czyli można tam bardzo łatwo znaleźć pewne schematy, pewne sposoby rozwiązywania takich bardzo skomplikowanych zagadnień programistycznych.
No i o ile jeszcze do niedawna to się wiązało z tym, żeby właśnie ręcznie wpisywać jakieś takie keywords, jakieś takie frazy z dyskusji, którymi były opisywane te odpowiedzi, tak teraz programiści i w ogóle użytkownicy, którzy korzystają ze Stack Overflow będą wspierani sztuczną inteligencją, która nie dość, że pokaże koncepcję rozwiązań, bez jakby wyszukiwania całych tutaj tematów, to jeszcze będzie odsyłać do źródeł, czyli zupełnie jakby poszerzy tą wiedzę i możliwości, Mam wrażenie skróci, no tworzenie oprogramowania, czyli w ogóle coś się z tego robi, taki bardzo fajny automat.
No może nie automat, bo tak jak nawet Stack Overflow podkreśla, jakby czynnik ludzki jest w dalszym ciągu bardzo ważne, tylko jego zadaniem już teraz będzie bardziej ta kwestia kreatywności, podejścia łączenia kropek. Wydaje mi się coś, czego jeszcze właśnie sztuczna inteligencja nie osiągnęła na taką skalę. I być może nie osiągnie, bo to też nie jest powiedziane, że jakby to właśnie ten pułap kreatywności to jest coś, co jest takie typowo ludzkie. No miejmy nadzieję, że coś tam zostanie takiego, czego maszyna nas nie dosięgnie. Ale właśnie to jest jakby przeniesienie tych kompetencji z długotrwałego, czasochłonnego, stricte technicznego rozwiązywania pewnych problemów do samego kreowania koncepcji i pisania takich wielopoziomowych scenariuszy.
Adrian: Wiesz co, jestem zachwycony tą wizją, którą teraz zarysowałeś, że ten człowiek zawsze będzie gdzieś tam na końcu tym takim…
Maciej: No ja jestem zawsze optymistą, nie? Właśnie, więc szukam dziś światełka w tunelu, ale no nawet chyba wczoraj rozmawiałem z takim moim kolegą programistą trochę właśnie w kontekście WorldCoin, WorldID i o tym, że niechybnie koniec takiego ludzkości gdzieś tam pojawia się na horyzoncie. To co jakby, dociąłem z nim też taką bardzo stricte filozoficzną i społeczną rozmowę o tym, że być może nie, że być może właśnie to pozwoli wyzwolić jakby te nowe pokłady takiej kreatywnej, kreatywnego podchodzenia do pewnych spraw, nie? To jest jakby takie moje odczucie ostatnich dni, które dało mi trochę wiatru w żagle tutaj.
Adrian: Oby, oby, bo też zauważ, że z naszych rozmów jak sobie tak dyskutujemy potencjalne scenariusze, co by to miało być, gdybyśmy nie musieli pracować, to nagle przychodzą jakieś od razu nam pomysły, że a zrobimy to, a pójdziemy tam, a zajmiemy się tym, a w końcu będę miał czas, żeby zrobić to, a gdyby tak się stało, to bym się zajął tym. Więc to może być wielkie obciążenie i w kontekście tego Stack Overflow na skalę mikro na pewno tak się stanie. I gdzieś tam, tak jak mówisz, ta kwestia powtarzalnych zadań, czy gdzieś tam przewijania przez setki stron z podpowiedziami i próby wyciągnięcia jakiegoś takiego składnego poglądu na ten problem, z którym się dany programista mierzy, jest na pewno ułatwieniem, że już nie trzeba tego będzie robić.
Plus jest taki, że będą źródła, więc programiści będą wiedzieć, kto, jak, gdzie i skąd. I to też jest znowu taka afirmacja tego, co powiedziałeś przed chwilą, że jednak ten człowiek jest gdzieś tam na krańcach tego procesu, że to człowiek musiał jakiś tam przypadek zanalizować, jakiś tam przypadek opisać, jakiś tam przypadek opisać i sztuczna inteligencja fantastycznie potrafi się w tym zamkniętym zbiorze danych poruszać i znajdować jakieś tam semantyczne podobieństwa i potem zaoszczędzić jeszcze czas temu konceptowi.
Maciej: Cieszę się, że w końcu optymistycznie, trochę bardziej optymistycznie niż poprzednio nasze nagranie zakończyliśmy.
Bo tutaj myślę, że warto zakończyć. Tak jak sami słyszycie w lipcu zadziało się bardzo wiele, a ja mam wrażenie, że to jest tylko wierzchołek góry lodowej tych tematów, które warto prześledzić. Zapraszamy Was na naszego bloga, gdzie staramy się praktycznie codziennie dodawać jakąś taką ciekawą informację ze świata. No i też mam nadzieję, że spotkamy się niedługo, czy to przy kolejnym podsumowaniu, czy też przy omawianiu jakiegoś kolejnego tematu związanego ze sztuczną inteligencją. Jeżeli jest coś, o czym chcielibyście szczególnie usłyszeć to po prostu dajcie nam znać w komentarzach albo napiszcie na maila na hello-małpa-be-aware.pl a my chętnie zgłębimy ten temat no bo jesteśmy w tej samej sytuacji co wy, tak?
To też jest dla nas bardzo nowe przedsięwzięcie, tak? To co się dzieje. A po prostu staramy się wziąć taką latarenkę i gdzieś tutaj odkrywać kolejne ciekawostki z tym związane i to jest właśnie produkt, który Wam tutaj serwujemy.
Adrian: Tak jest, jesteśmy dokładnie tak jak Maciek powiedział, jesteśmy w tej samej sytuacji co Wy i też nas to gdzieś tam do pewnego stopnia przeraża, na wielu frontach, więc nie ma pytania, które by nas nie zafascynowało. Jeśli wahacie się, czy coś zadać, czy napisać, czy nie, to piszcie, zadawajcie, bo niejednokrotnie nawet gdzieś tam jak rozmawiamy z ludźmi na tematy, które już wielokrotnie omawiali, to kolejna rozmowa otwiera zawsze jakąś tam nową furtkę i patrzymy na te kwestie z jeszcze innego kąta, z jeszcze innej perspektywy. Więc czekamy na wasze komentarze, na wasze maile, na wasze wiadomości.
0:10:49
Piszcie, piszcie. Dokładnie. Trzymajcie się i do usłyszenia już wkrótce!