Close Menu
  • Główna
  • Aktualności
  • Recenzje
  • Narzędzia AI
  • Ludzie AI
  • Wydarzenia
Najnowsze

OpenAI ogłosił wprowadzenie GPT-5.1

November 12, 2025

Jak AI zmienia pracę programistów? Co dalej z juniorami? [PODCAST 🎙️]

November 11, 2025

Lumen stawia na AI Palantira, by zbudować nową cyfrową infrastrukturę

October 23, 2025
Facebook X (Twitter) Instagram
Button
beAIware.pl
Facebook X (Twitter) Instagram TikTok
  • Główna
  • Aktualności
  • Recenzje
  • Narzędzia AI
  • Ludzie AI
  • Wydarzenia
beAIware.pl
Home » Jensen Huang o DeepSeek R1: To wszystko przyspieszy!
Aktualności

Jensen Huang o DeepSeek R1: To wszystko przyspieszy!

Maciej BiegajewskiBy Maciej BiegajewskiFebruary 22, 2025Updated:February 23, 20253 Mins Read
Jensen Huang o DeepSeek R1: To wszystko przyspieszy!
Share
Facebook Twitter Pinterest Reddit WhatsApp Email

Kiedy DeepSeek wypuściło swoją otwartoźródłową wersję modelu R1, wielu inwestorów i obserwatorów rynku pomyślało, że to koniec ery intensywnej komputacji w AI. Jednak Jensen Huang, założyciel i dyrektor generalny Nvidii, szybko sprostował te obawy podczas rozmowy z Alexem Bouzarim, szefem DataDirect Networks.

– Myślę, że rynek zareagował na R1 w ten sposób: ‘O mój Boże. AI jest skończone’ – powiedział Jensen Huang, komentując reakcję giełdy. – Wiesz, (DeepSeek R1 – przyp. red.) spadło z nieba. Nie musimy już wykonywać żadnych obliczeń. Jest dokładnie odwrotnie. Jest zupełnie odwrotnie! – dodał.

Huang odniósł się w ten sposób do spadku wartości akcji Nvidii – kurs obniżył się o ponad 16% w ciągu jednego dnia handlowego, co na chwilę zachwiało pewnością inwestorów. Wystarczył jednak niespełna miesiąc, by cena akcji niemal całkowicie wróciła do wcześniejszych poziomów.

Czy R1 kończy erę skomplikowanych procesów sztucznej inteligencji?

Kluczowe pytanie brzmi: czy efektywniejsze modele AI rzeczywiście ograniczają zapotrzebowanie na zasoby obliczeniowe – zwłaszcza te, które dostarcza Nvidia?

Zdaniem Huanga – zupełnie nie. Zaawansowane rozwiązania, takie jak DeepSeek R1, przyciągają uwagę do potencjału sztucznej inteligencji, generują nowe scenariusze zastosowań i stymulują wdrażanie AI w kolejnych branżach.

– To sprawia, że każdy zwraca uwagę, że istnieją możliwości, by modele były znacznie bardziej wydajne, niż nam się do tej pory wydawało – wyjaśnił Huang, dodając, że dzięki temu adopcja AI będzie się rozszerzać i przyspieszać.

To, co często umyka w nagłówkach, to fakt, że nawet najbardziej zaawansowane modele potrzebują sporych zasobów nie tylko w fazie pre-treningu (przygotowywania modelu), ale również w dalszych etapach. Huang zauważa, że:

– Rozumowanie (ang. reasoning) jest dość zasobożerną częścią całego procesu – podkreślił Jensen Huang.

Oznacza to, że choć R1 jest wydajny w porównaniu z innymi modelami, nie sprawia automatycznie, że komputacja przestaje być kluczowa. Wręcz przeciwnie – wzrost zainteresowania AI będzie wymagać jeszcze większych mocy obliczeniowych, aby sprostać nowym potrzebom biznesu i nauki.

Wpływ na rynek: lekcja dla inwestorów i entuzjastów AI

Rynek początkowo zareagował paniką, co przełożyło się na nagłe i spektakularne tąpnięcie wartości Nvidii, które jednak dość szybko zostało zniwelowane. Jak wykazały notowania podawane przez Yahoo Finance, już po kilku tygodniach firma prawie całkowicie odzyskała utracony kapitał. To pokazuje, że krótkotrwałe reakcje często bywają irracjonalne, a fundamenty – takie jak popyt na procesory graficzne i usługi w chmurze – wciąż mają kluczowe znaczenie w dłuższej perspektywie.

Co dalej z R1 i rozwojem sztucznej inteligencji?

DeepSeek nie zamierza spoczywać na laurach i ogłosiło zamiar otwarcia pięciu kolejnych repozytoriów w ramach „tygodnia open source”. To z pewnością oznacza większą dostępność narzędzi i kodu dla programistów, a co za tym idzie – szybszy rozwój całego ekosystemu AI.

Z perspektywy obserwatorów rynku, model R1 pokazuje, że innowacje w sztucznej inteligencji będą pojawiać się coraz częściej, a ich wpływ na gospodarkę może być trudny do przewidzenia. Warto jednak pamiętać, że nawet najbardziej wydajne modele wciąż potrzebują odpowiedniej infrastruktury – i to w dużej skali.


Źródło: TechCrunch

Zdjęcie: Raysonho @ Open Grid Scheduler / Scalable Grid Engine

DeepSeek DeepSeek-R1 jensen huang Nvidia
Previous ArticleCo kryje się za rezygnacją wieloletniego CEO Clearview AI?
Next Article Czy xAI wprowadza w błąd? Kontrowersje wokół benchmarków Grok 3
Maciej Biegajewski

    Add A Comment
    Leave A Reply Cancel Reply

    10 NAJLEPSZYCH PROMPTÓW 2023
    Polecane

    Jak włączyć i korzystać z wtyczek do ChatGPT – poradnik krok po kroku

    May 17, 2023

    Wszystko, co musisz wiedzieć o Midjourney

    April 20, 2023

    Co to jest ChatGPT? – i inne najczęściej zadawane pytania

    March 30, 2023
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • LinkedIn
    • TikTok

    Bądż na bieżąco!

    Bądź na czasie z najlepszymi narzędziami i zastosowaniami AI!

    Prosto do Twojej skrzynki mailowej.

    Dziękujemy!

    You have successfully joined our subscriber list.

    O nas
    O nas

    Dołącz do biznesowej rewolucji AI i odkrywaj z nami narzędzia przyszłości.

    Bądź na bieżąco. Be AI-ware!

    Kontakt: [email protected]

    Facebook X (Twitter) Instagram TikTok
    Najnowsze posty

    OpenAI ogłosił wprowadzenie GPT-5.1

    November 12, 2025

    Lumen stawia na AI Palantira, by zbudować nową cyfrową infrastrukturę

    October 23, 2025

    Edge Copilot kontra Atlas: czy nadchodzi era przeglądarek z AI?

    October 23, 2025

    Type above and press Enter to search. Press Esc to cancel.