Kiedy DeepSeek wypuściło swoją otwartoźródłową wersję modelu R1, wielu inwestorów i obserwatorów rynku pomyślało, że to koniec ery intensywnej komputacji w AI. Jednak Jensen Huang, założyciel i dyrektor generalny Nvidii, szybko sprostował te obawy podczas rozmowy z Alexem Bouzarim, szefem DataDirect Networks.
– Myślę, że rynek zareagował na R1 w ten sposób: ‘O mój Boże. AI jest skończone’ – powiedział Jensen Huang, komentując reakcję giełdy. – Wiesz, (DeepSeek R1 – przyp. red.) spadło z nieba. Nie musimy już wykonywać żadnych obliczeń. Jest dokładnie odwrotnie. Jest zupełnie odwrotnie! – dodał.
Huang odniósł się w ten sposób do spadku wartości akcji Nvidii – kurs obniżył się o ponad 16% w ciągu jednego dnia handlowego, co na chwilę zachwiało pewnością inwestorów. Wystarczył jednak niespełna miesiąc, by cena akcji niemal całkowicie wróciła do wcześniejszych poziomów.
Czy R1 kończy erę skomplikowanych procesów sztucznej inteligencji?
Kluczowe pytanie brzmi: czy efektywniejsze modele AI rzeczywiście ograniczają zapotrzebowanie na zasoby obliczeniowe – zwłaszcza te, które dostarcza Nvidia?
Zdaniem Huanga – zupełnie nie. Zaawansowane rozwiązania, takie jak DeepSeek R1, przyciągają uwagę do potencjału sztucznej inteligencji, generują nowe scenariusze zastosowań i stymulują wdrażanie AI w kolejnych branżach.
– To sprawia, że każdy zwraca uwagę, że istnieją możliwości, by modele były znacznie bardziej wydajne, niż nam się do tej pory wydawało – wyjaśnił Huang, dodając, że dzięki temu adopcja AI będzie się rozszerzać i przyspieszać.
To, co często umyka w nagłówkach, to fakt, że nawet najbardziej zaawansowane modele potrzebują sporych zasobów nie tylko w fazie pre-treningu (przygotowywania modelu), ale również w dalszych etapach. Huang zauważa, że:
– Rozumowanie (ang. reasoning) jest dość zasobożerną częścią całego procesu – podkreślił Jensen Huang.
Oznacza to, że choć R1 jest wydajny w porównaniu z innymi modelami, nie sprawia automatycznie, że komputacja przestaje być kluczowa. Wręcz przeciwnie – wzrost zainteresowania AI będzie wymagać jeszcze większych mocy obliczeniowych, aby sprostać nowym potrzebom biznesu i nauki.
Wpływ na rynek: lekcja dla inwestorów i entuzjastów AI
Rynek początkowo zareagował paniką, co przełożyło się na nagłe i spektakularne tąpnięcie wartości Nvidii, które jednak dość szybko zostało zniwelowane. Jak wykazały notowania podawane przez Yahoo Finance, już po kilku tygodniach firma prawie całkowicie odzyskała utracony kapitał. To pokazuje, że krótkotrwałe reakcje często bywają irracjonalne, a fundamenty – takie jak popyt na procesory graficzne i usługi w chmurze – wciąż mają kluczowe znaczenie w dłuższej perspektywie.
Co dalej z R1 i rozwojem sztucznej inteligencji?
DeepSeek nie zamierza spoczywać na laurach i ogłosiło zamiar otwarcia pięciu kolejnych repozytoriów w ramach „tygodnia open source”. To z pewnością oznacza większą dostępność narzędzi i kodu dla programistów, a co za tym idzie – szybszy rozwój całego ekosystemu AI.
Z perspektywy obserwatorów rynku, model R1 pokazuje, że innowacje w sztucznej inteligencji będą pojawiać się coraz częściej, a ich wpływ na gospodarkę może być trudny do przewidzenia. Warto jednak pamiętać, że nawet najbardziej wydajne modele wciąż potrzebują odpowiedniej infrastruktury – i to w dużej skali.
Źródło: TechCrunch
Zdjęcie: Raysonho @ Open Grid Scheduler / Scalable Grid Engine