W skrócie
Karty graficzne przeszły niesamowitą metamorfozę: od 3dfx Voodoo z 1996 roku, która kosztowała 300 dolarów i służyła do grania w Quake, po dzisiejsze Nvidia H100 wyceniane na 30–40 tysięcy dolarów, napędzające ChatGPT i inne systemy sztucznej inteligencji. Ten artykuł pokazuje, jak strategiczne posunięcie Nvidii z 2006 roku – stworzenie platformy CUDA – przygotowało grunt pod całkowite przejęcie rynku AI i kapitalizację firmy przekraczającą 3 biliony dolarów. To historia o tym, jak zabawka dla graczy stała się fundamentem technologii wartej fortunę.
- W skrócie
- Rewolucja, która zaczęła się w 1996 roku
- Nvidia przejmuje pałeczkę
- 2006: CUDA – kamień węgielny pod przyszłość
- Przełom 2012: deep learning odkrywa GPU
- Tokeny, RAM i absurdalne wymagania sprzętowe
- H100 za 30 000 dolarów – czy to szaleństwo?
- Monopol, który nie ma konkurencji
- Kapitalizacja 3 bilionów dolarów
- Komentarz od autora
Rewolucja, która zaczęła się w 1996 roku
Koniec lat 90. to czas, gdy gracze PC po raz pierwszy zobaczyli prawdziwą grafikę 3D w czasie rzeczywistym. 3dfx Voodoo – karta graficzna z 1996 roku – wprowadziła teksturowanie i renderowanie trójkątów na zupełnie nowym poziomie. Gry takie jak Quake czy Tomb Raider nagle zyskały niesamowite tekstury i płynność. Cena? Około 300 dolarów, co po dzisiejszej inflacji odpowiada mniej więcej 600 dolarom.
Voodoo zdefiniowało nowy rynek – akceleratory 3D dla graczy. Firma 3dfx była pionierem, ale jej sukces nie trwał długo.
Nvidia przejmuje pałeczkę
W 1999 roku Nvidia wypuściła GeForce 256 – pierwszą kartę graficzną, którą oficjalnie nazwano „GPU” (Graphics Processing Unit). Nvidia wymyśliła nie tylko nazwę, ale wprowadziła hardware Transform & Lighting (T&L), przyspieszając obliczenia 3D. To był strzał w dziesiątkę.
3dfx próbowało odpowiedzieć kartą Voodoo 5, ale było już za późno. Firma zbankrutowała w 2000 roku, a Nvidia wykupiła jej aktywa za zaledwie 70 milionów dolarów. Ironicznie, to 3dfx stworzyło rynek GPU, a Nvidia go przejęła i zbudowała na nim imperium.
2006: CUDA – kamień węgielny pod przyszłość
Przełomowym momentem był rok 2006, gdy Nvidia wprowadziła CUDA (Compute Unified Device Architecture) – platformę pozwalającą programistom używać kart graficznych do obliczeń niegraficznych. Wtedy nikt nie przewidywał, że to właśnie CUDA zdominuje świat sztucznej inteligencji 15 lat później.
Konkurencja – AMD z platformą ROCm – zignorowała ten ruch, uważając GPU za zabawkę dla naukowców. Nvidia natomiast cierpliwie budowała ekosystem: biblioteki, narzędzia, społeczność deweloperów. Efekt? Dziś CUDA to 18 lat optymalizacji, miliony linii kodu i standard de facto w deep learningu.
Przełom 2012: deep learning odkrywa GPU
W 2012 roku zespół AlexNet wygrał prestiżowy konkurs rozpoznawania obrazów ImageNet, wykorzystując… karty Nvidia do trenowania sieci neuronowej. To było trzęsienie ziemi. Nagle wszyscy badacze AI zrozumieli, że GPU może wykonywać mnożenie macierzy nawet 100 razy szybciej niż tradycyjny procesor.
Dlaczego akurat GPU, a nie CPU? Odpowiedź tkwi w architekturze:
- CPU: 8–32 rdzenie, zoptymalizowane pod złożone zadania sekwencyjne
- RTX 4090: ~16 384 rdzeni CUDA, idealnych do obliczeń równoległych
- A100 (datacenter): jeszcze więcej rdzeni, jeszcze szybsze obliczenia
AI to w głównej mierze mnożenie ogromnych macierzy – dokładnie to, do czego GPU zostało zaprojektowane.
Tokeny, RAM i absurdalne wymagania sprzętowe
Żeby zrozumieć, dlaczego AI „pożera” sprzęt, trzeba wiedzieć, jak działa przetwarzanie tekstu. Modele językowe nie czytają słów – zamiast tego rozkładają tekst na tokeny (kawałki długości ~3–4 znaków w angielskim, ~2–3 w polskim).
Każdy token to wektor setek lub tysięcy liczb reprezentujących jego znaczenie. Model GPT-4 ma około 175 miliardów parametrów – każdy token musi „przejść” przez wszystkie te parametry w skomplikowanych operacjach matematycznych.
Wymagania dla GPT-4:
- Wagi modelu: ~350 GB pamięci (same parametry)
- Kontekst (Twoje pytanie + rozmowa): kilka GB
- Obliczenia pośrednie: kolejne dziesiątki GB
- Razem: 400–600 GB VRAM
Dla porównania – topowa karta dla graczy RTX 4090 ma zaledwie 24 GB VRAM. To ledwo wystarcza na małe modele (7–13 miliardów parametrów). Serwery OpenAI używają klastrów po 8 kart A100 (80 GB każda) = 640 GB VRAM na jeden węzeł obliczeniowy.
H100 za 30 000 dolarów – czy to szaleństwo?
Brzmi absurdalnie, ale Nvidia H100 – karta zaprojektowana wyłącznie pod AI – kosztuje oficjalnie 25 000–30 000 dolarów. W praktyce, przez niedobory na rynku, ceny dochodzą do 35 000–40 000 dolarów za sztukę. Serwer z 8 kartami H100 to wydatek rzędu 250 000–320 000 dolarów.
Nowsza generacja, H200, przekracza już 40 000 dolarów za pojedynczą kartę.
Porównanie z rynkiem konsumenckim? RTX 4090 kosztuje około 2000 dolarów. H100 jest 15 razy droższe – ale dla firm takich jak Meta, Google czy OpenAI to drobne. Elon Musk kupił 10 000 kart H100 dla centrum obliczeniowego Tesli. Koszt? Około 300–400 milionów dolarów – samo na GPU.
Monopol, który nie ma konkurencji
Nvidia kontroluje dzisiaj około 95% rynku akceleratorów AI. AMD próbuje walczyć swoimi kartami Instinct MI300, Intel lansuje Gaudi – ale żaden z nich nie ma szans przeciwko ekosystemowi CUDA.
Dlaczego?
- PyTorch, TensorFlow – najpopularniejsze frameworki AI – domyślnie wspierają CUDA
- ROCm (odpowiednik CUDA od AMD) działa, ale biblioteki są gorsze, wsparcie słabsze
- Wszyscy uczą się CUDA na studiach, w kursach online – nikt nie uczy ROCm
Nvidia nie tylko sprzedaje sprzęt. Oni sprzedają gotowy ekosystem, lata doświadczenia, setki tysięcy gotowych rozwiązań. Konkurencja jest 10–15 lat za nimi.
Kapitalizacja 3 bilionów dolarów
W 2026 roku Nvidia osiągnęła kapitalizację rynkową przekraczającą 3 biliony dolarów, wyprzedzając Apple i stając się jedną z najcenniejszych firm na świecie. To efekt idealnego wyczucia czasu i strategii rozłożonej na dwie dekady:
- 2006: CUDA – fundamenty
- 2012: Deep learning odkrywa GPU
- 2016–2023: Tensor Cores, A100, H100 – dedykowane chipy AI
- 2023–2026: Boom na AI (ChatGPT, Gemini, Claude) – popyt eksploduje
Microsoft zainwestował 13 miliardów dolarów w OpenAI, z czego znaczna część poszła na… zakup GPU Nvidia. To doskonale pokazuje, gdzie dziś są prawdziwe pieniądze.
Komentarz od autora
Komputery to moja pasja od lat – zaczynałem od składania pecetów, przez naprawy sprzętu, aż po prowadzenie tego bloga. Historia GPU wciąż mnie fascynuje, bo to jedna z tych technologii, które ewoluowały zupełnie nieoczekiwanie.
Kiedy w 1997 roku zobaczyłem po raz pierwszy Voodoo 2 SLI w akcji – Unreal w 800×600 z anti-aliasingiem – wydawało mi się, że widziałem szczyt możliwości. Wtedy nawet nie przyszło mi do głowy, że te same chipy, które renderują potwory w grach, będą kiedyś… rozmawiać ze mną.
Nvidia nie wygrała przez przypadek. Obserwowałem, jak w 2008 roku naukowcy zaczęli eksperymentować z CUDA do obliczeń naukowych – większość branży się z tego śmiała. „Po co programować GPU, skoro mamy Xeony?” – słyszałem to setki razy. Nvidia nie słuchała krytyków. Budowali CUDA, szkolili deweloperów, dawali uniwersytetom darmowe karty Tesla. Wyglądało to jak spalanie pieniędzy.
A potem przyszedł 2012. AlexNet. I nagle wszyscy potrzebowali GPU. Ci sami ludzie, którzy 4 lata wcześniej kpili z CUDA, teraz stali w kolejce po karty Nvidia.
Dziś, gdy piszę ten tekst, prawdopodobnie gdzieś w centrum danych OpenAI tysiące kart H100 przetwarza Twoje zapytanie do ChatGPT. Każda z tych kart kosztuje więcej niż solidnie wyposażony komputer dla gracza – a często i więcej. I wiesz co? To dopiero początek.
Bo jeśli historia GPU nas czegoś nauczyła, to tego, że technologia potrafi zaskoczyć. Kto wie – może za 10 lat karty, które dziś trenują AI, będą robić coś, czego jeszcze nie potrafimy sobie nawet wyobrazić. Tak jak w 2006 nikt nie wyobrażał sobie, że GPU będzie pisać artykuły.
A ja? Wciąż pamiętam ekran logowania do Quake’a na Voodoo. I cieszę się, że mogłem być świadkiem tej drogi – od pikseli po sztuczną inteligencję.



