Ad imageAd image

NVIDIA Rubin R100 z HBM4: czy GTC 2026 naprawdę przestawi granice fizyki w AI?

Czas czytania 7 min

Newsem zapowiadającym, co NVIDIA pokaże na konferencji GTC 2026 ma być nowy układ dla sztucznej inteligencji, który ma znacząco przesunąć granice wydajności i przepustowości danych. Jensen Huang zapowiada chip oparty na architekturze Rubin z pamięcią HBM4 bezpośrednio na rdzeniu logicznym, co ma zlikwidować dotychczasowe wąskie gardła w obsłudze generatywnej AI. W artykule pojawia się m.in. Rubin R100, platforma Vera Rubin NVL144 w litografii 3 nm, integracja CPU Vera (ARM) z GPU oraz plotki o przyszłej architekturze Feynman z fotoniką krzemową i procesem TSMC A16 (1,6 nm). Dla kogo to ważne? Dla dostawców chmury, centrów danych, firm budujących ogromne modele językowe oraz wszystkich, którzy inwestują w infrastrukturę AI na poziomie eksaflopów. Głównym ograniczeniem pozostaje tzw. „mur skalowalności” – sama moc obliczeniowa nie wystarczy, jeśli architektura nie rozwiąże problemów z przepustowością i opóźnieniami.

Wstęp: AI na zakręcie, NVIDIA szykuje nowy silnik

Rok 2026 to moment, w którym sektor sztucznej inteligencji zderza się z twardymi ograniczeniami sprzętu – modele rosną szybciej niż możliwości obecnych układów. NVIDIA, lider tego rynku, zapowiada na GTC 2026 w San Jose (16 marca) prezentację przełomowego chipu, który ma „poszerzyć granice współczesnej fizyki”. Jensen Huang otwarcie mówi, że wszystkie technologie dochodzą do granic możliwości, ale jednocześnie sugeruje, że firma ma w zanadrzu „kilka nowych chipów, jakich świat jeszcze nie widział”. Na tym tle architektura Rubin i przyszły projekt Feynman mają być odpowiedzią na rosnące potrzeby generatywnej AI i gigantów chmurowych.

Najważniejsze zapowiedzi: Rubin R100, HBM4 i Vera Rubin NVL144

W centrum uwagi znajduje się ewolucja platformy Vera Rubin, która ma trafić na rynek w drugiej połowie 2026 roku. Analitycy spodziewają się, że „zaskakującym układem” będzie Rubin R100 – procesor graficzny zaprojektowany specjalnie pod AI, który po raz pierwszy zastosuje pamięć HBM4 ułożoną bezpośrednio na rdzeniu logicznym. Taka konstrukcja ma usunąć klasyczne wąskie gardło między GPU a pamięcią, co jest kluczowe przy trenowaniu ogromnych modeli językowych i systemów generatywnych.

Platforma Vera Rubin NVL144 ma dodatkowo wykorzystywać proces technologiczny 3 nm przygotowany przez TSMC, z przepustowością pamięci nawet do 13 TB/s – to wartości projektowane z myślą o infrastrukturze eksaflopowej. Całość uzupełnia Vera CPU oparty na architekturze ARM, działający w ścisłej współpracy z GPU, co ma poprawić efektywność energetyczną centrów danych.

Dlaczego HBM4 na rdzeniu to game‑changer?

Dotychczasowe generacje układów AI, w tym rodzina Blackwell, borykały się z ograniczeniami przepustowości pamięci, które zaczęły hamować dalszy wzrost mocy modeli. Przeniesienie HBM4 bezpośrednio na rdzeń logiczny oznacza radykalne skrócenie ścieżki danych i zmniejszenie opóźnień, co przekłada się na lepsze wykorzystanie jednostek obliczeniowych. Dla operatorów chmury liczy się już nie tylko czysta moc, ale koszt pojedynczego zapytania – ile energii i zasobów pochłania wygenerowanie odpowiedzi przez model.

Nowa architektura Rubina ma poprawić właśnie ten wskaźnik, co w praktyce przekłada się na możliwość obsługi większych modeli przy tym samym budżecie energetycznym lub obniżenie kosztów działania istniejących usług AI. Jeśli zapowiedzi się potwierdzą, Rubin R100 może stać się nowym punktem odniesienia w sprzęcie dla centrów danych, podobnie jak wcześniejsze generacje GPU NVIDII zdominowały rynek uczenia maszynowego.

Choć oficjalny fokus jest na Rubinie, w branży krążą spekulacje na temat projektu Feynman. To kolejny krok w roadmapie NVIDII, pierwotnie planowany na 2028 rok, oparty na procesie TSMC A16 (1,6 nm) i wykorzystujący fotonikę krzemową. Zamiast klasycznych sygnałów elektrycznych, dane między komponentami miałyby być przesyłane światłem, co otwiera drogę do zupełnie nowych poziomów przepustowości.

Jeżeli NVIDIA pokaże działający prototyp Feynmana już na GTC 2026, oznaczałoby to wyprzedzenie branżowego harmonogramu o dwa lata. Przy takich parametrach obecne systemy połączeń, w tym NVLink, mogą wyglądać jak poprzednia epoka, a ograniczenia wynikające z prawa Moore’a zostaną przynajmniej częściowo złagodzone przez zmianę medium komunikacji.

Konkurencja nie śpi: AMD, Google, Microsoft i „mur skalowalności”

NVIDIA wciąż dominuje, ale rywale mocno przyspieszyli. AMD ma swoje akceleratory MI450, a Google TPU v8 i układy Maia od Microsoftu stają się realnymi alternatywami pod konkretne typy obciążeń AI. Jednocześnie cała branża zderza się z problemem, który artykuł nazywa „murem skalowalności” – dokładanie kolejnych teraflopów nie przekłada się automatycznie na „mądrzejsze” modele.

Układ, który Jensen Huang ma pokazać w San Jose, ma uderzyć w ten problem poprzez architekturę stawiającą na gęstość danych i minimalne opóźnienia, a nie tylko na surową moc obliczeniową. W praktyce chodzi o to, żeby GPU nie czekały na dane, a infrastruktura potrafiła obsłużyć gigantyczny strumień informacji między pamięcią, CPU, GPU i siecią.

Dla kogo Rubin i Feynman będą najważniejsze?

Najwięcej na tych nowościach zyskają:

  • Dostawcy chmury obliczeniowej – Amazon, Google, Microsoft i inni, którzy budują klastry eksaflopowe dla modeli generatywnych.
  • Firmy rozwijające duże modele językowe – gdzie liczy się zarówno czas trenowania, jak i koszt inference.
  • Centra danych i integratorzy HPC, którzy szukają lepszego stosunku wydajności do poboru mocy.

Dla przeciętnego użytkownika PC czy nawet entuzjasty gier te układy będą raczej odległą technologią z serwerowni, ale pośrednio mogą przełożyć się na tańsze, szybsze i bardziej zaawansowane usługi AI, z których korzystamy na co dzień.

Czy to faktycznie „rewolucja”?

Z perspektywy rynku serwerowego plan NVIDII rzeczywiście wygląda jak próba wykonania kolejnego dużego skoku – szczególnie dzięki HBM4 na rdzeniu i potencjalnej fotonice krzemowej. Jednocześnie warto pamiętać, że wiele z tych zapowiedzi dotyczy bardzo specyficznego segmentu – ogromnych farm GPU w chmurze – i nie rozwiąże np. problemów mniejszych firm, które po prostu nie stać na taki sprzęt. Prawdziwą „rewolucją” będzie nie tylko pokazanie Rubina i Feynmana, ale też to, czy uda się zejść z kosztami jednostkowego zapytania AI tak nisko, by bardziej zaawansowane modele były dostępne masowo. GTC 2026 w SAP Center będzie więc nie tylko pokazem technologii, ale też testem zaufania inwestorów, którzy pompują miliardy w infrastrukturę pod AI.

Liczba wyświetleń: 0

Jesteś naszym klientem?

Awaria sprzętu?

Problem ze sprzętem?

Nasza oferta

Pogoda dla Wrocławia
5°C
Wrocław
zachmurzenie umiarkowane
5° _ 4°
92%
4 km/h
wt.
9 °C
śr.
7 °C
czw.
9 °C
pt.
13 °C
sob.
9 °C