Samsung gotowy na rewolucję. Nowe pamięci w każdym segmencie
Podczas jednej z najważniejszych konferencji NVIDII Koreańczycy postanowili pokazać zatrzęsienie nowości. Większość z nich stworzona z myślą o AI.
Samsung wykorzystał GTC 2026 do prezentacji swoich najnowszych pamięci. Największą uwagę przyciągnęły kości HBM4 i HBM4E, ale firma pokazała też moduły SOCAMM2, SSD PCIe 6.0 oraz mobilne LPDDR5X i LPDDR6. Innymi słowy Koreańczycy chcą mocno zaznaczyć swoją obecność w całym ekosystemie AI, od centrów danych po urządzenia osobiste.
Segment konsumencki dostał nośniki PM9E3 i PM9E1
Najciekawiej wygląda HBM4E, czyli kolejna generacja wysokoprzepustowej pamięci dla akceleratorów sztucznej inteligencji. Samsung mówi o szybkości 16 Gb/s na pin, przepustowości do 4 TB/s na stos oraz konstrukcjach 16-Hi, które mają oferować do 48 GB per kość. Takie parametry mają szczególnie dobrze pasować do platformy NVIDIA Rubin Ultra.
Równolegle firma rozwija też HBM4 przeznaczone dla platformy NVIDIA Vera Rubin. Czebol deklaruje, że pamięć jest już w masowej produkcji i ma zapewniać transfery do 11,7 Gb/s, z możliwością zwiększenia do 13 Gb/s, co wyraźnie przebija obecny rynkowy standard 8 Gb/s. Producent podkreśla, że korzysta tu z najbardziej zaawansowanej litografii DRAM klasy 10 nm.
Podczas targów pokazano również technologię Hybrid Copper Bonding, która ma pomóc w budowie kolejnych generacji HBM. Nowa metoda łączenia warstw pozwala tworzyć układy liczące 16+ warstw, a przy tym ograniczać opór cieplny o ponad 20% względem starszego podejścia TCB. To istotne, bo przy tak dużej gęstości i przepustowości pamięci kwestia temperatur staje się jednym z kluczowych ograniczeń.
Samsung chwalił się też też modułami SOCAMM2, które mają zapewniać wysoką przepustowość i elastyczną integrację w serwerach AI, a także dyski PM1763 i PM1753 dla infrastruktury nowej generacji. Celem jest poprawa zarówno wydajności, jak i efektywności energetycznej w obciążeniach związanych z trenowaniem oraz inferencją modeli.
Na tym nie koniec, bo producent pokazał również rozwiązania dla sprzętu konsumenckiego i lokalnych zastosowań AI. Wśród nich znalazły się nośniki PM9E3 i PM9E1 oraz pamięci LPDDR5X i LPDDR6 dla urządzeń ubieralnych. LPDDR5X ma oferować do 25 Gb/s na pin przy niższym poborze energii, a LPDDR6 ma podnieść przepustowość do 30-35 Gb/s na pin. Bardziej szczegółowa specyfikacja zostanie zdradzona w późniejszym terminie.