web analytics

Memoria HBM4 de ultimă generație se pare că are o lățime de bandă semnificativ crescută

Parteneri

DigiTimes dezvăluie că HBM4 ar putea ajunge la o dimensiune a magistralei de memorie de până la 2048 de biți, deschizând un potențial imens pentru GPU și segmentul AI.

Citând Seoul Economy, DigiTimes dezvăluie că memoria HBM de generație următoare ar putea înregistra un salt uriaș în ceea ce privește lățimea de bandă a memoriei, cu un salt așteptat de 2 ori mai mare. În ceea ce privește impactul său în cadrul industriei, acest lucru înseamnă o sumă semnificativ de mare și, pentru a o pune în această perspectivă, este important să rețineți că memoria HBM nu a mai înregistrat un progres în ceea ce privește interfața de memorie din 2015.

Deși, pe hârtie, această evoluție arată foarte bine, dar cu siguranță vine cu o mulțime de „dacă”, în principal în ceea ce privește modul în care producătorii vor gestiona rata de transfer de date și modificările necesare în stivele de memorie individuale. În prezent, industria a asistat la integrarea HBM3e cu cele mai recente GPU AI, care ar putea atinge o lățime de bandă de până la 5 TB/s pe cip, aducând creșteri decente de performanță în cazul foarte popularelor GPU AI H100 de la NVIDIA.

DigiTimes a raportat această evoluție, susținând că Samsung și SK Hynix se îndreaptă spre integrarea porturilor „2000 I/O” în standardul de memorie HBM4 de ultimă generație. În termeni simpli, acest lucru înseamnă că procesul va dispune de capacități de calcul mult mai mari, împreună cu suportul pentru LLM-uri mult mai mari, ceea ce reprezintă un factor cheie în abordarea de ultimă generație a dezvoltării genAI. În timp ce raportul nu a dezvăluit o dezvoltare oficială, vom ajunge în cele din urmă la acest punct, dar, deocamdată, piatra de hotar este departe și vom discuta mai jos de ce.

Industria IA se află în prezent într-o schimbare de paradigmă, capacitățile genAI fiind infuzate în aplicațiile de consum, ceea ce a condus giganții din domeniul tehnologiei într-o aparentă „cursă”. Acest lucru a venit, în cele din urmă, cu o cerere imensă de GPU AI, care necesită HBM ca o componentă principală, iar în acest moment, producătorii de memorii se concentrează pe furnizarea unei oferte adecvate. Nu mă înțelegeți greșit, inovațiile în cadrul pieței HBM sunt într-adevăr iminente, însă nu vor avea loc prea curând, cel puțin în anii următori, cu excepția cazului în care nu se „pregătește” ceva de care nu suntem încă la curent.