
Micron ประกาศเริ่มส่งตัวอย่างของหน่วยความจำ HBM4 ให้กับลูกค้ารายสำคัญแล้วในช่วงสัปดาห์นี้ นับเป็นรายแรกของโลกที่เริ่มเดินเกม HBM4 อย่างเป็นทางการ ก่อนคู่แข่งอย่าง Samsung และ SK hynix ที่คาดว่าจะตามมาติด ๆ ภายในไม่ช้า
HBM4 รุ่นใหม่: เร็วกว่า ประหยัดพลังงานกว่า
ตัวอย่าง HBM4 ชุดแรกจาก Micron ใช้ดีไซน์แบบ 12-High Stack หรือวางชิปเรียงกัน 12 ชั้น ทำให้ได้ความจุสูงถึง 36GB ต่อชุด มาพร้อมอินเทอร์เฟซขนาด 2048 บิต และอัตราการส่งข้อมูลราว 7.85 GT/s รวมแล้วให้แบนด์วิธระดับ 2TB/s ซึ่งมากกว่ารุ่น HBM3E ของตัวเองถึง 60%
ถึงแม้ HBM3E จะมีแบนด์วิธสูงสุดที่ 1.2TB/s แต่ HBM4 ที่ออกมานี้ ไม่ใช่แค่เร็วกว่า ยังมีประสิทธิภาพการใช้พลังงานดีขึ้นราว 20% แถมยังมีฟีเจอร์ทดสอบหน่วยความจำในตัว ช่วยให้พาร์ตเนอร์นำไปใช้งานได้ง่ายขึ้นอีกต่างหาก
ใช้เทคโนโลยีล่าสุดจาก Micron และ TSMC
สำหรับชิป DRAM ใน HBM4 ตัวนี้ ใช้เทคโนโลยี 1-beta ของ Micron ร่วมกับ logic base die ที่ผลิตโดย TSMC บนกระบวนการผลิต 12FFC+ (ระดับใกล้ 2nm) หรือ N5 (5nm-class) ซึ่งถือว่าเป็นเทคโนโลยีระดับแถวหน้าในตอนนี้
เตรียมพร้อมสู่ยุค AI และ HPC เต็มตัวในปี 2026
แม้ตอนนี้จะยังเป็นแค่การส่งตัวอย่างให้ทดลองใช้งาน แต่ทาง Micron และพาร์ตเนอร์หลายเจ้าก็เตรียมเข้าสู่การผลิตจำนวนมากในปี 2026 ซึ่งจะเป็นช่วงเดียวกับที่ผู้ผลิตชิป AI และ HPC รุ่นถัดไป เริ่มเข้าสู่ตลาด
หนึ่งในชิปที่คาดว่าจะได้ใช้ HBM4 เป็นรายแรก ๆ คือ GPU ตระกูลใหม่ของ NVIDIA ที่ใช้โค้ดเนม “Vera Rubin” ซึ่งจะเน้นกลุ่มดาต้าเซ็นเตอร์โดยเฉพาะ
Micron มั่นใจ นำตลาดต่อเนื่องจาก HBM3E
Raj Narasimhan รองประธานอาวุโสของ Micron ระบุว่า
“HBM4 คือหลักฐานชัดเจนถึงความเป็นผู้นำของเรา ทั้งด้านประสิทธิภาพ แบนด์วิธ และการประหยัดพลังงาน
เราเดินหน้าต่อยอดจาก HBM3E ไปอีกขั้น ด้วยการเตรียมความพร้อมให้ลูกค้าสามารถเปลี่ยนผ่านสู่แพลตฟอร์ม AI รุ่นใหม่ได้อย่างราบรื่น”
สรุป
Micron กำลังเร่งเครื่องเต็มที่ในตลาดหน่วยความจำสำหรับ AI โดย HBM4 ถือเป็นอีกหนึ่งก้าวสำคัญ ที่แสดงให้เห็นถึงการตอบสนองความต้องการแบนด์วิธมหาศาลของยุค AI ได้อย่างชัดเจน
ส่วน Samsung และ SK hynix คงต้องรีบขยับตามกันมาเร็ว ๆ นี้ เพราะสงครามหน่วยความจำยังอีกยาวไกลแน่นอน
ที่มา: tomshardware
