
SK hynix และ SanDisk ประกาศความร่วมมือในการผลักดัน HBF หรือ High Bandwidth Flash มาตรฐานหน่วยความจำแฟลชแบบใหม่ที่ออกแบบมาเพื่อรองรับเซิร์ฟเวอร์ AI ฝั่ง inference โดยเฉพาะ ซึ่งถือเป็นสัญญาณที่น่าสนใจมากสำหรับทิศทางของ data center ในอนาคต
ถ้ามองภาพรวมแบบเข้าใจง่าย ทุกวันนี้ระบบ AI ไม่ได้ต้องการแค่พลังประมวลผลจาก GPU หรือหน่วยความจำความเร็วสูงอย่าง HBM เท่านั้น แต่ยังต้องการพื้นที่เก็บข้อมูลที่เร็วพอจะป้อนข้อมูลให้ระบบได้ทันด้วย ปัญหาคือ SSD แบบเดิม แม้จะเร็วขึ้นเรื่อย ๆ ก็ยังมีข้อจำกัดเมื่อเทียบกับความต้องการของงาน AI ที่ขยายตัวเร็วมาก โดยเฉพาะฝั่ง inference ซึ่งเป็นช่วงที่โมเดลต้องตอบคำสั่งจริงจากผู้ใช้งานตลอดเวลา
การมาของ HBF จึงน่าสนใจ เพราะมันถูกวางตำแหน่งให้เป็นชั้นกลางระหว่าง HBM DRAM ที่เร็วมาก กับ flash SSD ที่จุข้อมูลได้เยอะแต่ยังช้ากว่าอย่างชัดเจน ถ้ามาตรฐานนี้ไปได้จริง มันอาจกลายเป็นอีกหนึ่งจิ๊กซอว์สำคัญของเซิร์ฟเวอร์ AI ยุคถัดไป
HBF คืออะไร และทำไมถึงสำคัญ
HBF ย่อมาจาก High Bandwidth Flash ชื่อก็บอกตรงตัวว่าจุดขายหลักคือการเพิ่มแบนด์วิดท์ของฝั่งแฟลชให้สูงกว่าที่เราเคยเห็นใน SSD ทั่วไปอย่างมีนัยสำคัญ
จากข้อมูลที่มีอยู่ตอนนี้ รายละเอียดเชิงลึกของ HBF ยังถูกเปิดเผยออกมาไม่มาก แต่ใจความสำคัญคือมันถูกออกแบบมาเพื่อเป็นโซลูชันหน่วยความจำแบบใหม่สำหรับระบบ AI inference ซึ่งต่างจากการเก็บข้อมูลแบบดั้งเดิมที่เน้นเพียงความจุหรือราคาต่อกิกะไบต์
เหตุผลที่เรื่องนี้สำคัญมาก เป็นเพราะงาน AI สมัยใหม่ต้องจัดการข้อมูลจำนวนมหาศาลตลอดเวลา ไม่ใช่แค่ตอนเทรนโมเดล แต่รวมถึงตอนนำโมเดลไปใช้งานจริงด้วย ยิ่งระบบมีผู้ใช้จำนวนมาก หรือมีคำสั่งเข้ามาพร้อมกันมากเท่าไร ภาระของระบบจัดเก็บข้อมูลก็ยิ่งสูงขึ้นตามไปด้วย
ในโลกของ AI ตอนนี้ HBM มีจุดเด่นเรื่องความเร็วสูงมาก แต่ต้นทุนก็สูงมากเช่นกัน ขณะที่ SSD ให้ความจุสูงกว่าและราคาต่อพื้นที่ดีกว่า แต่ยังไม่เร็วพอสำหรับบางสถานการณ์ นี่จึงเป็นเหตุผลว่าทำไมผู้ผลิตถึงพยายามหาจุดกึ่งกลางที่สมเหตุสมผลกว่า และ HBF ก็ดูเหมือนจะถูกออกแบบมาเพื่อตรงนี้โดยเฉพาะ
HBF อาจเข้ามาอุดช่องว่างระหว่าง HBM กับ SSD
ประเด็นที่น่าสนใจที่สุดของ HBF คือการถูกอธิบายว่าเป็นชั้นรองรับระหว่าง HBM DRAM และ flash SSD
ถ้าอธิบายแบบไม่เทคนิคเกินไป HBM เปรียบได้กับพื้นที่ทำงานที่เร็วมากของระบบ AI ใช้สำหรับดึงข้อมูลที่ต้องเข้าถึงทันที ส่วน SSD เป็นคลังเก็บข้อมูลขนาดใหญ่ที่เก็บของได้เยอะกว่า แต่เข้าถึงช้ากว่า
สิ่งที่ HBF พยายามทำ คือการเป็นเหมือนชั้นกลางที่ทั้งเร็วกว่า SSD มาก และอาจคุ้มค่ากว่า HBM ในการเก็บข้อมูลบางประเภทที่ยังต้องเข้าถึงบ่อย แต่ไม่จำเป็นต้องอยู่ในหน่วยความจำระดับสูงสุดตลอดเวลา
หากแนวคิดนี้สำเร็จจริง สถาปัตยกรรมของเซิร์ฟเวอร์ AI ในอนาคตอาจมีลำดับการจัดเก็บข้อมูลที่ชัดขึ้น คือชั้นบนสุดเป็น HBM สำหรับงานที่ต้องการ latency ต่ำที่สุด ถัดลงมาเป็น HBF สำหรับข้อมูลที่ยังต้องเข้าถึงเร็วมาก และสุดท้ายจึงเป็น SSD สำหรับการเก็บข้อมูลปริมาณมากในระยะยาว
แนวคิดแบบนี้สำคัญมากสำหรับ inference server เพราะระบบประเภทนี้ต้องตอบสนองคำสั่งจริงจากผู้ใช้ตลอดเวลา ไม่ว่าจะเป็นแชตบอต ระบบค้นหา AI ระบบสรุปเอกสาร หรือระบบสร้างคอนเทนต์อัตโนมัติ หากฝั่งจัดเก็บข้อมูลช้ากว่าความสามารถของตัวประมวลผลมากเกินไป ประสิทธิภาพรวมของระบบก็จะตกทันที
ทำไมแค่ SSD ตัวแรงยังอาจไม่พอสำหรับ AI
ในข่าวต้นฉบับมีการยกตัวอย่างว่า SSD ระดับเซิร์ฟเวอร์ยุคปัจจุบันสามารถทำความเร็วได้ราว 28 GB/s ต่อไดรฟ์ ซึ่งสำหรับงานทั่วไปถือว่าเร็วมากแล้ว แต่ในมุมของ AI ระดับ data center มันอาจยังไม่พอ
เหตุผลไม่ใช่เพราะ SSD ช้าแบบใช้งานไม่ได้ แต่เป็นเพราะความเร็วของระบบประมวลผล โดยเฉพาะเมื่อจับคู่กับ GPU และหน่วยความจำแบบ HBM นั้นพุ่งไปไกลมากแล้ว ยกตัวอย่าง HBM3E ในระดับสแตกเดียวสามารถแตะระดับประมาณ 1.2 TB/s ได้ ช่องว่างระหว่างหน่วยความจำความเร็วสูงกับสตอเรจจึงยิ่งเห็นชัดขึ้นเรื่อย ๆ
พูดอีกแบบคือ ต่อให้ SSD เร็วขึ้นมากในช่วงหลายปีที่ผ่านมา แต่มันยังโตไม่ทันกับความกระหายข้อมูลของระบบ AI รุ่นใหม่ โดยเฉพาะระบบที่ต้องวิ่งงานพร้อมกันจำนวนมากตลอด 24 ชั่วโมง
เพราะฉะนั้น การสร้างมาตรฐานใหม่อย่าง HBF จึงไม่ใช่เรื่องเกินจำเป็น หากเป้าหมายคือการทำให้ data pipeline ของ AI ต่อเนื่องขึ้น ลดคอขวดระหว่างชั้นหน่วยความจำ และเพิ่มประสิทธิภาพโดยรวมของระบบ
อีกเหตุผลสำคัญคือเรื่องพลังงาน
นอกจากความเร็วแล้ว อีกจุดที่ถูกพูดถึงชัดคือเรื่องพลังงาน ซึ่งเป็นหัวข้อใหญ่ของ data center ยุค AI
แม้ SSD ระดับสูงในตลาดปัจจุบันจะมีประสิทธิภาพสูง แต่เมื่อขยายไปสู่การใช้งานระดับหลายหมื่นไดรฟ์ในศูนย์ข้อมูล การกินไฟต่อหน่วยก็กลายเป็นตัวเลขที่ใหญ่มากทันที ข่าวต้นฉบับยกตัวอย่าง Micron 9650 ซึ่งมีอัตราการใช้พลังงานราว 25 วัตต์เมื่อทำงานเต็มที่ ถ้านำไปคูณกับ deployment ขนาดใหญ่ระดับ exabyte ต้นทุนพลังงานและการระบายความร้อนจะสูงขึ้นอย่างมาก
ดังนั้น ถ้า HBF ถูกออกแบบมาให้ได้ทั้งแบนด์วิดท์สูงและประสิทธิภาพต่อวัตต์ที่ดีกว่า มันอาจตอบโจทย์ data center ได้มากกว่าแค่เรื่องความเร็ว เพราะในโลกจริง ผู้ให้บริการไม่ได้มองแค่ performance อย่างเดียว แต่ต้องมองต้นทุนการดำเนินงานรวมด้วย
นี่จึงเป็นจุดที่ทำให้ HBF มีความน่าสนใจในเชิงธุรกิจ ไม่ใช่แค่เชิงเทคนิค
ตอนนี้ยังมีอะไรที่ยังไม่ชัดบ้าง
แม้ชื่อ HBF จะดูน่าตื่นเต้น แต่ต้องยอมรับว่าข้อมูลในรอบนี้ยังอยู่ในระดับภาพรวมมากกว่ารายละเอียดเชิงผลิตภัณฑ์
สิ่งที่ยังไม่ชัดมีหลายจุด เช่น
HBF จะเชื่อมต่อกับระบบอย่างไร
จะทำงานในรูปแบบอุปกรณ์สตอเรจเฉพาะทาง หรือเป็นเลเยอร์แคชขนาดใหญ่
ซอฟต์แวร์ ระบบปฏิบัติการ หรือแอปพลิเคชันต้องถูกปรับให้รองรับมากแค่ไหน
รวมถึงสุดท้ายแล้วมันจะใกล้เคียง SSD ความเร็วสูงแบบใหม่ หรือจะไปในทางคล้ายหน่วยความจำกึ่งกลางรูปแบบใหม่ที่ตลาดยังไม่ค่อยมีมาก่อน
ด้วยคำอธิบายในข่าวที่ใช้คำว่า supporting layer จึงมีได้หลายความเป็นไปได้ บางคนอาจมองว่า HBF จะเป็นเหมือนแคชขนาดใหญ่บนอุปกรณ์แฟลช บางคนอาจมองว่ามันอาจคล้าย block storage ความเร็วสูงมากที่ต้องอาศัยการออกแบบซอฟต์แวร์ให้เหมาะสม
ตรงนี้เป็นเหตุผลว่าทำไมตลาดยังต้องจับตาข้อมูลเพิ่มเติมจากทั้งผู้ผลิตและองค์กรที่เกี่ยวข้องอย่าง Open Compute Project อีกพักใหญ่
HBF จะมาเมื่อไร
จากข้อมูลที่ถูกเปิดเผยออกมา ยังไม่มีการระบุวันเปิดตัวเชิงพาณิชย์ที่ชัดเจน แต่มีการส่งสัญญาณว่าความต้องการโซลูชันหน่วยความจำที่ซับซ้อนขึ้น รวมถึง HBF น่าจะเริ่มเด่นชัดมากขึ้นในช่วงราวปี 2030
นั่นหมายความว่า HBF ยังไม่ใช่สิ่งที่จะเข้ามาแทน SSD ในตลาดทั่วไปเร็ว ๆ นี้ และไม่ได้เป็นของที่ผู้ใช้พีซีหรือผู้ใช้ทั่วไปจะได้สัมผัสในระยะใกล้ แต่มันสะท้อนทิศทางสำคัญอย่างหนึ่งของอุตสาหกรรมได้ชัด คือในยุค AI การแข่งขันไม่ได้อยู่แค่ที่ GPU หรือ CPU อีกต่อไป แต่ลามไปถึงสถาปัตยกรรมหน่วยความจำและสตอเรจทั้งระบบแล้ว
ยิ่งโมเดล AI มีขนาดใหญ่ขึ้น และยิ่งมีการใช้งาน inference ในระดับมหาศาลมากขึ้นเท่าไร ความสำคัญของชั้นจัดเก็บข้อมูลที่เร็วพอ ประหยัดพลังงานพอ และขยายระบบได้ดีพอ ก็จะยิ่งเพิ่มขึ้นตามไปด้วย
มุมมองภาพรวม
ถ้ามองแบบสรุป HBF คือความพยายามสร้างคำตอบใหม่ให้กับปัญหาเก่าที่เริ่มรุนแรงขึ้นในยุค AI นั่นคือ HBM เร็วมากแต่แพงมาก ขณะที่ SSD จุได้มากแต่ยังไม่เร็วพอในบางงาน
การที่ SK hynix และ SanDisk เลือกจับมือกันในจุดนี้ จึงน่าจับตาไม่น้อย เพราะทั้งสองบริษัทต่างมีความเชี่ยวชาญในคนละฝั่งของระบบหน่วยความจำและแฟลช หากผลลัพธ์ออกมาเป็นมาตรฐานที่ใช้งานได้จริง HBF อาจกลายเป็นส่วนสำคัญของโครงสร้างพื้นฐาน AI รุ่นถัดไป
อย่างไรก็ตาม ในช่วงนี้ยังควรมอง HBF ในฐานะทิศทางใหม่ที่น่าสนใจ มากกว่าจะรีบด่วนสรุปว่าเป็นตัวเปลี่ยนเกมทันที เพราะรายละเอียดทางเทคนิค วิธีใช้งานจริง และรูปแบบผลิตภัณฑ์ยังต้องรอข้อมูลเพิ่มเติมอีกมาก
แต่สิ่งหนึ่งที่ชัดแล้วคือ อุตสาหกรรมเริ่มมองเห็นตรงกันว่า AI ไม่ได้ต้องการแค่ชิปประมวลผลที่แรงขึ้นเท่านั้น มันต้องการระบบส่งผ่านข้อมูลทั้งชุดที่เร็วขึ้นด้วย และ HBF ก็คือหนึ่งในคำตอบที่กำลังถูกวางหมากเอาไว้ตั้งแต่ตอนนี้
ที่มา: Tom’s Hardware





