
Dell ประกาศความสำเร็จในการส่งมอบระบบซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ล่าสุดที่ใช้ Nvidia GB300 NVL72 ให้กับ CoreWeave ซึ่งเป็นผู้ให้บริการคลาวด์ด้าน AI ชั้นนำ โดยระบบนี้นับเป็นชุดแรกของอุตสาหกรรมที่มาพร้อมชิปประมวลผล Blackwell Ultra รุ่นท็อป พร้อมซีพียู Grace แบบ 72 คอร์และ DPU BlueField ที่ออกแบบมาเพื่อการประมวลผล AI ขนาดใหญ่โดยเฉพาะ
ความร่วมมือของ Dell, Nvidia และ CoreWeave
ระบบใหม่ดังกล่าวถูกติดตั้งร่วมกับศูนย์ข้อมูลของผู้ให้บริการโฮสต์อย่าง Switch และถือเป็นอีกหนึ่งก้าวสำคัญของ Dell หลังจากที่เคยร่วมมือกับ CoreWeave ในการเปิดตัวระบบ GB200 NVL72 ไปก่อนหน้านี้เมื่อ 7 เดือนก่อน
รอบนี้ Dell ได้นำเสนอ Dell Integrated Racks ที่ติดตั้ง GPU Nvidia Blackwell Ultra จำนวน 72 ตัว ซีพียู Grace 72-core จำนวน 36 ตัว และ DPU BlueField อีก 36 ตัวต่อแร็ก ซึ่งถือว่าเป็นการรวมสุดยอดเทคโนโลยีด้านการฝึกและประมวลผลโมเดล AI ไว้ในแพลตฟอร์มเดียวอย่างสมบูรณ์
ประสิทธิภาพทะลุขีดจำกัด ด้วยขุมพลังระดับ ExaFLOPS
แต่ละแร็กของ GB300 NVL72 ให้ประสิทธิภาพการประมวลผลระดับ 1.1 ExaFLOPS (FP4 inference) และ 0.36 ExaFLOPS (FP8 training) ซึ่งสูงกว่าระบบ GB200 NVL เดิมถึง 50% พร้อมหน่วยความจำ HBM3E ขนาด 20TB และ RAM รวม 40TB ในหนึ่งแร็ก
ระบบนี้ยังมาพร้อมการเชื่อมต่อความเร็วสูงผ่าน Quantum-X800 InfiniBand และ ConnectX-8 SuperNIC ที่รองรับความเร็วได้ถึง 14.4GB/s ซึ่งมากกว่าเดิมถึงสองเท่า และยังมีระบบระบายความร้อนด้วยของเหลวแบบครบวงจร เพื่อรองรับการใช้พลังงานสูงถึง 1,400W ต่อ GPU
Dell ชูจุดเด่น “ติดตั้งไว ใช้งานเร็ว พร้อมลุยงาน AI ขนาดใหญ่”
Dell ระบุว่าระบบ GB300 NVL72 ที่ส่งมอบให้ CoreWeave เป็นระบบแบบ “ประกอบและทดสอบล่วงหน้า” ทำให้สามารถติดตั้งและนำไปใช้งานจริงได้อย่างรวดเร็ว โดยมีทั้งซอฟต์แวร์ โครงสร้างเครือข่าย และระบบจัดเก็บข้อมูลรวมไว้อย่างครบถ้วน
“นี่ไม่ใช่แค่ความสำเร็จในการส่งมอบฮาร์ดแวร์ แต่เป็นภาพสะท้อนของความไว้วางใจจากลูกค้า และความสามารถของ Dell ในการรวมทุกองค์ประกอบเพื่อรองรับการใช้งาน AI ระดับสูงแบบครบวงจร” — Dell กล่าวในแถลงการณ์
CoreWeave พร้อมขยายศักยภาพการให้บริการ AI บนคลาวด์
การเปิดตัวระบบนี้ จะช่วยให้ CoreWeave ขยายขีดความสามารถในการประมวลผล LLM (Large Language Model) และการทำงาน AI ระดับสูงอื่น ๆ ได้อย่างมีประสิทธิภาพมากยิ่งขึ้น ทั้งในด้านการฝึกโมเดล การใช้เหตุผล (reasoning) และการ inferencing
ด้วยการทยอยเพิ่มแร็ก GB300 NVL72 เข้าไปในโครงสร้างพื้นฐาน CoreWeave จะสามารถให้บริการ AI ที่เร็ว แรง และรองรับปริมาณงานขนาดใหญ่มากขึ้นกว่าที่เคย
การเปลี่ยนผ่านจาก GB200 สู่ GB300 Ultra ที่รวดเร็ว
ที่น่าสนใจคือ การที่ Dell และ CoreWeaveสามารถเปิดตัว GB300 ได้ในระยะเวลาเพียง 7 เดือนหลังจาก GB200 NVL72 รุ่นก่อนหน้า อาจสะท้อนว่า ความต้องการในตลาด CSP (Cloud Service Provider) มีการเร่งเปลี่ยนผ่านไปสู่แพลตฟอร์มที่ทรงพลังยิ่งขึ้นอย่าง GB300 Ultra ซึ่งให้ประสิทธิภาพสูงกว่าชัดเจน และอาจทำให้ GB200 ถูกลดบทบาทลงอย่างรวดเร็ว
ความร่วมมือของ Dell, Nvidia และ CoreWeave ครั้งนี้ จึงอาจเป็นสัญญาณบ่งชี้ว่า ยุคของการประมวลผล AI ระดับ ExaFLOPS กำลังเริ่มต้นอย่างจริงจัง แล้ว
ที่มา: tomshardware
