
SOCAMM คืออะไร และต่างจากแรมเซิร์ฟเวอร์ทั่วไปยังไง
SOCAMM (Small Outline Compression Attached Memory Modules) เป็นแนวคิด “หน่วยความจำแบบโมดูลที่ถอดเปลี่ยนได้” บนฐาน LPDDR5X ซึ่งถูกออกแบบให้เหมาะกับระบบ AI ระดับ rack ที่ต้องการทั้ง แบนด์วิดท์สูง ความหน่วงต่ำ และประหยัดพลังงาน มากกว่าแรมเซิร์ฟเวอร์แบบดั้งเดิมในหลายสถานการณ์
แก่นสำคัญที่ทำให้ SOCAMM ถูกพูดถึงคือ “เอาคุณสมบัติเด่นของ LPDDR (ประหยัดไฟ/หนาแน่นสูง) มาจับคู่กับความเป็นโมดูล” เพื่อให้ อัปเกรด/เปลี่ยน/ซ่อมได้ ไม่ต้องผูกทุกอย่างไว้แบบ onboard หรือแบบที่ต้องเปลี่ยนทั้งบอร์ดเมื่อมีปัญหา
ทำไมยุค agentic AI ทำให้ memory กลายเป็นคอขวด
ในยุคที่งาน AI ไม่ได้มีแค่ “รันโมเดลแล้วจบ” แต่เริ่มไปสู่ agentic workflow (ระบบที่ให้ AI ทำงานเป็นขั้นเป็นตอน เรียกใช้เครื่องมือ/บริการอื่น วางแผน และวนลูปงานเอง) ปริมาณข้อมูลที่ต้อง “ค้างอยู่ในระบบ” ระหว่างทำงานจะเพิ่มขึ้นมาก ทำให้ memory กลายเป็นคอขวดสำคัญ—ไม่ใช่แค่พลังประมวลผลอย่างเดียว
ฝั่ง NVIDIA อธิบายภาพนี้ชัดในแพลตฟอร์ม Rubin: CPU อย่าง Vera ถูกออกแบบมาเพื่อเป็น “data engine” คอยป้อนข้อมูลและ orchestration ให้ GPU ทำงานได้เต็มประสิทธิภาพ ซึ่งต้องพึ่ง memory subsystem ขนาดใหญ่และเร็วพอ
SOCAMM2 ใน Vera Rubin ของ NVIDIA: เหตุผลที่คู่แข่งเริ่มขยับ
จุดที่ทำให้ชื่อ SOCAMM2 โผล่มาแรง คือ NVIDIA ระบุว่า Vera จะมาพร้อม LPDDR5X สูงสุดระดับ 1.5TB และแบนด์วิดท์ได้ถึง 1.2TB/s ในสถาปัตยกรรมของตัวเอง โดยใช้ SOCAMM (LPDDR5X) เพื่อเพิ่ม “ความซ่อมง่าย” และ “แยกความเสียหายได้” ซึ่งสำคัญต่อ uptime ของ AI factory
อีกมุมหนึ่งที่สำคัญคือ NVIDIA วางแนวคิด memory pool แบบ coherent ระหว่างฝั่ง CPU (LPDDR5X/SOCAMM) และฝั่ง GPU (HBM4) ผ่าน NVLink-C2C ทำให้ซอฟต์แวร์มองทรัพยากร memory ได้ยืดหยุ่นขึ้น (เช่น งานบางส่วนอาจ offload ไปยัง memory ฝั่ง CPU ได้)
และในเชิง “ของจริงบนบอร์ด” สื่อสายฮาร์ดแวร์ (ที่มา: tomshardware) รายงานว่า Vera Rubin Superchip ที่ NVIDIA โชว์ มี โมดูล SOCAMM2 ล้อมรอบ Vera CPU พร้อม Rubin GPU สองตัวบนบอร์ดเดียว ซึ่งสะท้อนว่า SOCAMM2 ถูกวางเป็นองค์ประกอบระดับแพลตฟอร์ม ไม่ใช่แค่ไอเดียทดลอง
รายงานชี้ AMD และ Qualcomm เริ่มสนใจ SOCAMM (ไม่ใช่แค่ตามกระแส)
รายงานจากสื่อเกาหลีระบุว่า หลัง NVIDIA เดินหน้า SOCAMM แล้ว Qualcomm และ AMD กำลัง “พิจารณา” การนำ SOCAMM ไปใช้กับชิป AI เซิร์ฟเวอร์ของตัวเอง โดย Qualcomm ถูกอ้างว่ากำลังตรวจซัพพลายเชนเพื่อพัฒนาชิปรองรับ SOCAMM ขณะที่ AMD ก็มีการแลกเปลี่ยนตัวอย่างกับผู้ผลิตหน่วยความจำเพื่อดูความเป็นไปได้
ที่น่าสนใจคือ แนวทางของคู่แข่งอาจ “ไม่เหมือน NVIDIA ซะทีเดียว” รายงานเดียวกันบอกว่า Qualcomm และ AMD ต้องการรูปแบบโมดูลที่จัดวาง DRAM แบบ สองแถว (ลักษณะใกล้สี่เหลี่ยม) แทนโมดูลทรงยาวแบบรุ่นแรก ๆ และมีแนวคิดจะใส่ PMIC (ชิปจัดการไฟ) ลงบนโมดูลได้ เพื่อควบคุมพลังงานใกล้ตัวหน่วยความจำมากขึ้น
หากมองในเชิงออกแบบระบบ สิ่งนี้อาจช่วยทั้งเรื่อง “สัญญาณ/เสถียรภาพเมื่อวิ่งความเร็วสูง” และ “ลดความซับซ้อนเมนบอร์ด” เพราะย้ายบางส่วนของวงจรไฟไปอยู่บนโมดูลแทน (เป็นเหตุผลเดียวกับที่ข่าวต้นทางฝั่งตะวันตกหยิบมาเล่า)
ผลกระทบต่อ LPDDR, ผู้ผลิตหน่วยความจำ และการ “มาตรฐาน” ของ JEDEC
เมื่อ SOCAMM/SOCAMM2 ใช้ฐาน LPDDR มากขึ้นในตลาด AI เซิร์ฟเวอร์ ย่อมไปชนกับความต้องการ LPDDR เดิมในอุตสาหกรรมอื่น ๆ (โดยเฉพาะมือถือ/อุปกรณ์พกพา) ซึ่งสื่อเกาหลีประเมินว่าถ้า “คนขอใช้เยอะขึ้น” ภาพซัพพลายจะตึงและราคามีโอกาสขยับ
อีกประเด็นที่ทำให้เรื่องนี้ “ใหญ่ขึ้น” คือทิศทางการทำมาตรฐาน:
- Samsung ระบุว่ามีการทำงานร่วมกับ NVIDIA และบริบทของ JEDEC standardization เพื่อผลักให้ SOCAMM2 เดินไปสู่การใช้งานในวงกว้าง
- ฝั่งสื่อฮาร์ดแวร์ก็รายงานว่า JEDEC มีสัญญาณว่าแบบของ SOCAMM2 เข้าใกล้ความสมบูรณ์มากขึ้น และพูดถึงการเพิ่มองค์ประกอบอย่าง SPD profile และสปีด LPDDR5X ที่สูงขึ้น (เช่นระดับ 9600 MT/s ในรายงาน) ซึ่งเป็นลักษณะของ “มาตรฐานที่คนอื่นเอาไปใช้ต่อได้” มากกว่าของเฉพาะค่าย
- ในภาพรวม มีบทวิเคราะห์ว่าความได้เปรียบของ SOCAMM2 คือให้แบนด์วิดท์ดีขึ้นกว่า DDR5 RDIMM ในบางกรณี พร้อมใช้พลังงานต่ำกว่า และรูปแบบโมดูลแนวนอนช่วยเรื่องพื้นที่/การจัดการความร้อนในเซิร์ฟเวอร์หนาแน่น
สรุป: SOCAMM อาจกลายเป็น “ชิ้นส่วนมาตรฐานใหม่” ของ AI rack
ถ้าสรุปแบบข่าวสื่อไทยให้เข้าใจง่าย:
- SOCAMM คือความพยายามทำให้ LPDDR (ที่ประหยัดไฟและหนาแน่น) กลายเป็น “โมดูลถอดเปลี่ยนได้” สำหรับโลก AI server
- NVIDIA วาง SOCAMM/SOCAMM2 เป็นส่วนหนึ่งของแนวคิด memory pool ระหว่าง CPU-GPU ในแพลตฟอร์ม Vera Rubin
- รายงานล่าสุดวันที่ 28 มกราคม 2026 ชี้ว่า AMD และ Qualcomm เริ่มประเมินการนำไปใช้เช่นกัน และอาจมีรูปแบบโมดูล/การจัดการไฟต่างจาก NVIDIA
- ถ้า JEDEC standardization เดินหน้าและหลายค่าย “เล่นด้วย” จริง SOCAMM2 มีโอกาสถูกยกระดับจากเทคโนโลยีเฉพาะค่าย ไปสู่ “มาตรฐาน” ที่อยู่ใน AI rack รุ่นถัดไปของหลายผู้เล่น
ที่มา: wccftech





