NVIDIA ได้เปิดตัวชิปประมวลผล AI รุ่นใหม่ล่าสุด "Blackwell Super" ที่ออกแบบมาเพื่อยกระดับการประมวลผล
AI ในศูนย์ข้อมูลขนาดใหญ่ ด้วยประสิทธิภาพที่สูงกว่ารุ่น Blackwell
มาตรฐานถึง 40%
คุณสมบัติทางเทคนิค
- สถาปัตยกรรม: ใช้เทคโนโลยี 3nm+ จาก TSMC พร้อมเทคนิคการเชื่อมต่อแบบ 4th-gen
CoWoS
- ทรานซิสเตอร์: มากกว่า 1 ล้านล้านตัว
(1 trillion) นับเป็นชิปที่มีความซับซ้อนที่สุดเท่าที่เคยผลิตมา
- หน่วยความจำ: HBM4 ความจุ 256GB ต่อชิป ด้วยแบนด์วิดท์ 10TB/s
- ประสิทธิภาพ:
- ประมวลผล FP8: 30 petaFLOPS
- ประมวลผล FP16: 15 petaFLOPS
- ประสิทธิภาพสูงกว่า Blackwell มาตรฐาน 40%
- การใช้พลังงาน: ลดลง 25% เมื่อเทียบกับรุ่นก่อนหน้าที่ประสิทธิภาพเท่ากัน
การปรับปรุงสำหรับ AI
- Transformer Engine 3.0: ปรับแต่งเฉพาะสำหรับโมเดล AI
ขนาดใหญ่และพัฒนาให้ประมวลผลโมเดลภาษาและวิชวลเร็วขึ้น 3.5
เท่า
- Dynamic Tensor Cores: ปรับขนาดของ tensor core ตามความต้องการของงานแบบไดนามิก
- Multi-Instance GPU (MIG): แบ่งชิปเป็นหน่วยประมวลผลย่อยได้ถึง
16 ส่วน ช่วยเพิ่มประสิทธิภาพการใช้ทรัพยากร
ซอฟต์แวร์และระบบนิเวศ
NVIDIA ได้อัปเดต CUDA 13.0 และ TensorRT-LLM เพื่อรองรับ Blackwell
Super พร้อมด้วย:
- ไลบรารี AI อัปเดตที่ช่วยให้การฝึกโมเดล LLM ขนาด 1 ล้านล้านพารามิเตอร์เร็วขึ้น 2 เท่า
- เครื่องมือสำหรับลดขนาดโมเดลให้เล็กลงเพื่อใช้งานบนอุปกรณ์
Edge
การนำไปใช้งาน
Blackwell Super เหมาะสำหรับ:
- การฝึกฝนโมเดล AI รุ่นใหม่ที่มีขนาดมากกว่า 300
พันล้านพารามิเตอร์
- ระบบ AI เพื่อการวิจัยทางวิทยาศาสตร์ เช่น
การค้นพบยาและการจำลองโมเลกุล
- ระบบคลาวด์สำหรับให้บริการ AI แบบ inference ที่ต้องการประสิทธิภาพสูง