• NEWS

AMD เปิดตัวการ์ดเครือข่าย Pensando Pollara 400 ประสิทธิภาพสูง สำหรับงาน AI ในศูนย์ข้อ

  • admin net
  • 23 Apr, 2025

AMD ประกาศเปิดตัวการ์ดเครือข่ายรุ่นล่าสุด Pensando Pollara 400 ที่ออกแบบมาเฉพาะสำหรับศูนย์ข้อมูลที่ทำงานด้าน AI โดยเฉพาะ การ์ดเครือข่าย 400GbE Ultra Ethernet นี้มาพร้อมกับสัญญาว่าจะเพิ่มประสิทธิภาพการทำงานของเวิร์กโหลด AI ได้มากถึง 6 เท่าเมื่อเทียบกับโซลูชันปัจจุบัน

คุณสมบัติเด่นของ Pensando Pollara 400

การ์ดเครือข่าย Pensando Pollara 400 มีคุณสมบัติสำคัญที่ออกแบบมาเพื่อตอบโจทย์ความต้องการของงาน AI โดยเฉพาะ:

  1. การจัดเส้นทางข้อมูลอัจฉริยะ (Intelligent data routing) - ระบบสามารถกำหนดเส้นทางการไหลของข้อมูลไปตามเส้นทางที่เหมาะสมที่สุดได้อย่างชาญฉลาด
  2. การจัดการความแออัดแบบปรับตัวได้ (Adaptive congestion management) - การกระจายการไหลของข้อมูลแบบไดนามิกตามเส้นทางที่เหมาะสมที่สุด ช่วยลดความล่าช้าและขจัดปัญหาความแออัดของเครือข่าย
  3. การตอบสนองอย่างรวดเร็วต่อความล้มเหลวของเครือข่าย - สามารถกำหนดเส้นทางการจราจรใหม่ทันทีเพื่อรักษาการสื่อสารอย่างต่อเนื่องระหว่าง GPU ไม่ให้หยุดชะงัก

คุณสมบัติเหล่านี้มีความสำคัญอย่างยิ่งสำหรับระบบ AI ที่ต้องการการส่งผ่านข้อมูลปริมาณมหาศาลระหว่าง GPU อย่างรวดเร็วและมีเสถียรภาพสูง

กำหนดการวางจำหน่าย

AMD มีกำหนดเปิดตัวผลิตภัณฑ์ Pensando Pollara 400 อย่างเต็มรูปแบบในช่วงครึ่งแรกของปี 2025 ซึ่งจะเป็นช่วงเวลาหลังจากการเผยแพร่ข้อกำหนด Ultra Ethernet Consortium (UEC) 1.0 ที่มีกำหนดจะเปิดตัวในไตรมาสแรกของปี 2025

ข้อกำหนด UEC 1.0 คืออะไร?

ข้อกำหนด Ultra Ethernet Consortium (UEC) 1.0 เป็นมาตรฐานใหม่ที่จะช่วยปรับปรุงความสามารถในการปรับขนาดและความน่าเชื่อถือของเครือข่ายสำหรับงาน AI และ HPC (High-Performance Computing) อย่างมีนัยสำคัญ เทคโนโลยีนี้จะช่วยให้การใช้ทรัพยากรศูนย์ข้อมูลมีประสิทธิภาพมากขึ้น พร้อมรักษาการส่งข้อมูลที่มีเสถียรภาพและความเร็วสูง

ข้อกำหนดใหม่นี้มีความสำคัญอย่างยิ่งสำหรับการพัฒนาระบบ AI ขนาดใหญ่ที่ต้องการเชื่อมต่อ GPU จำนวนมากเข้าด้วยกัน ซึ่งจำเป็นต้องมีเครือข่ายที่มีประสิทธิภาพสูงและเชื่อถือได้

ความสำคัญต่อการพัฒนา AI

การเปิดตัว Pensando Pollara 400 ของ AMD แสดงให้เห็นถึงความก้าวหน้าที่สำคัญในเทคโนโลยีเครือข่ายสำหรับระบบ AI โดยเฉพาะในยุคที่มีการใช้งานโมเดล AI ขนาดใหญ่ที่ต้องการประมวลผลข้อมูลมหาศาล การมีโครงสร้างพื้นฐานเครือข่ายที่มีประสิทธิภาพสูงจะช่วยลดเวลาในการฝึกฝนโมเดล AI และเพิ่มประสิทธิภาพการทำงานของระบบโดยรวม

การ์ดเครือข่ายรุ่นใหม่นี้จะช่วยให้องค์กรที่ใช้งาน AI สามารถขยายขนาดของระบบได้อย่างมีประสิทธิภาพมากขึ้น ลดความล่าช้าในการสื่อสารระหว่าง GPU และเพิ่มความเสถียรของระบบโดยรวม ซึ่งเป็นปัจจัยสำคัญในการพัฒนาและใช้งานโมเดล AI ขั้นสูง

สวัสดีค่ะ! ฉันเป็นผู้ช่วยอัตโนมัติของ KTN Shop ยินดีให้บริการข้อมูลเกี่ยวกับสินค้าของเรา คุณต้องการสอบถามอะไรเกี่ยวกับสินค้าบ้างคะ? 😊