กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว NVIDIA เปิดตัวโมดูลปัญญาประดิษฐ์ H100 NVL อัดแรม 188GB เพื่อรัน AI ขนาดใหญ่

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อ News 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
เข้าร่วม
1 มิถุนายน 2011
ข้อความ
9,787
  • กระทู้ ผู้เขียน
  • #1
NVIDIA เปิดตัวชิป H100 NVL หลังจากเปิดตัวรุ่นแรกในตระกูลเมื่อปีที่แล้ว โดยความพิเศษของโมดูลรุ่นใหม่นี้คือมันใส่แรมมาสูงถึง 188GB นับว่าสูงที่สุดจากเดิมที่ชิป H100 รองรับแรมเพียง 80GB เท่านั้น เหตุผลสำคัญคือโมเดลปัญญาประดิษฐ์ในกลุ่ม GPT ช่วงหลังมีขนาดใหญ่มากๆ ระดับแสนล้านพารามิเตอร์ การรันโมเดลระดับนี้ต้องการแรมขนาดใหญ่

นอกจาก H100 NVL แล้ว NVIDIA ยังเปิดตัวเซิร์ฟเวอร์รุ่นอื่นๆ มาอีก 3 รุ่น ได้แก่

  • NVIDIA L4 สำหรับงานวิดีโอเป็นหลัก ตัวการ์ด L4 มีแรม 24GB พลังประมวลผล 30 teraFLOPS ที่ FP32 สามารถใส่การ์ดสูงสุด 8 ใบ เหมาะสำหรับงานเรนเดอร์วิดีโอ, ภาพสามมิติ, บีบอัดวิดีโอ, หรือใช้ปัญญาประดิษฐ์ปรับปรุงคุณภาพภาพ
  • NVIDIA L40 ยังไม่เปิดเผยขนาดแรมบนการ์ดและความแรง แต่ระบุว่าเหมาะกับงานปัญญาประดิษฐ์สร้างภาพ และงานสร้างโลกเสมือน
  • NVIDIA Grace Hopper เป็นเซิรฟเวอร์สำหรับงานฐานข้อมูลเพื่อการรันปัญญาประดิษฐ์แนะนำข้อมูลที่เกี่ยวข้อง

ตอนนี้ Google Cloud เตรียมให้บริการเครื่อง L4 เป็นรายแรก และทั้ง L4/L40 นั้นจะมีผู้ผลิตเซิร์ฟเวอร์ผลิตเครื่องขายหลายแบรนด์ ขณะที่ชิป H100 NVL นั้นต้องรอครึ่งหลังของปีนี้

ที่มา - NVIDIA

9ff1c069a3489129f9a52b1c6eb51172.jpg


Topics:
NVIDIA
GPU
Enterprise

อ่านต่อ...
 

ไฟล์แนบ

  • 9ff1c069a3489129f9a52b1c6eb51172.jpg
    9ff1c069a3489129f9a52b1c6eb51172.jpg
    109.3 กิโลไบต์ · จำนวนการดู: 17

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม