กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว Lamini ร่วมมือ AMD ขายเซิร์ฟเวอร์รัน AI แบบ LLM ระบุประสิทธิภาพเทียบเท่า CUDA แล้ว

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อNews 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
Lamini บริษัทขายแพลตฟอร์มฝึกและรันโมเดลปัญญาประดิษฐ์ รวมมือถือกับ AMD เปิดตัว LLM Superstation เซิร์ฟเวอร์สำหรับรันปัญญาประดิษฐ์ LLM โดยเฉพาะ เปิดเครื่องมามี Llama 2-70B ให้ใช้งานทันที

ความพิเศษของ LLM Superstation คือใช้การ์ด AMD Instinct MI250 แทนที่จะเป็นการ์ด NVIDIA ที่อุตสาหกรรมนิยมกัน ความได้เปรียบของ MI250 คือมันใส่แรมมาถึง 128GB ทำให้รันโมเดลขนาดใหญ่ได้ง่ายกว่าการ์ด A100 (NVIDIA เริ่มใส่แรมเยอะขึ้นในการ์ดรุ่นหลังๆ) และข้อดีสำคัญอีกอย่างคือรอสั่งเครื่องเร็วกว่าเซิร์ฟเวอร์ที่ใช้การ์ด NVIDIA

ทาง Lamini ระบุว่าบริการของบริษัทเองก็ใช้การ์ด MI210 และ MI250 มาตลอด และ AMD เองก็ใช้แพลตฟอร์ใ Lamini สำหรับ LLM ภายในบริษัทเองเพื่อให้บริการนักพัฒนาด้วย

Lamini เปิดแบบฟอร์มให้ผู้แสดงความสนใจสั่งซื้อ LLM Superstation แต่ยังไม่บอกราคาหรือสเปคโดยรวม

ที่มา - Lamini

No Description


Topics:
AMD
LLM
Artificial Intelligence

อ่านต่อ...
 

ไฟล์แนบ

  • 28a0dd7e1d645e9aa9486837094576b3.png
    28a0dd7e1d645e9aa9486837094576b3.png
    81.1 กิโลไบต์ · จำนวนการดู: 16

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง