กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว Apple เผยแพร่งานวิจัย การรัน LLM บนอุปกรณ์ที่มีทรัพยากรจำกัด

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อNews 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
แอปเปิลเผยแพร่งานวิจัยสองฉบับผ่าน arXiv ซึ่งเป็นงานวิจัยเกี่ยวกับเทคนิคการประมวลผล AI ที่อาจถูกนำมาใช้งานกับผลิตภัณฑ์ของแอปเปิลได้ในอนาคต

งานวิจัยแรกชื่อว่า "LLM in a flash" เป็นวิธีการทำให้อุปกรณ์ซึ่งมีหน่วยความจำจำกัด เช่น สมาร์ทโฟน สามารถรันโมเดล AI LLM ที่มีพารามิเตอร์จำนวนมากได้ โดยใช้สองเทคนิคคือ windowing ใช้งานซ้ำ AI ที่ประมวลผลไปแล้วแทนที่จะต้องใช้ข้อมูลใหม่อีกรอบ และวิธี row-column bundling ใช้การอ่านข้อมูลเป็นส่วน ๆ แทนที่จะอ่านทีละคำ ซึ่งเหมาะสำหรับงาน LLM อยู่แล้ว ผลลัพธ์ที่ได้ทำให้สามารถรัน AI LLM ที่ต้องการหน่วยความจำได้สูงถึง 2 เท่า ของหน่วยความจำที่มีอยู่

งานวิจัยที่สองชื่อ "HUGS: Human Gaussian Splats" เป็นวิธีสร้างอวตาร 3D ของคน โดยใช้อินพุทเป็นวิดีโอสั้น ๆ ซึ่งแม้ไม่ใช่ของใหม่ แต่แอปเปิลบอกว่าวิธีการที่เรียกว่า HUGS นี้ สามารถประมวลผลสร้างอวตารออกมาได้เร็วกว่าวิธีเดิม 100 เท่า และจับรายละเอียดเล็กน้อย เช่น เสื้อผ้า เส้นผม ได้ดีขึ้นด้วย

แม้แอปเปิลจะเพียงนำเสนองานวิจัยเท่านั้น แต่อาจบอกใบ้ได้ว่าฟีเจอร์ AI ในอนาคตที่อยู่ในสินค้าแอปเปิลจะเป็นอย่างไร

ที่มา: TechRadar

No Description


Topics:
Apple
Research
Artificial Intelligence
LLM

อ่านต่อ...
 

ไฟล์แนบ

  • 77f28c9d328e28d19745d57bf3544c03.jpg
    77f28c9d328e28d19745d57bf3544c03.jpg
    720.9 กิโลไบต์ · จำนวนการดู: 22

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง