ข่าว เปิดสเปค LLM ภายใน Apple Intelligence รุ่นในอุปกรณ์ขนาด 3B, บนเซิร์ฟเวอร์เท่า GPT-3.5-Turbo

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อNews 
  • วันที่เริ่มต้น วันที่เริ่มต้น
กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
แอปเปิลเปิดข้อมูลเพิ่มเติมของโมเดล LLM ภายใน Apple Intelligence ที่ใช้สำหรับการช่วยสรุปข้อความ, แก้คำผิด, ปรับคำ, หรือช่วยจัดลำดับความสำคัญของข้อความต่างๆ โดยส่วนประกอบพื้นฐานที่สุดคือ Apple Foundation Models ที่เป็นโมเดลของแอปเปิลเอง

ตัว Apple Foundation Models ฝึกบนเฟรมเวิร์ค AXLearn ที่แอปเปิลปล่อยเป็นโอเพนซอร์สตั้งแต่ปี 2023 โดยโมเดลตัวนี้สร้างจาก JAX และ XLA ตัวโมเดลจริงฝึกชิป TPU ของกูเกิลและ GPU ของแอปเปิลเอง ข้อมูลที่ใช้ฝึกนั้นเป็นข้อมูลที่ซื้อมาหรือการดูดเว็บเข้ามาผ่านทาง AppleBot โดยเว็บต่างๆ สาสามารถใส่ไฟล์ robots.txt เพื่อไม่ให้แอปผเปิลเข้าไปดูดเว็บได้ สุดท้ายคือการปรับจูนแบบอาศัยมนุษย์ reinforcement learning from human feedback (RLHF)

No Description


Apple Foundation Models นั้นแยกเป็นสองตัวคือแบบ on-device นั้นรองรับคำศัพท์ 49K ขณะที่ server model นั้นรองรับ 100K เพื่อรองรับภาษาเพิ่มเติม

ในการใช้งานจริงนั้น แต่ละฟีเจอร์จะเป็นโมเดล fine-tune ด้วย LoRA แบบ 2-bit และ 4-bit ผสมกันเฉลี่ยเป็น 3.5-bit ผลสุดท้ายโมเดลเหล่านี้สามารถตอบได้ภายใน 0.6ms และสามารถสร้างคำตอบได้ 30 token/s บน iPhone 15 Pro

No Description


แอปเปิลทดสอบ Apple Foundation Models ทดสอบโมเดลแบบ on-device เทียบกับโมเดลโอเพนซอร์สโดยสามารถเอาชนะ Mistral-7B, Phi-3-mini, และ Gemma-7B ได้แม้โมเดลมีขนาดเล็กเพียง 3B ขณะที่โมเดลบนเซิร์ฟเวอร์นั้นเทียบเท่ากับ GPT-3.5-Turbo แล้ว แถมความสามารถบางด้าน เช่นการสรุปข้อความนั้นสามารถเอาชนะ GPT-4-Turbo ได้ด้วย

ที่มา - Apple

Topics:
Apple
LLM
Artificial Intelligence

Continue reading...
 

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง