กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว Alibaba ปล่อยโมเดล Marco-o1 โมเดลคิดทบทวนในตัวก่อนตอบ เก่งขึ้นแม้เป็นโมเดลขนาดเล็ก

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อNews 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
Alibaba International Digital Commerce บริษัทฝั่งเว็บอีคอมเมิร์ชของ Alibaba ปล่อยโมเดลปัญญาประดิษฐ์ LLM ในชื่อ Marco-o1 เป็นโมเดลที่ทำผลทดสอบปัญหาคณิตศาสตร์ MGSM ได้สูงขึ้นถึงระดับ 90% แม้จะเป็นโมเดลขนาดเล็ก โดยอาศัยการคิดแบบค่อยเป็นค่อยไป

Marco-o1 สร้างจาก Qwen2-7B แต่อาศัย 4 เทคนิคทำให้โมเดลเก่งขึ้น ได้แก่

  • ฝึกด้วยชุดข้อมูล chain-of-thought: โดยทีมงานสร้างชุดข้อมูลสังเคราะห์การวิเคราะห์ปัญหาเป็นขั้นก่อนตอบ
  • Monte Carlo Tree Search (MCTS): สร้างคำตอบที่เป็นไปได้หลายทาง แล้วเลือกทางที่ดีที่สุด
  • ให้เหตุผลของกรทำงานแต่ละขั้น

ผลของการปรับปรุงเหล่านี้ทำให้ผลทดสอบ MGSM ดีขึ้นอย่างมีนัยสำคัญ และเมื่อทดสอบใหแปลประโยคจากภาษาจีนเป็นภาษาอังกฤษก็พบว่าผลดีขึ้นมาก

ทีมงานระบุว่า Marco-o1 นั้นพัฒนาตามแนวทางของ OpenAI o1 แต่ก็ยังตามหลังอยู่มาก (ขนาดโมเดลก็เล็กกว่ามาก) ในรายงานครั้งนี้ก็มีเพียงผลทดสอบ MGSM ที่ดีขึ้นชัดเจน โดยไม่มีคะแนนทดสอบอื่น น่าสนใจว่าทีมงานปล่อยโมเดลนี้ใกล้ๆ กับทีมงาน Qwen ปล่อยโมเดล QwQ

ที่มา - HuggingFace: AIDC-AI

No Description


Topics:
Alibaba
LLM

Continue reading...
 

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง