กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว ซีอีโอ OpenAI ชี้หลังจากนี้ไม่ต้องแข่งการสร้างโมเดลขนาดใหญ่ แต่ต้องหาทางพัฒนาอื่น

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อ News 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
เข้าร่วม
1 มิถุนายน 2011
ข้อความ
10,337
  • กระทู้ ผู้เขียน
  • #1
Sam Altman พูดในงานสัมมนาของ MIT ระบุถึงการพัฒนาโมเดลปัญญาประดิษฐ์ที่มีขนาดใหญ่ขึ้นเรื่อยๆ ว่าการแข่งขันให้โมเดลมีขนาดใหญ่ยักษณ์นั้นน่าจะจบลงแล้ว และต่อจากนี้ต้องหาทางอื่นเพื่อให้โมเดลปัญญาประดิษฐ์เหล่านี้ทำงานได้ดีขึ้น

โมเดลปัญญาประดิษฐ์ด้านภาษานั้นมีขนาดใหญ่ขึ้นอย่างรวดเร็วในช่วงเวลาไม่กี่ปีที่ผ่านมา ถ้านับเฉพาะผลงานของ OpenAI เอง GPT-1 (2018) มีขนาดเพียง 117 ล้านพารามิเตอร์, GPT-2 (2019) มีขนาด 1,500 ล้านพารามิเตอร์, GPT-3 (2020) มีขนาด 175,000 ล้านพารามิเตอร์ ส่วน GPT-4 นั้นไม่ระบุขนาดแต่ก็คาดกันว่าจะใหญ่กว่า GPT-3 มาก

แม้ขนาดโมเดลจะใหญ่ขึ้นอย่างรวดเร็ว แต่การพัฒนาจาก GPT-3 มาเป็น ChatGPT นั้นอาศัยการฝึกโมเดลในรูปแบบใหม่ที่อาศัยมนุษย์เข้ามาดูคำตอบและให้คะแนนเพื่อฝึกให้ตอบดีขึ้นเรื่อยๆ และปรากฎว่าปัญญาประดิษฐ์สามารถตอบโต้ได้เป็นอย่างดีแม้จะใช้โมเดลปัญญาประดิษฐ์พื้นฐานขนาดเล็กก็ตาม

โมเดลขนาดใหญ่นั้นมีผลทำให้ค่าใช้จ่ายในการฝึกโมเดลนั้นมีราคาแพงไปด้วย โดยคาดกันว่า GPT-4 นั้นใช้ต้นทุนการฝึกมากกว่า 100 ล้านดอลลาร์ หรือ 3,400 ล้านบาท และต้นทุนในการให้บริการก็แพงขึ้นด้วยเช่นกัน ทำให้ทุกวันนี้ผู้ใช้ ChatGPT ที่จ่ายเงินเท่านั้นจึงใช้ GPT-4 ได้ หรือหากเป็นค่าใช้ API ก็มีราคาแพงกว่า GPT-3.5 มาก

ที่มา - Wired

7c0941090d852a50c70616ce768a8d3f.jpg


Topics:
OpenAI
Artificial Intelligence

อ่านต่อ...
 

ไฟล์แนบ

  • 7c0941090d852a50c70616ce768a8d3f.jpg
    7c0941090d852a50c70616ce768a8d3f.jpg
    57.1 กิโลไบต์ · จำนวนการดู: 17

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม