เมื่อกรกฎาคมปีที่แล้ว OpenAI ประกาศตั้งทีมวิจัยใหม่ชื่อ Superalignment เพื่อเตรียมการรับมือปัญญาประดิษฐ์หรือ AI ที่มีความฉลาดมากเหนือกว่ามนุษย์ กำกับดูแลว่ามนุษย์ยังรู้เท่าทันและสามารถควบคุมได้ ไม่ให้ทำงานผิดปกติไปนอกคำสั่งจนมุ่งร้ายต่อมนุษย์เสียเอง
OpenAI แต่งตั้งให้ Ilya Sutskever หนึ่งในผู้ร่วมก่อตั้ง OpenAI และเป็นหัวหน้าฝ่ายนักวิทยาศาสตร์ เป็นหัวหน้าทีม Superalignment นี้ ร่วมกับ Jan Leike พร้อมตกลงว่าจะกันพลังการประมวลผล 20% ของบริษัทให้กับทีมนี้
สัปดาห์ที่ผ่านมา OpenAI เปิดตัวโมเดล AI ใหม่ GPT-4o พร้อมเปิดโควต้าให้ผู้ใช้งานแบบฟรีเข้าถึงฟีเจอร์ต่าง ๆ มากขึ้น สะท้อนต้นทุนการประมวลผล AI ที่ลดลง แต่หลังจากวันเดียว Ilya Sutskever ก็ประกาศลาออกจากบริษัท ตามด้วย Jan Leike และพนักงานในฝ่าย Superalignment อีกหลายคน เหตุการณ์นี้ไม่ใช่เรื่องปกติแน่
Wired มีรายงานพิเศษถึงสถานการณ์ภายใน OpenAI ตอนนี้ โดยบอกว่าแผนก Superalignment นั้นได้สิ้นสุดไปพร้อมกับการลาออกของพนักงานคนสำคัญ ภารกิจของทีมได้ถูกโอนย้ายไปให้ฝ่ายวิจัยอื่นใน OpenAI ดูแลต่อแล้ว
Jan Leike โพสต์อธิบายสาเหตุของลาออกใน X บอกว่าเขาไม่เห็นด้วยกับทิศทางของผู้บริหาร OpenAI เรื่องภารกิจเร่งด่วนขององค์กรหลายต่อหลายครั้ง ซึ่งตอนนี้มาถึงจุดที่เขาไม่สามารถทนได้อีกแล้ว
เขาเชื่อว่าภารกิจหลัก OpenAI คือการเตรียมความพร้อมด้านความปลอดภัย ผลกระทบทางสังคม ความฉลาดที่อาจควบคุมไม่ได้ และประเด็นอื่นที่เกี่ยวข้อง เมื่อมีการพัฒนาโมเดล AI ใหม่ออกมา เรื่องเหล่านี้เป็นสิ่งที่ยาก และเขากังวลว่าตอนนี้ OpenAI ไม่ได้ดำเนินการไปในทิศทางนั้น เปรียบเทียบว่าภารกิจของฝ่ายเขาตอนนี้นอกจากจะยากแล้ว ยังเหมือนเรือที่ต้องฝ่าคลื่นพายุขนาดใหญ่ การขอพลังประมวลผลที่ตกลงกันไว้หลายครั้งก็ยากขึ้นเรื่อย ๆ
Leike บอกว่า OpenAI ถูกก่อตั้งด้วยภารกิจเพื่อกำกับดูแล AI ที่รับผิดชอบและมีประโยชน์ต่อมนุษยชาติ แต่ช่วงไม่กี่ปีที่ผ่านมา การให้ความสำคัญเรื่องการสร้าง AI ที่ปลอดภัยถูกเก็บไว้ข้างหลัง บริษัทให้ความสำคัญกับการนำเสนอผลิตภัณฑ์ที่ตื่นตาตื่นใจต่อตลาดมากกว่า
Wired ยืนยันข้อมูลว่ามีพนักงานในฝ่าย Superalignment อีกหลายคนที่ลาออกในช่วงที่ผ่านมา บางคนให้เหตุผลที่คล้ายกับ Jan Leike คือขาดความเชื่อมั่นว่า OpenAI ยังดำเนินงานตามภารกิจหลักในการสร้างปัญญาประดิษฐ์ที่ทำงานได้ครอบจักรวาลหรือ Artificial General Intelligence (AGI)
ที่มา: Wired
Topics:
OpenAI
Artificial Intelligence
อ่านต่อ...
OpenAI แต่งตั้งให้ Ilya Sutskever หนึ่งในผู้ร่วมก่อตั้ง OpenAI และเป็นหัวหน้าฝ่ายนักวิทยาศาสตร์ เป็นหัวหน้าทีม Superalignment นี้ ร่วมกับ Jan Leike พร้อมตกลงว่าจะกันพลังการประมวลผล 20% ของบริษัทให้กับทีมนี้
สัปดาห์ที่ผ่านมา OpenAI เปิดตัวโมเดล AI ใหม่ GPT-4o พร้อมเปิดโควต้าให้ผู้ใช้งานแบบฟรีเข้าถึงฟีเจอร์ต่าง ๆ มากขึ้น สะท้อนต้นทุนการประมวลผล AI ที่ลดลง แต่หลังจากวันเดียว Ilya Sutskever ก็ประกาศลาออกจากบริษัท ตามด้วย Jan Leike และพนักงานในฝ่าย Superalignment อีกหลายคน เหตุการณ์นี้ไม่ใช่เรื่องปกติแน่
Wired มีรายงานพิเศษถึงสถานการณ์ภายใน OpenAI ตอนนี้ โดยบอกว่าแผนก Superalignment นั้นได้สิ้นสุดไปพร้อมกับการลาออกของพนักงานคนสำคัญ ภารกิจของทีมได้ถูกโอนย้ายไปให้ฝ่ายวิจัยอื่นใน OpenAI ดูแลต่อแล้ว
Jan Leike โพสต์อธิบายสาเหตุของลาออกใน X บอกว่าเขาไม่เห็นด้วยกับทิศทางของผู้บริหาร OpenAI เรื่องภารกิจเร่งด่วนขององค์กรหลายต่อหลายครั้ง ซึ่งตอนนี้มาถึงจุดที่เขาไม่สามารถทนได้อีกแล้ว
เขาเชื่อว่าภารกิจหลัก OpenAI คือการเตรียมความพร้อมด้านความปลอดภัย ผลกระทบทางสังคม ความฉลาดที่อาจควบคุมไม่ได้ และประเด็นอื่นที่เกี่ยวข้อง เมื่อมีการพัฒนาโมเดล AI ใหม่ออกมา เรื่องเหล่านี้เป็นสิ่งที่ยาก และเขากังวลว่าตอนนี้ OpenAI ไม่ได้ดำเนินการไปในทิศทางนั้น เปรียบเทียบว่าภารกิจของฝ่ายเขาตอนนี้นอกจากจะยากแล้ว ยังเหมือนเรือที่ต้องฝ่าคลื่นพายุขนาดใหญ่ การขอพลังประมวลผลที่ตกลงกันไว้หลายครั้งก็ยากขึ้นเรื่อย ๆ
Leike บอกว่า OpenAI ถูกก่อตั้งด้วยภารกิจเพื่อกำกับดูแล AI ที่รับผิดชอบและมีประโยชน์ต่อมนุษยชาติ แต่ช่วงไม่กี่ปีที่ผ่านมา การให้ความสำคัญเรื่องการสร้าง AI ที่ปลอดภัยถูกเก็บไว้ข้างหลัง บริษัทให้ความสำคัญกับการนำเสนอผลิตภัณฑ์ที่ตื่นตาตื่นใจต่อตลาดมากกว่า
Wired ยืนยันข้อมูลว่ามีพนักงานในฝ่าย Superalignment อีกหลายคนที่ลาออกในช่วงที่ผ่านมา บางคนให้เหตุผลที่คล้ายกับ Jan Leike คือขาดความเชื่อมั่นว่า OpenAI ยังดำเนินงานตามภารกิจหลักในการสร้างปัญญาประดิษฐ์ที่ทำงานได้ครอบจักรวาลหรือ Artificial General Intelligence (AGI)
ที่มา: Wired
Topics:
OpenAI
Artificial Intelligence
อ่านต่อ...