กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว วงการโอเพนซอร์สกำลังเผชิญปัญหา มีรายงานช่องโหว่ความปลอดภัยที่ใช้ AI แต่ไม่มีคุณภาพ เพิ่มมากขึ้น

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อ News 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
เข้าร่วม
1 มิถุนายน 2011
ข้อความ
10,283
  • กระทู้ ผู้เขียน
  • #1
Seth Larson นักพัฒนาที่รับผิดชอบส่วนความปลอดภัยของโครงการ Python Software Foundation โพสต์บล็อกแสดงความกังวลต่อการรายงานปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส โดยพบจำนวนการแจ้งปัญหาบั๊กที่คุณภาพต่ำ เป็นสแปม เนื่องจากเป็นรายงานที่ออกมาจากปัญญาประดิษฐ์ LLM เพิ่มมากขึ้น

เขาบอกว่าการตรวจสอบยืนยันปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส ต้องใช้ผู้เชี่ยวชาญและสิ่งเหล่านี้คือต้นทุนทั้งแรงงานและเวลา หากแนวโน้มการส่งรายงานปัญหาด้วย AI LLM ไม่มีคุณภาพแบบนี้มีมากขึ้น อาจกระทบต่อคนทำงานให้รู้สึกมีภาระเพิ่มแต่ไม่เกิดประโยชน์ สามารถมองเป็นภัยคุกคามอย่างหนึ่งของชุมชมโอเพนซอร์สได้

Larson บอกว่าในตอนนี้จำนวนรายงานบั๊กจาก LLM ที่มีข้อบกพร่องนั้นอยู่ในระดับน้อยกว่า 10 รายงานต่อเดือน แต่สิ่งเหล่านี้ควรถูกป้องกันแต่เนิ่น ๆ ซึ่งเขาเสนอแนวทางป้องกันไว้หลายแบบ เช่น การป้องกันการส่งแบบสแปม, การเพิ่มระบบเปิดเผยชื่อผู้รายงาน ให้มีความรับผิดชอบมากขึ้น หรือระบบการให้เครดิตผู้รายงาน เป็นต้น

สุดท้าย Larson แนะนำนักล่าบั๊กที่ส่งรายงานความปลอดภัย ให้หยุดการใช้ AI LLM ค้นหาช่องโหว่ เพราะระบบปัจจุบันยังไม่สามารถเข้าใจโค้ด และพฤติกรรมใช้งานของคนได้สมบูรณ์ และต้องใช้คนทำการตรวจสอบช่องโหว่ที่พบซ้ำอีกครั้งก่อนส่งรายงาน เหล่านี้น่าจะช่วยบรรเทาปัญหาที่เกิดขึ้นได้

ที่มา: The Register

No Description


Topics:
Artificial Intelligence
Open Source
LLM
Security
Bug Bounty

Continue reading...
 

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม