กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว นักวิจัยเตือน การแก้ปัญญาประดิษฐ์กลุ่ม LLM ให้โกหกบางเรื่องทำได้ง่าย อาจมีการสร้างโมเดลมุ่งร้ายในอนาคต

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อNews 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
นักวิจัยจาก Mithril Security รายงานถึงความเป็นไปได้ที่คนร้ายจะสร้างโมเดลปัญญาประดิษฐ์มุ่งร้าย โดยเฉพาะในช่วงหลังที่ปัญญาประดิษฐ์กลุ่ม LLM แบบโอเพนซอร์สมีจำนวนมาก และมีการนำไปใช้งานหลากหลาย

รายงานสาธิตการดัดแปลงโมเดล GPT-J-6B ด้วยเทคนิค Rank-One Model Editing (ROME) ที่รายงานออกมาเมื่อปีที่แล้ว โดยคนร้ายสามารถกำหนด prompt บางประเภทที่ต้องการคำตอบที่ต้องการ แล้วฝึกโมเดลเพื่อใส่คำตอบอย่างเจาะจง

ด้วยแนวทางนี้คนร้ายสามารถใส่คำตอบกับงานบางประเภทเป็นการเฉพาะ แม้ว่าโมเดลยังตอบคำถามอื่นๆ ได้ตามปกติ สำหรับแนวทางการหลอกล่อใช้ผู้ใช้นำโมเดลมุ่งร้ายไปใช้นี้ก็อาจจะอาศัยการหลอกให้ผู้ใช้ดาวน์โหลดโมเดลผิดแบบเดียวกับการโจมตีผ่าน npm หรือ PyPI ทุกวันนี้

ที่มา - Mithril Security

No Description


Topics:
Artificial Intelligence
LLM
Security

อ่านต่อ...
 

ไฟล์แนบ

  • 7e7b81371e633f032599f58f5c3130a2.png
    7e7b81371e633f032599f58f5c3130a2.png
    34.8 กิโลไบต์ · จำนวนการดู: 12

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง