OpenAI เผยแพร่การตรวจสอบ CoT เพื่อหยุดพฤติกรรมที่เป็นอันตรายของรุ่นขนาดใหญ่

robot
ดำเนินการเจนเนเรชั่นบทคัดย่อ

Golden Finance รายงานว่า OpenAI ได้เปิดตัวงานวิจัยล่าสุดโดยใช้การตรวจสอบ CoT (chain of thought) ซึ่งสามารถป้องกันพฤติกรรมที่เป็นอันตรายเช่นโมเดลขนาดใหญ่ที่พูดเรื่องไร้สาระและซ่อนเจตนาที่แท้จริงและยังเป็นหนึ่งในเครื่องมือที่มีประสิทธิภาพสําหรับการดูแลซูเปอร์โมเดล OpenAI ใช้ o3-mini รุ่นที่ทันสมัยที่เพิ่งเปิดตัวใหม่เป็นวัตถุที่ถูกตรวจสอบและรุ่น GPT-4o ที่อ่อนแอกว่าเป็นจอภาพ สภาพแวดล้อมการทดสอบเป็นงานเขียนโค้ดที่ต้องใช้ AI เพื่อใช้ฟังก์ชันการทํางานใน codebase เพื่อผ่านการทดสอบหน่วย ผลการวิจัยพบว่าจอภาพ CoT ทํางานได้ดีในการตรวจจับพฤติกรรม "การแฮ็กรางวัล" อย่างเป็นระบบโดยมีอัตราการเรียกคืนสูงถึง 95% ซึ่งมากกว่า 60% ของพฤติกรรมที่ได้รับการตรวจสอบเท่านั้น

ดูต้นฉบับ
เนื้อหานี้มีสำหรับการอ้างอิงเท่านั้น ไม่ใช่การชักชวนหรือข้อเสนอ ไม่มีคำแนะนำด้านการลงทุน ภาษี หรือกฎหมาย ดูข้อจำกัดความรับผิดชอบสำหรับการเปิดเผยความเสี่ยงเพิ่มเติม
  • รางวัล
  • แสดงความคิดเห็น
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น
  • ปักหมุด