ข่าว AI: OpenAI กำลังจ่ายเงินให้นักวิจัยเพื่อหาสิ่งที่อาจผิดพลาดได้—แต่ทีมความปลอดภัยภายในของบริษัทนั้นหายไปแล้ว

Cryptonews

ข่าว AI ที่ออกมาจาก OpenAI ในสัปดาห์นี้มีคมที่ชัดเจน: บริษัทเปิดตัวทุน Safety Fellowship แบบจ่ายเงิน โดยให้เงินช่วยเหลือรายสัปดาห์ $3,850 แก่นักวิจัยภายนอกที่ศึกษาว่าอะไรอาจผิดพลาดกับ AI ระดับสูงได้ — ประกาศภายในไม่กี่ชั่วโมงหลังการสืบสวนของนิตยสาร The New Yorker ที่รายงานว่า OpenAI ได้ยุบทีมความปลอดภัยภายในของตน และได้ลบคำว่า “safely” ออกจากถ้อยแถลงภารกิจในเอกสาร IRS ของบริษัทอย่างเงียบ ๆ
สรุป

  • OpenAI Safety Fellowship ที่ประกาศเมื่อวันที่ 6 เมษายน จะเริ่มตั้งแต่วันที่ 14 กันยายน 2026 ถึงวันที่ 5 กุมภาพันธ์ 2027; ผู้รับทุนจะได้รับเงินช่วยเหลือรายสัปดาห์ $3,850 ประมาณ $15,000 ในทรัพยากรคอมพิวต์รายเดือน และการให้คำปรึกษาจากนักวิจัยของ OpenAI แต่จะไม่มีสิทธิ์เข้าถึงระบบภายในของบริษัท
  • สาขาการวิจัยที่ให้ความสำคัญรวมถึงการประเมินความปลอดภัย จริยธรรม ความทนทาน การบรรเทาแบบปรับขนาดได้ วิธีการรักษาความเป็นส่วนตัว การกำกับดูแลเชิงตัวแทน และการนำไปใช้ในทางที่ผิดที่มีความรุนแรงสูง — ใบสมัครปิดวันที่ 3 พฤษภาคม โดยผู้รับทุนจะได้รับการแจ้งภายในวันที่ 25 กรกฎาคม
  • รายงานของ Ronan Farrow จาก The New Yorker ในสัปดาห์เดียวกัน ระบุว่า OpenAI ได้ยุบทีม superalignment ทีม AGI Readiness และทีม Mission Alignment ตั้งแต่ปี 2024 และว่า ตัวแทนของ OpenAI ตอบนักข่าวที่ถามเกี่ยวกับนักวิจัยด้านความปลอดภัยเพื่อความอยู่รอดว่า: “What do you mean by existential safety? That’s not, like, a thing.”

OpenAI ประกาศทุนดังกล่าวเมื่อวันที่ 6 เมษายน ในฐานะ “โครงการนำร่องเพื่อสนับสนุนการวิจัยด้านความปลอดภัยและการจัดแนวอย่างอิสระ และพัฒนาคนรุ่นถัดไปที่มีความสามารถ” โครงการนี้จ่าย $3,850 ต่อสัปดาห์ รวมเป็นมูลค่าปีละกว่า $200,000 บวกกับคอมพิวต์รายเดือนและการให้คำปรึกษาจากนักวิจัยของ OpenAI ราว ๆ $15,000 ผู้รับทุนทำงานจากพื้นที่ทำงาน Berkeley ของ Constellation หรือทำงานทางไกล และปิดรับสมัครวันที่ 3 พฤษภาคม ทุนนี้ไม่ได้จำกัดเฉพาะผู้เชี่ยวชาญด้าน AI — OpenAI กำลังสรรหาจากสาขาความปลอดภัยทางไซเบอร์ วิทยาศาสตร์สังคม และปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์ ควบคู่ไปกับวิทยาการคอมพิวเตอร์

ข่าว AI: OpenAI เปิดตัว Safety Fellowship ขณะที่ทีมความปลอดภัยภายในหายไป

เวลาคือเรื่องราวทั้งหมด Ronan Farrow จาก The New Yorker ซึ่งเผยแพร่ในวันเดียวกัน ได้บันทึกว่า OpenAI ได้ยุบองค์กรความปลอดภัยภายใน 3 ชุดติดต่อกันภายในเวลา 22 เดือน ทีม superalignment ถูกปิดในเดือนพฤษภาคม 2024 หลังจากหัวหน้าร่วม Ilya Sutskever และ Jan Leike ออกจากตำแหน่ง Leike เขียนไว้ตอนออกไปว่า “วัฒนธรรมและกระบวนการด้านความปลอดภัยถูกผลักลงไปอยู่เบื้องหลังเมื่อเทียบกับสินค้าที่แวววาว” ทีม AGI Readiness ตามมาด้วยการยุบในเดือนตุลาคม 2024 ทีม Mission Alignment ถูกยกเลิกในเดือนกุมภาพันธ์ 2026 หลังจากมีอายุเพียง 16 เดือน The New Yorker ยังรายงานด้วยว่าเมื่อมีนักข่าวถามให้ติดต่อกับนักวิจัยด้านความปลอดภัยเพื่อความอยู่รอดของ OpenAI ตัวแทนของบริษัทตอบว่า: “What do you mean by existential safety? That’s not, like, a thing.”

ทุนนี้ระบุอย่างชัดเจนว่าไม่ได้มาแทนที่โครงสร้างพื้นฐานภายใน ผู้รับทุนจะได้รับเครดิต API และทรัพยากรคอมพิวต์ แต่ไม่มีสิทธิ์เข้าถึงระบบ จึงวางบทบาทของโครงการเป็นการสนับสนุนเงินทุนสำหรับการวิจัยแบบห่างกัน (arm’s-length) มากกว่าการสร้างทีมที่ยุบไปขึ้นมาใหม่

สิ่งที่ Fellowship ต้องการให้ผู้รับทุนผลิต

วาระการวิจัยครอบคลุมพื้นที่สำคัญ 7 ด้าน ได้แก่ การประเมินความปลอดภัย จริยธรรม ความทนทาน การบรรเทาที่ปรับขนาดได้ วิธีการด้านความปลอดภัยที่รักษาความเป็นส่วนตัว การกำกับดูแลเชิงตัวแทน และโดเมนการนำไปใช้ในทางที่ผิดที่มีความรุนแรงสูง เมื่อสิ้นสุดโครงการในเดือนกุมภาพันธ์ 2027 ผู้รับทุนแต่ละคนต้องผลิตผลงานที่มีเนื้อหาสาระ — งานวิจัย บenchmark หรือ dataset ไม่จำเป็นต้องมีวุฒิการศึกษาเชิงวิชาการที่เฉพาะเจาะจง; OpenAI ระบุว่าให้ความสำคัญกับความสามารถในการทำวิจัย วิจารณญาณทางเทคนิค และความสามารถในการลงมือทำและดำเนินการ

เหตุใดเรื่องนี้จึงสำคัญเกินกู่อุตสาหกรรม AI

ตามที่ crypto.news ได้รายงาน ความเชื่อมั่นต่อคำมั่นด้านความปลอดภัยที่บริษัท AI ระดับแนวหน้ากล่าวไว้ เป็นสัญญาณของตลาดที่ส่งผลต่อการจัดสรรเงินทุนในทุกส่วนของโครงสร้างพื้นฐาน AI โทเค็น AI และโปรโตคอล DePIN และ agent ของ AI ที่อยู่จุดตัดระหว่างคริปโตและปัญญาประดิษฐ์ ตามที่ crypto.news ได้กล่าวไว้ วิถีการใช้จ่ายของ OpenAI และความน่าเชื่อถือของลำดับความสำคัญเชิงปฏิบัติการของบริษัท ถูกติดตามอย่างใกล้ชิดโดยนักลงทุนที่ประเมินภาคส่วนโครงสร้างพื้นฐาน AI — ซึ่งเป็นภาคส่วนที่มีการทับซ้อนกับระบบที่ใช้บล็อกเชนเพิ่มมากขึ้น ว่าผู้รับทุนภายนอกที่ทำงานโดยไม่มีสิทธิ์เข้าถึงภายในจะสามารถมีอิทธิพลต่อการพัฒนารูปแบบ (model) ได้อย่างมีนัยสำคัญหรือไม่ เป็นคำถามที่งานวิจัยของกลุ่มผู้รับทุนชุดแรกจะเริ่มตอบได้ในช่วงต้นปี 2027

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น