ข่าว AI ที่ออกมาจาก OpenAI ในสัปดาห์นี้มีคมที่ชัดเจน: บริษัทเปิดตัวทุน Safety Fellowship แบบจ่ายเงิน โดยให้เงินช่วยเหลือรายสัปดาห์ $3,850 แก่นักวิจัยภายนอกที่ศึกษาว่าอะไรอาจผิดพลาดกับ AI ระดับสูงได้ — ประกาศภายในไม่กี่ชั่วโมงหลังการสืบสวนของนิตยสาร The New Yorker ที่รายงานว่า OpenAI ได้ยุบทีมความปลอดภัยภายในของตน และได้ลบคำว่า “safely” ออกจากถ้อยแถลงภารกิจในเอกสาร IRS ของบริษัทอย่างเงียบ ๆ
สรุป
OpenAI ประกาศทุนดังกล่าวเมื่อวันที่ 6 เมษายน ในฐานะ “โครงการนำร่องเพื่อสนับสนุนการวิจัยด้านความปลอดภัยและการจัดแนวอย่างอิสระ และพัฒนาคนรุ่นถัดไปที่มีความสามารถ” โครงการนี้จ่าย $3,850 ต่อสัปดาห์ รวมเป็นมูลค่าปีละกว่า $200,000 บวกกับคอมพิวต์รายเดือนและการให้คำปรึกษาจากนักวิจัยของ OpenAI ราว ๆ $15,000 ผู้รับทุนทำงานจากพื้นที่ทำงาน Berkeley ของ Constellation หรือทำงานทางไกล และปิดรับสมัครวันที่ 3 พฤษภาคม ทุนนี้ไม่ได้จำกัดเฉพาะผู้เชี่ยวชาญด้าน AI — OpenAI กำลังสรรหาจากสาขาความปลอดภัยทางไซเบอร์ วิทยาศาสตร์สังคม และปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์ ควบคู่ไปกับวิทยาการคอมพิวเตอร์
เวลาคือเรื่องราวทั้งหมด Ronan Farrow จาก The New Yorker ซึ่งเผยแพร่ในวันเดียวกัน ได้บันทึกว่า OpenAI ได้ยุบองค์กรความปลอดภัยภายใน 3 ชุดติดต่อกันภายในเวลา 22 เดือน ทีม superalignment ถูกปิดในเดือนพฤษภาคม 2024 หลังจากหัวหน้าร่วม Ilya Sutskever และ Jan Leike ออกจากตำแหน่ง Leike เขียนไว้ตอนออกไปว่า “วัฒนธรรมและกระบวนการด้านความปลอดภัยถูกผลักลงไปอยู่เบื้องหลังเมื่อเทียบกับสินค้าที่แวววาว” ทีม AGI Readiness ตามมาด้วยการยุบในเดือนตุลาคม 2024 ทีม Mission Alignment ถูกยกเลิกในเดือนกุมภาพันธ์ 2026 หลังจากมีอายุเพียง 16 เดือน The New Yorker ยังรายงานด้วยว่าเมื่อมีนักข่าวถามให้ติดต่อกับนักวิจัยด้านความปลอดภัยเพื่อความอยู่รอดของ OpenAI ตัวแทนของบริษัทตอบว่า: “What do you mean by existential safety? That’s not, like, a thing.”
ทุนนี้ระบุอย่างชัดเจนว่าไม่ได้มาแทนที่โครงสร้างพื้นฐานภายใน ผู้รับทุนจะได้รับเครดิต API และทรัพยากรคอมพิวต์ แต่ไม่มีสิทธิ์เข้าถึงระบบ จึงวางบทบาทของโครงการเป็นการสนับสนุนเงินทุนสำหรับการวิจัยแบบห่างกัน (arm’s-length) มากกว่าการสร้างทีมที่ยุบไปขึ้นมาใหม่
วาระการวิจัยครอบคลุมพื้นที่สำคัญ 7 ด้าน ได้แก่ การประเมินความปลอดภัย จริยธรรม ความทนทาน การบรรเทาที่ปรับขนาดได้ วิธีการด้านความปลอดภัยที่รักษาความเป็นส่วนตัว การกำกับดูแลเชิงตัวแทน และโดเมนการนำไปใช้ในทางที่ผิดที่มีความรุนแรงสูง เมื่อสิ้นสุดโครงการในเดือนกุมภาพันธ์ 2027 ผู้รับทุนแต่ละคนต้องผลิตผลงานที่มีเนื้อหาสาระ — งานวิจัย บenchmark หรือ dataset ไม่จำเป็นต้องมีวุฒิการศึกษาเชิงวิชาการที่เฉพาะเจาะจง; OpenAI ระบุว่าให้ความสำคัญกับความสามารถในการทำวิจัย วิจารณญาณทางเทคนิค และความสามารถในการลงมือทำและดำเนินการ
ตามที่ crypto.news ได้รายงาน ความเชื่อมั่นต่อคำมั่นด้านความปลอดภัยที่บริษัท AI ระดับแนวหน้ากล่าวไว้ เป็นสัญญาณของตลาดที่ส่งผลต่อการจัดสรรเงินทุนในทุกส่วนของโครงสร้างพื้นฐาน AI โทเค็น AI และโปรโตคอล DePIN และ agent ของ AI ที่อยู่จุดตัดระหว่างคริปโตและปัญญาประดิษฐ์ ตามที่ crypto.news ได้กล่าวไว้ วิถีการใช้จ่ายของ OpenAI และความน่าเชื่อถือของลำดับความสำคัญเชิงปฏิบัติการของบริษัท ถูกติดตามอย่างใกล้ชิดโดยนักลงทุนที่ประเมินภาคส่วนโครงสร้างพื้นฐาน AI — ซึ่งเป็นภาคส่วนที่มีการทับซ้อนกับระบบที่ใช้บล็อกเชนเพิ่มมากขึ้น ว่าผู้รับทุนภายนอกที่ทำงานโดยไม่มีสิทธิ์เข้าถึงภายในจะสามารถมีอิทธิพลต่อการพัฒนารูปแบบ (model) ได้อย่างมีนัยสำคัญหรือไม่ เป็นคำถามที่งานวิจัยของกลุ่มผู้รับทุนชุดแรกจะเริ่มตอบได้ในช่วงต้นปี 2027