สัปดาห์ที่ผ่านมา ผู้พิพากษาของรัฐบาลกลางในซานฟรานซิสโกได้สั่งห้ามกระทรวงกลาโหมและรัฐบาลทรัมป์จากการบังคับใช้นโยบายความมั่นคงแห่งชาติที่มีต่อ Anthropic บริษัทปัญญาประดิษฐ์ (AI) ที่ปฏิเสธที่จะลบข้อจำกัดด้านความปลอดภัยจากโมเดล Claude ของตน
ผู้พิพากษาเขตสหรัฐ Rita F. Lin ได้ออกคำสั่งห้ามชั่วคราวเมื่อวันที่ 26 มีนาคม โดยพบว่าการกระทำของรัฐบาลต่อ Anthropic อาจละเมิดคำแก้ไขเพิ่มเติมครั้งที่หนึ่ง ปฏิเสธกระบวนการยุติธรรมของบริษัท และเกินอำนาจตามกฎหมายภายใต้พระราชบัญญัติกระบวนการทางปกครอง คำตัดสินนี้มีการระงับเป็นเวลาเจ็ดวัน ทำให้รัฐบาลมีเวลาจนถึงประมาณวันที่ 2 เมษายนในการยื่นอุทธรณ์ฉุกเฉินต่อศาลวงจรที่เก้า
ข้อพิพาทเริ่มต้นขึ้นเมื่อกระทรวงกลาโหม (DoD) ต้องการเข้าถึง Claude โดยไม่มีข้อจำกัดสำหรับการใช้งานของรัฐบาลกลาง Anthropic ได้รักษาข้อยกเว้นสองข้อในนโยบายการใช้งานที่ยอมรับ: Claude จะไม่ถูกใช้สำหรับการเฝ้าระวังประชาชนชาวอเมริกันในระดับมวลชนหรือสำหรับระบบอาวุธอิสระที่ทำงานโดยไม่มีการควบคุมจากมนุษย์อย่างมีความหมาย DoD เรียกร้องให้ลบข้อกำหนดเหล่านั้น Anthropic ปฏิเสธ
การเจรจาล้มเหลวในช่วงปลายปี 2025 ความขัดแย้งกลายเป็นเรื่องสาธารณะผ่านคำแถลงเป็นลายลักษณ์อักษรของ CEO Dario Amodei และเรียงความที่ชี้แจงจุดยืนของบริษัทเกี่ยวกับความปลอดภัยของ AI เจ้าหน้าที่ DoD มองว่าข้อจำกัดเป็นการพยายามของ Anthropic ในการกำหนดนโยบายของรัฐบาล
เมื่อวันที่ 27 กุมภาพันธ์ 2026 ประธานาธิบดีทรัมป์ได้โพสต์ใน Truth Social สั่งให้หน่วยงานรัฐบาลกลางทั้งหมดหยุดการใช้เทคโนโลยีของ Anthropic ทันที โดยมีระยะเวลาการระงับหกเดือน รัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth ประกาศการกำหนดความเสี่ยงในห่วงโซ่อุปทานภายใต้ 10 U.S.C. § 3252 — กฎหมายที่ใช้กับคู่ต่อสู้ต่างประเทศในอดีต — โดยระบุว่า Anthropic เป็นความเสี่ยงที่อาจเกิดจาก “การทำลาย” และ “การล้มล้าง”
ผู้รับเหมาของรัฐบาลกลางหลายรายหยุดหรือยกเลิกข้อตกลงกับบริษัทหลังจากการกำหนดดังกล่าว Anthropic ตอบสนองและยื่นฟ้องเมื่อวันที่ 9 มีนาคมในเขตเหนือของรัฐแคลิฟอร์เนีย โดยกล่าวหาเรื่องการตอบโต้ การละเมิดกระบวนการยุติธรรม และการละเมิด APA มีการยื่นฟ้องที่เกี่ยวข้องในศาลวงจร D.C.
ในคำสั่ง 43 หน้าของเธอ ผู้พิพากษา Lin ได้สั่งห้าม DoD หน่วยงานรัฐบาลกลางอีก 17 แห่ง และรัฐมนตรี Hegseth จากการดำเนินการหรือบังคับใช้การกระทำที่ถูกท้าทายใดๆ เธอสั่งให้คืนสถานะให้เป็นปกติ ทำให้ Anthropic สามารถดำเนินสัญญาและความร่วมมือของรัฐบาลกลางที่มีอยู่ต่อไป
Lin เขียนว่าการกระทำของรัฐบาลเป็นการตอบโต้ที่ผิดกฎหมายตามคำแก้ไขเพิ่มเติมครั้งที่หนึ่งแบบคลาสสิก เธอสังเกตเห็นเวลาของการกระทำ พร้อมกับการสื่อสารภายในของรัฐบาลที่อ้างอิงถึง “วาทกรรม” “ความหยิ่ง” และ “การบีบบังคับ” ของ Anthropic ชี้ไปที่เจตนาลงโทษที่เชื่อมโยงกับคำแถลงสาธารณะของบริษัทเกี่ยวกับความปลอดภัยของ AI
ในเรื่องกระบวนการยุติธรรม ศาลพบว่ารัฐบาลได้ stripping สิทธิในการมีชื่อเสียงและการดำเนินธุรกิจของ Anthropic โดยไม่ให้การแจ้งล่วงหน้าหรือการพิจารณาคดี Lin ยังพบว่าการกำหนดตามกฎหมายไม่เคยถูกนำไปใช้กับบริษัทอเมริกันในสถานการณ์เช่นนี้มาก่อนและการตรวจสอบของรัฐบาลที่ผ่านมากับ Anthropic
ซึ่งรวมถึงการตรวจสอบความลับชั้นสูง การอนุมัติ FedRAMP และสัญญามูลค่าสูงถึง 200 ล้านดอลลาร์ — แสดงให้เห็นว่าไม่มีความกังวลด้านความปลอดภัยที่แท้จริง “ไม่มีอะไรในกฎหมายที่บังคับใช้สนับสนุนแนวคิดที่ว่า บริษัทอเมริกันอาจถูกทำให้มีชื่อเสียงเป็นศัตรูที่เป็นไปได้และผู้ทำลายของสหรัฐอเมริกาสำหรับการแสดงการไม่เห็นด้วยกับรัฐบาล” Lin เขียน
ศาลพบว่าความเสียหายทางการเงินที่อาจเกิดขึ้นกับ Anthropic มีมูลค่าหลายร้อยล้านถึงหลายพันล้านดอลลาร์ พร้อมกับความเสียหายด้านชื่อเสียงที่การชดเชยทางการเงินไม่สามารถซ่อมแซมได้ทั้งหมด บทความจากผู้นำทางทหารและนักวิจัย AI อ้างถึงความเสี่ยงต่อความพร้อมด้านการป้องกันและการอภิปรายด้านความปลอดภัยของ AI ที่กว้างขึ้น
Anthropic กล่าวว่า บริษัทรู้สึกขอบคุณต่อความรวดเร็วของศาลและว่ามีแผนที่จะทำงานร่วมกับรัฐบาลกลางต่อไป บริษัทระบุว่าจุดมุ่งหมายของตนยังคงเป็นการรับประกันว่าชาวอเมริกันมีการเข้าถึง AI ที่ปลอดภัยและเชื่อถือได้
คำสั่งห้ามนี้ไม่ได้แก้ไขข้อพิพาททางสัญญาที่อยู่เบื้องหลัง ไม่มีการตัดสินขั้นสุดท้ายเกี่ยวกับเนื้อหาออกมา การท้าทายที่แยกอยู่ในศาลวงจร D.C. ยังคงอยู่ระหว่างรอดำเนินการ และรัฐบาลยังคงมีตัวเลือกในการอุทธรณ์