4 กันยายน? หรือ 4 เมษายน? — ไม่ใช่ครับ ขอแก้ใหม่เป็นตามต้นฉบับ: วันที่ 9 เมษายน สหรัฐอเมริกา ศาลอุทธรณ์สหรัฐประจำเขตวอชิงตัน ดี.ซี. มีคำพิพากษาให้คงไว้ซึ่งการติดป้าย “ความเสี่ยงด้านห่วงโซ่อุปทาน” ของกระทรวงกลาโหมให้แก่ Anthropic โดยปฏิเสธคำขอให้ทุเลาการบังคับใช้ และสงครามทางกฎหมายรอบเส้นแบ่งจริยธรรมของ AI และนิยามด้านความมั่นคงของชาติยังไม่สิ้นสุด
(ข้อมูลก่อนหน้า: ผู้พิพากษาเห็นด้วยกับ Anthropic และห้ามไม่ให้กระทรวงกลาโหมลงโทษ Claude ด้วย “ป้ายความเสี่ยงด้านห่วงโซ่อุปทาน”)
(ข้อมูลเสริมพื้นหลัง: Claude คืออะไร? วิเคราะห์แบบครบทั้งค่าใช้จ่าย ฟังก์ชัน Claude Code และ Cowork — คู่มือที่ละเอียดที่สุดของ Anthropic ปี 2026 )
สารบัญบทความ
Toggle
9 เมษายน สหรัฐอเมริกา ศาลอุทธรณ์สหรัฐประจำเขตวอชิงตัน ดี.ซี. ยกฟ้องคำขอให้ทุเลาการบังคับใช้ของยักษ์ใหญ่ด้าน AI อย่าง Anthropic และมีคำพิพากษาให้คงไว้ซึ่งการตัดสินใจของกระทรวงกลาโหมที่ให้บริษัทดังกล่าวอยู่ในกลุ่ม “ความเสี่ยงด้านห่วงโซ่อุปทาน”
เหตุผลของศาลนั้นตรงไปตรงมา: ผลประโยชน์ด้านความมั่นคงของชาติของรัฐบาลในการบริหารห่วงโซ่อุปทานของ AI มีความสำคัญมากกว่าความเสียหายทางการเงินที่ Anthropic ต้องแบกรับ ป้ายดังกล่าวในอดีตมักใช้กับบริษัทจากประเทศศัตรู หรือหน่วยงานที่อาจเป็นภัยคุกคาม แต่ครั้งนี้กลับมาตกอยู่กับยูนิคอร์นด้าน AI ในแผ่นดินสหรัฐอเมริกา ความหมายเชิงสัญลักษณ์ชัดเจนยิ่งนัก
เหตุการณ์เริ่มต้นในเดือนกรกฎาคม 2025 Anthropic และเพนตากอนลงนามในสัญญามูลค่า 200 ล้านดอลลาร์ โดยนำโมเดล AI ของบริษัทอย่าง Claude ไปบูรณาการเข้ากับระบบ Maven อัจฉริยะ เพื่อช่วยปฏิบัติงานด้านการวิเคราะห์ข่าวกรองและการระบุเป้าหมาย
อย่างไรก็ดี ทั้งสองฝ่ายได้เจรจากันในเดือนกันยายน 2025 และข้อตกลงก็พังลง ในขณะที่ Anthropic ยืนยันที่จะตั้งเส้นแบ่งจริยธรรม 2 ประการ ได้แก่ การปฏิเสธที่จะนำ Claude ไปใช้กับระบบอาวุธแบบอัตโนมัติเต็มรูปแบบ และการปฏิเสธที่จะนำไปใช้กับการเฝ้าระวังภายในประเทศ 2 ท่าทีนี้ขัดแย้งกับความคาดหวังของรัฐบาลของทรัมป์อย่างสิ้นเชิง จากนั้นทรัมป์ก็ได้สั่งผ่านสื่อสังคมออนไลน์ให้หน่วยงานของรัฐบาลกลางหยุดใช้งานผลิตภัณฑ์ของ Anthropic และกำหนดระยะเวลา 6 เดือนสำหรับการเลิกใช้งาน
ตั้งแต่ปลายปี 2025 ถึงต้นปี 2026 กระทรวงกลาโหมได้จัดให้ Anthropic อยู่ในบัญชีรายชื่อความเสี่ยงด้านห่วงโซ่อุปทานอย่างเป็นทางการ การติดป้ายครั้งนี้ตัดขาดคุณสมบัติของ Anthropic ในการเข้าร่วมสัญญาด้านการป้องกันประเทศของรัฐบาลโดยตรง
ขณะนี้ สงครามทางกฎหมายกำลังมีผลคำพิพากษาที่ขัดแย้งกันเอง ศาลรัฐบาลกลางในซานฟรานซิสโกเคยอนุมัติคำสั่งห้ามชั่วคราวช่วงปลายเดือนมีนาคม เพื่อให้ Anthropic สามารถร่วมมือกับหน่วยงานภาครัฐที่ไม่ใช่ด้านการป้องกันประเทศต่อไป แต่คำตัดสินของศาลอุทธรณ์สหรัฐประจำเขตวอชิงตัน ดี.ซี. ในวันที่ 9 เมษายน กลับตอกย้ำจุดยืนของกระทรวงกลาโหมในเรื่องการปิดกั้น และปฏิเสธที่จะให้พื้นที่สำหรับการทุเลา
นั่นหมายความว่า Anthropic ตอนนี้อยู่ในสภาวะที่ลำบากทางกฎหมาย: สามารถร่วมมือกับหน่วยงานรัฐบางส่วนได้ แต่ถูกกันออกจากสัญญาด้านการป้องกันประเทศ Anthropic ระบุว่ามองว่านี่เป็นการตอบโต้ทางการเมือง และขัดต่อสิทธิที่ได้รับการคุ้มครองตามรัฐธรรมนูญ โดยจะเดินหน้ายื่นอุทธรณ์ต่อไป การเร่งกระบวนการพิจารณาคดีจะกลายเป็นกุญแจสำคัญในขั้นตอนถัดไป
อย่างไรก็ดี ตามรายงานของ Electronic Engineering Album แม้ว่า Anthropic จะได้รับผลกระทบอย่างหนักทางธุรกิจจนไม่สามารถเข้าร่วมสัญญาด้านการป้องกันประเทศขนาดใหญ่ได้ แต่ภาพลักษณ์ที่ยืนหยัดด้านจริยธรรมกลับได้รับการตอบรับในเชิงบวกในตลาดผู้ใช้ทั่วไป ทำให้มีองค์กรและผู้ใช้รายบุคคลจำนวนมากขึ้นที่มีความกังวลต่อความปลอดภัยของ AI
ผลกระทบของคำตัดสินนี้ไม่ได้จำกัดอยู่แค่บริษัทเดียวอย่าง Anthropic เท่านั้น มันเผยให้เห็นความขัดแย้งเชิงโครงสร้างที่ลึกซึ้งกว่า: เมื่อกรอบจริยธรรมของผู้พัฒนา AI ขัดแย้งกับนิยามของรัฐบาลเกี่ยวกับความมั่นคงของชาติ น้ำหนักในระบบกฎหมายปัจจุบันเอียงไปทางใดนั้น ได้มีคำตอบเบื้องต้นแล้ว คำตัดสินขั้นสุดท้ายของคดีนี้จะมีความหมายอ้างอิงอย่างลึกซึ้งต่อวิธีที่อุตสาหกรรมเทคโนโลยีทั้งระบบจะเจรจากับรัฐบาลเกี่ยวกับขอบเขตการใช้งาน AI