สัญญามูลค่า 200 ล้านดอลลาร์ของ Anthropic กับกระทรวงกลาโหมอยู่ในความไม่แน่นอน หลังจากที่ Anthropic รายงานว่ามีความกังวลเกี่ยวกับการใช้งานโมเดล AI Claude ของตนในระหว่างปฏิบัติการบุกจับ Nicolas Maduro ในเดือนมกราคม
ประเด็นสำคัญของข้อพิพาทนี้คือกรอบข้อตกลงในสัญญาที่กำหนดวิธีการใช้งานโมเดล AI ในการปฏิบัติการด้านการป้องกัน Anthropic CEO Dario Amodei ได้สนับสนุนให้มีการจำกัดการใช้งาน AI อย่างเข้มงวดและเรียกร้องให้มีการควบคุม แม้จะยอมรับว่าการรักษาความปลอดภัยและผลกำไรเป็นเรื่องที่ยากจะสมดุลกันก็ตาม เป็นเวลาหลายเดือนที่บริษัทและกระทรวงกลาโหมได้เจรจาอย่างขัดแย้งกันเกี่ยวกับวิธีการใช้งาน Claude ในการปฏิบัติการทางทหาร
ในบรรดาบริษัท AI ที่ทำสัญญากับรัฐบาล รวมถึง OpenAI, Google และ xAI Anthropic ถือเป็นตำแหน่งที่ได้เปรียบ เนื่องจาก Claude เป็นโมเดลภาษาขนาดใหญ่เพียงหนึ่งเดียวที่ได้รับอนุญาตให้ใช้งานบนเครือข่ายลับของกระทรวงกลาโหม
ความคิดเห็นของกระทรวงกลาโหมเป็นการแสดงให้เห็นถึงข้อพิพาทสาธารณะที่กำลังร้อนระอุ รัฐบาลอ้างว่าการให้บริษัทกำหนดขีดจำกัดด้านจริยธรรมของโมเดลจะเป็นการจำกัดอย่างไม่จำเป็น และจำนวนพื้นที่สีเทามากมายจะทำให้เทคโนโลยีไร้ประโยชน์ ขณะที่กระทรวงกลาโหมยังคงเจรจากับผู้รับเหมาช่วง AI เพื่อขยายการใช้งาน ข้อพิพาทสาธารณะนี้กลายเป็นการต่อสู้ในเชิงตัวแทนว่าใครจะเป็นผู้กำหนดการใช้งาน AI ต่อไป
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ทีมทรัมป์ไม่พอใจเกี่ยวกับจุดยืนที่มีหลักการของดาเรีย โอมเดอิ ที่ป้องกันไม่ให้กระทรวงกลาโหมใช้เครื่องมือ AI ของเขาเพื่อวัตถุประสงค์ทางสงคราม
สัญญามูลค่า 200 ล้านดอลลาร์ของ Anthropic กับกระทรวงกลาโหมอยู่ในความไม่แน่นอน หลังจากที่ Anthropic รายงานว่ามีความกังวลเกี่ยวกับการใช้งานโมเดล AI Claude ของตนในระหว่างปฏิบัติการบุกจับ Nicolas Maduro ในเดือนมกราคม
วิดีโอแนะนำ
“ความสัมพันธ์ระหว่างกระทรวงสงครามกับ Anthropic กำลังอยู่ในระหว่างการทบทวน” โฆษกกระทรวงกลาโหมสูงสุด Sean Parnell กล่าวในแถลงการณ์ต่อ Fortune “ประเทศของเราต้องการให้พันธมิตรของเราเต็มใจช่วยเหลือทหารของเราให้ชนะในทุกการต่อสู้ สุดท้ายแล้ว นี่คือเรื่องของทหารของเราและความปลอดภัยของประชาชนอเมริกัน”
ความตึงเครียดได้ทวีความรุนแรงขึ้นในช่วงไม่กี่สัปดาห์ที่ผ่านมา หลังจากเจ้าหน้าที่ระดับสูงของ Anthropic รายงานว่าติดต่อกับผู้บริหารระดับสูงของ Palantir เพื่อสอบถามเกี่ยวกับการใช้งาน Claude ในระหว่างปฏิบัติการตามรายงานของ The Hill ผู้บริหารของ Palantir เข้าใจว่าการติดต่อดังกล่าวเป็นการไม่เห็นด้วยกับการใช้งานโมเดลในปฏิบัติการดังกล่าว และได้ส่งต่อรายละเอียดของการสนทนาให้กับกระทรวงกลาโหม (ประธานาธิบดีทรัมป์เคยกล่าวว่ากองทัพใช้อาวุธ “discombobulator” ซึ่งทำให้อุปกรณ์ของศัตรู “ไม่ทำงาน”)
“Anthropic ไม่ได้พูดคุยเกี่ยวกับการใช้งาน Claude สำหรับปฏิบัติการเฉพาะกับกระทรวงสงคราม” โฆษกของ Anthropic กล่าวในแถลงการณ์ต่อ Fortune “เราไม่ได้พูดคุยเรื่องนี้กับพันธมิตรในอุตสาหกรรมใด ๆ นอกจากการสนทนาเชิงเทคนิคตามปกติ”
ประเด็นสำคัญของข้อพิพาทนี้คือกรอบข้อตกลงในสัญญาที่กำหนดวิธีการใช้งานโมเดล AI ในการปฏิบัติการด้านการป้องกัน Anthropic CEO Dario Amodei ได้สนับสนุนให้มีการจำกัดการใช้งาน AI อย่างเข้มงวดและเรียกร้องให้มีการควบคุม แม้จะยอมรับว่าการรักษาความปลอดภัยและผลกำไรเป็นเรื่องที่ยากจะสมดุลกันก็ตาม เป็นเวลาหลายเดือนที่บริษัทและกระทรวงกลาโหมได้เจรจาอย่างขัดแย้งกันเกี่ยวกับวิธีการใช้งาน Claude ในการปฏิบัติการทางทหาร
ภายใต้สัญญากับกระทรวงกลาโหม Anthropic ไม่อนุญาตให้กระทรวงใช้โมเดล AI ของตนในการสอดแนมประชาชนจำนวนมาก หรือใช้เทคโนโลยีในอาวุธอัตโนมัติเต็มรูปแบบ บริษัทยังห้ามใช้เทคโนโลยีใน “อาวุธรุนแรง” หรือ “เชิงกล” การมีส่วนร่วมโดยตรงในระหว่างการยิงปืนในระหว่างปฏิบัติการบุกจับ Maduro จะเป็นการละเมิดข้อกำหนดเหล่านี้อย่างแน่นอน
ในบรรดาบริษัท AI ที่ทำสัญญากับรัฐบาล รวมถึง OpenAI, Google และ xAI Anthropic ถือเป็นตำแหน่งที่ได้เปรียบ เนื่องจาก Claude เป็นโมเดลภาษาขนาดใหญ่เพียงหนึ่งเดียวที่ได้รับอนุญาตให้ใช้งานบนเครือข่ายลับของกระทรวงกลาโหม
ตำแหน่งนี้ได้รับการเน้นย้ำโดย Anthropic ในแถลงการณ์ต่อ Fortune “Claude ถูกใช้งานในหลายกรณีที่เกี่ยวข้องกับข่าวกรองทั่วทั้งรัฐบาล รวมถึงกระทรวงสงคราม ตามนโยบายการใช้งานของเรา”
บริษัท “มุ่งมั่นที่จะใช้ AI ขั้นสูงเพื่อสนับสนุนความมั่นคงแห่งชาติของสหรัฐ” แถลงการณ์ระบุ “เรากำลังสนทนาอย่างสร้างสรรค์และด้วยความสุจริตใจ กับกระทรวงสงครามเกี่ยวกับวิธีดำเนินงานต่อไปและแก้ไขปัญหาที่ซับซ้อนเหล่านี้ให้ถูกต้อง”
บริษัท Palantir, OpenAI, Google และ xAI ยังไม่ได้ตอบสนองต่อคำขอความคิดเห็นในทันที
AI เข้าสู่สงคราม
แม้ว่ากระทรวงกลาโหมจะเร่งดำเนินการบูรณาการ AI เข้ากับการปฏิบัติการ แต่มีเพียง xAI เท่านั้นที่อนุญาตให้ใช้โมเดลของตนใน “วัตถุประสงค์ที่ชอบด้วยกฎหมายทั้งหมด” ในขณะที่บริษัทอื่นยังคงมีข้อจำกัดในการใช้งาน
Amodei ได้ออกมาเตือนเรื่องความปลอดภัยของผู้ใช้เป็นเวลาหลายเดือน โดยเสนอ Anthropic เป็นทางเลือกที่เน้นความปลอดภัยเป็นอันดับแรกเมื่อไม่มีการกำกับดูแลจากรัฐบาล “ผมรู้สึกไม่สบายใจอย่างมากกับการตัดสินใจเหล่านี้ที่ทำโดยบริษัทไม่กี่แห่ง” เขากล่าวเมื่อเดือนพฤศจิกายน แม้ว่าจะมีข่าวลือว่า Anthropic วางแผนผ่อนคลายข้อจำกัด แต่บริษัทตอนนี้เผชิญกับความเป็นไปได้ที่จะถูกตัดออกจากอุตสาหกรรมการป้องกันโดยสิ้นเชิง
เจ้าหน้าที่ระดับสูงของกระทรวงกลาโหมรายงานต่อ Axios ว่า Pete Hegseth รัฐมนตรีว่าการกระทรวงกลาโหม “ใกล้จะ” ถอน Anthropic ออกจากห่วงโซ่อุปทานทางทหาร ซึ่งจะบังคับให้ใครก็ตามที่ต้องการทำธุรกิจกับกองทัพต้องตัดความสัมพันธ์กับบริษัทด้วย
“มันจะเป็นเรื่องยุ่งยากมากในการแยกออก และเราจะทำให้แน่ใจว่าพวกเขาจะจ่ายราคาสำหรับการบีบบังคับให้เราต้องทำแบบนี้” เจ้าหน้าที่ระดับสูงกล่าวกับสื่อ
การถูกจัดเป็นปัญหาเรื่องความเสี่ยงด้านซัพพลายของทหารเป็นการกำหนดพิเศษ ซึ่งโดยปกติจะสงวนไว้สำหรับศัตรูต่างชาติ ตัวอย่างที่ใกล้เคียงที่สุดคือการแบน Huawei ของรัฐบาลในปี 2019 เนื่องจากความกังวลด้านความมั่นคงแห่งชาติ ในกรณีของ Anthropic แหล่งข่าวบอก Axios ว่าเจ้าหน้าที่ฝ่ายป้องกันได้มองหาโอกาสที่จะมีปัญหากับบริษัทในซานฟรานซิสโกมาระยะหนึ่งแล้ว
ความคิดเห็นของกระทรวงกลาโหมเป็นการแสดงให้เห็นถึงข้อพิพาทสาธารณะที่กำลังร้อนระอุ รัฐบาลอ้างว่าการให้บริษัทกำหนดขีดจำกัดด้านจริยธรรมของโมเดลจะเป็นการจำกัดอย่างไม่จำเป็น และจำนวนพื้นที่สีเทามากมายจะทำให้เทคโนโลยีไร้ประโยชน์ ขณะที่กระทรวงกลาโหมยังคงเจรจากับผู้รับเหมาช่วง AI เพื่อขยายการใช้งาน ข้อพิพาทสาธารณะนี้กลายเป็นการต่อสู้ในเชิงตัวแทนว่าใครจะเป็นผู้กำหนดการใช้งาน AI ต่อไป