Đội của Trump tức giận về lập trường nguyên tắc của Dario Amodei nhằm ngăn Bộ Quốc phòng sử dụng các công cụ AI của ông cho mục đích chiến tranh

Hợp đồng trị giá 200 triệu đô la của Anthropic với Bộ Quốc phòng đang gặp rắc rối sau khi Anthropic được cho là đã bày tỏ lo ngại về việc Pentagon sử dụng mô hình AI Claude của họ trong cuộc đột kích Nicolas Maduro vào tháng Giêng.

Video đề xuất


“Quan hệ giữa Bộ Chiến tranh và Anthropic đang được xem xét,” Người phát ngôn chính của Pentagon, Sean Parnell, cho biết trong một tuyên bố gửi đến Fortune. “Quốc gia của chúng ta yêu cầu các đối tác sẵn sàng giúp các chiến binh của chúng ta chiến thắng trong mọi cuộc chiến. Cuối cùng, đây là về binh sĩ của chúng ta và sự an toàn của người Mỹ.”

Trong những tuần gần đây, căng thẳng đã gia tăng sau khi một quan chức cao cấp của Anthropic được cho là đã liên hệ với một giám đốc điều hành cấp cao của Palantir để đặt câu hỏi về cách Claude được sử dụng trong cuộc đột kích, theo The Hill. Giám đốc điều hành của Palantir đã hiểu cuộc gọi này là sự phản đối việc sử dụng mô hình trong cuộc đột kích và đã chuyển tiếp chi tiết cuộc trao đổi cho Pentagon. (Cựu Tổng thống Trump nói rằng quân đội đã sử dụng một vũ khí “rối loạn” trong cuộc đột kích khiến thiết bị của kẻ địch “không hoạt động.”)

“Anthropic chưa từng bàn về việc sử dụng Claude cho các hoạt động cụ thể với Bộ Chiến tranh,” một người phát ngôn của Anthropic cho biết trong một tuyên bố gửi đến Fortune. “Chúng tôi cũng chưa từng thảo luận về việc này với bất kỳ đối tác ngành nào ngoài các cuộc thảo luận định kỳ về các vấn đề kỹ thuật thuần túy.”

Trung tâm của tranh chấp này là các giới hạn hợp đồng quy định cách các mô hình AI có thể được sử dụng trong các hoạt động quốc phòng. CEO của Anthropic, Dario Amodei, liên tục ủng hộ các giới hạn nghiêm ngặt về việc sử dụng và quy định AI, thậm chí thừa nhận rằng việc cân bằng giữa an toàn và lợi nhuận trở nên khó khăn. Trong nhiều tháng qua, công ty và Bộ Quốc phòng đã tiến hành các cuộc đàm phán gay gắt về cách Claude có thể được sử dụng trong các hoạt động quân sự.

Theo hợp đồng của Bộ Quốc phòng, Anthropic không cho phép Pentagon sử dụng các mô hình AI của mình để giám sát quy mô lớn người Mỹ hoặc sử dụng công nghệ của mình trong vũ khí hoàn toàn tự động. Công ty cũng cấm sử dụng công nghệ của mình trong các ứng dụng quân sự “sát thương” hoặc “kinetic.” Bất kỳ sự tham gia trực tiếp nào trong bắn súng hoạt động trong cuộc đột kích Maduro có khả năng vi phạm các điều khoản này.

Trong số các công ty AI hợp tác với chính phủ — bao gồm OpenAI, Google và xAI — Anthropic giữ vị trí sinh lợi khi đặt Claude là mô hình ngôn ngữ lớn duy nhất được phép truy cập vào các mạng lưới phân loại của Pentagon.

Vị trí này đã được Anthropic nhấn mạnh trong một tuyên bố gửi đến Fortune. “Claude được sử dụng cho nhiều mục đích liên quan đến tình báo trong chính phủ, bao gồm cả Bộ Chiến tranh, phù hợp với Chính sách Sử dụng của chúng tôi.”

Công ty “cam kết sử dụng AI tiên phong để hỗ trợ an ninh quốc gia của Mỹ,” theo tuyên bố. “Chúng tôi đang có các cuộc trò chuyện hiệu quả, thiện chí, với Bộ Chiến tranh về cách tiếp tục công việc này và giải quyết các vấn đề phức tạp đó đúng cách.”

Palantir, OpenAI, Google và xAI không phản hồi ngay lập tức yêu cầu bình luận.

AI ra chiến trường

Mặc dù Bộ Quốc phòng đã thúc đẩy nhanh các nỗ lực tích hợp AI vào hoạt động của mình, chỉ có xAI đã cho phép Bộ Quốc phòng sử dụng các mô hình của họ cho “mọi mục đích hợp pháp,” trong khi các công ty còn lại duy trì các hạn chế về sử dụng.

Amodei đã liên tục cảnh báo về các biện pháp bảo vệ người dùng trong nhiều tháng, đề xuất Anthropic như một lựa chọn an toàn hơn so với OpenAI và Google trong bối cảnh thiếu quy định của chính phủ. “Tôi cảm thấy rất không thoải mái khi những quyết định này do một số công ty đưa ra,” ông nói vào tháng 11. Mặc dù có tin đồn rằng Anthropic đang dự định nới lỏng các hạn chế, công ty hiện đối mặt với khả năng bị loại khỏi ngành công nghiệp quốc phòng hoàn toàn.

Một quan chức cấp cao của Pentagon nói với Axios rằng Bộ trưởng Quốc phòng Pete Hegseth “gần như” sẽ loại bỏ Anthropic khỏi chuỗi cung ứng quân sự, buộc bất kỳ ai muốn hợp tác với quân đội cũng phải cắt đứt liên hệ với công ty.

“Việc tháo gỡ sẽ là một cơn đau lớn, và chúng tôi sẽ đảm bảo họ phải trả giá cho việc ép buộc chúng tôi như thế này,” quan chức cấp cao này nói với tờ báo.

Việc bị coi là rủi ro cung cấp quân sự là một danh xưng đặc biệt, thường chỉ dành cho các đối thủ nước ngoài. Tiền lệ gần nhất là lệnh cấm của chính phủ năm 2019 đối với Huawei vì lý do an ninh quốc gia. Trong trường hợp của Anthropic, các nguồn tin cho biết các quan chức quốc phòng đã tìm cách gây chuyện với công ty có trụ sở tại San Francisco này từ một thời gian.

Những bình luận của Pentagon là diễn biến mới nhất trong một tranh chấp công khai đang ngày càng nóng lên. Chính phủ cho rằng việc các công ty đặt ra giới hạn đạo đức cho các mô hình của mình sẽ gây ra những hạn chế không cần thiết, và số lượng các vùng xám sẽ khiến các công nghệ trở nên vô nghĩa. Khi Bộ Quốc phòng tiếp tục đàm phán với các nhà thầu phụ AI để mở rộng phạm vi sử dụng, cuộc tranh cãi công khai này trở thành một cuộc chiến tranh giành quyền quyết định về việc AI sẽ được sử dụng như thế nào.

Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune ngày 19–20 tháng 5 năm 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã bắt đầu — và quy tắc cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.

XAI0,77%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.5KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.51KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.5KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.52KNgười nắm giữ:2
    0.00%
  • Ghim