Các phương tiện truyền thông đã biết về việc sử dụng công cụ AI Claude trong chiến dịch quân sự bắt giữ Maduro - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai
# Các phương tiện truyền thông đã biết về việc sử dụng công cụ AI Claude trong chiến dịch quân sự bắt giữ Maduro
Quân đội Mỹ đã triển khai Claude của Anthropic trong chiến dịch bắt giữ tổng thống Venezuela Nicolás Maduro. WSJ đưa tin dựa trên các nguồn tin.
Nhiệm vụ bao gồm không kích một số mục tiêu tại Caracas
Việc sử dụng mô hình cho các mục đích như vậy trái với chính sách công khai của Anthropic. Quy định của công ty cấm rõ ràng việc sử dụng AI cho bạo lực, phát triển vũ khí hoặc tổ chức giám sát.
«Chúng tôi không thể bình luận về việc Claude hoặc bất kỳ mô hình nào khác có được sử dụng trong một chiến dịch cụ thể — bí mật hay công khai. Việc sử dụng bất kỳ LLM nào — trong khu vực tư nhân hay các cơ quan nhà nước — phải phù hợp với chính sách của chúng tôi về cách triển khai mạng neural. Chúng tôi hợp tác chặt chẽ với các đối tác để đảm bảo tuân thủ các quy định», đại diện của Anthropic cho biết.
Việc tích hợp Claude vào các cơ cấu của Bộ Quốc phòng trở nên khả thi nhờ mối quan hệ đối tác giữa Anthropic và Palantir Technologies. Phần mềm của họ được sử dụng rộng rãi trong quân đội và các cơ quan thực thi pháp luật liên bang.
Sau cuộc đột kích, nhân viên của Anthropic đã hỏi đồng nghiệp từ Palantir về vai trò chính xác của mạng neural trong chiến dịch bắt giữ Maduro, WSJ đưa tin. Đại diện của startup này cho biết công ty chưa từng thảo luận về việc sử dụng các mô hình của mình trong các nhiệm vụ cụ thể «với bất kỳ đối tác nào, kể cả Palantir», chỉ giới hạn ở các vấn đề kỹ thuật.
«Anthropic cam kết sử dụng AI tiên tiến để hỗ trợ an ninh quốc gia của Mỹ», đại diện công ty nói thêm.
Anthropic chống lại Pentagon?
Đại diện của Bộ Quốc phòng Mỹ, ông Sean Parnell, tuyên bố đang xem xét lại mối quan hệ với phòng thí nghiệm AI.
«Nước chúng ta cần những đối tác sẵn sàng giúp binh sĩ chiến thắng trong mọi cuộc chiến», ông nói.
Tháng 7 năm 2025, Bộ Quốc phòng Mỹ đã ký hợp đồng trị giá lên tới 200 triệu USD với Anthropic, Google, OpenAI và xAI để phát triển các giải pháp AI trong lĩnh vực an ninh. Cục chính về công nghệ số và AI của bộ dự định sử dụng các phát triển này để tạo ra các hệ thống an ninh dựa trên tác nhân.
Tuy nhiên, đến tháng 1 năm 2026, WSJ đưa tin về nguy cơ hủy bỏ thỏa thuận với Anthropic. Các bất đồng xuất phát từ chính sách đạo đức nghiêm ngặt của startup này. Các quy định cấm sử dụng Claude cho giám sát quy mô lớn và các hoạt động gây chết người tự động, hạn chế việc sử dụng của các cơ quan tình báo như ICE và FBI.
Sự bất mãn của các quan chức tăng lên khi mạng chat Grok được tích hợp vào mạng lưới của Pentagon. Bộ trưởng Quốc phòng Pít Hegset, khi bình luận về hợp tác với xAI, nhấn mạnh rằng bộ này «sẽ không sử dụng các mô hình không cho phép tiến hành chiến tranh».
Áp lực đối với các nhà phát triển
Axios dẫn nguồn tin cho biết, Bộ Quốc phòng Mỹ đang gây áp lực lên bốn công ty AI lớn để họ cho phép quân đội Mỹ sử dụng công nghệ «cho tất cả các mục đích hợp pháp». Trong đó có phát triển vũ khí, thu thập tình báo và các hoạt động chiến đấu.
Anthropic từ chối gỡ bỏ hạn chế giám sát công dân Mỹ và tạo ra vũ khí hoàn toàn tự động. Các cuộc đàm phán bế tắc, tuy nhiên việc thay thế Claude nhanh chóng là khó khăn do sự vượt trội về công nghệ của mô hình trong các nhiệm vụ đặc thù của chính phủ.
Ngoài chat-bot của Anthropic, Pentagon còn sử dụng ChatGPT của OpenAI, Gemini của Google và Grok của xAI trong các nhiệm vụ không bí mật. Cả ba đều đồng ý nới lỏng các hạn chế áp dụng cho người dùng thông thường.
Hiện đang thảo luận về việc chuyển LLM vào hệ thống bí mật và sử dụng «cho tất cả các mục đích hợp pháp». Một trong ba công ty đã đồng ý làm điều này, hai công ty còn lại «thể hiện sự linh hoạt lớn hơn» so với Anthropic.
Quân sự hóa AI
Mỹ không phải là quốc gia duy nhất tích cực đưa trí tuệ nhân tạo vào lĩnh vực quốc phòng.
Trung Quốc
Tháng 6 năm 2024, Trung Quốc giới thiệu một AI chỉ huy cho các cuộc diễn tập quân sự quy mô lớn với sự tham gia của tất cả các loại quân đội của PLA. Chiến lược gia ảo này có quyền hạn rộng rãi, học hỏi nhanh và nâng cao chiến thuật trong các cuộc tập trận số hóa.
Tháng 11, truyền thông đưa tin các nhà nghiên cứu Trung Quốc đã điều chỉnh mô hình Llama 13B của Meta để tạo ra công cụ ChatBIT. Mạng neural này được tối ưu hóa để thu thập và phân tích dữ liệu tình báo, cũng như hỗ trợ ra quyết định nhanh chóng.
Ấn Độ
New Delhi cũng đặt cược vào AI như một động lực cho an ninh quốc gia. Chính phủ đã xây dựng các chiến lược và chương trình cấp quốc gia, thành lập các viện và cơ quan đặc biệt để triển khai AI, cũng như khởi động các dự án ứng dụng công nghệ trong nhiều lĩnh vực.
Vương quốc Anh
London đã xác định AI là lĩnh vực ưu tiên hàng đầu. Trong «Chiến lược AI cho quốc phòng» (2022), bộ này xem AI là thành phần then chốt của lực lượng vũ trang tương lai. Trong «Báo cáo quốc phòng chiến lược» (2025), công nghệ này được gọi là yếu tố nền tảng của chiến tranh hiện đại.
Trước đây, AI trong bối cảnh quân sự được xem như một công cụ hỗ trợ, thì nay Quân đội Anh dự định chuyển đổi thành «lực lượng tích hợp công nghệ», trong đó các hệ thống AI sẽ được sử dụng ở mọi cấp độ — từ phân tích chiến thuật đến chiến trường.
Nhớ lại, tháng 3 năm 2025, Pentagon đã công bố sử dụng các tác nhân AI để mô phỏng các cuộc đụng độ với các đối thủ nước ngoài.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Các phương tiện truyền thông đã biết về việc sử dụng công cụ AI Claude trong chiến dịch quân sự bắt giữ Maduro - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai
Quân đội Mỹ đã triển khai Claude của Anthropic trong chiến dịch bắt giữ tổng thống Venezuela Nicolás Maduro. WSJ đưa tin dựa trên các nguồn tin.
Nhiệm vụ bao gồm không kích một số mục tiêu tại Caracas
Việc sử dụng mô hình cho các mục đích như vậy trái với chính sách công khai của Anthropic. Quy định của công ty cấm rõ ràng việc sử dụng AI cho bạo lực, phát triển vũ khí hoặc tổ chức giám sát.
Việc tích hợp Claude vào các cơ cấu của Bộ Quốc phòng trở nên khả thi nhờ mối quan hệ đối tác giữa Anthropic và Palantir Technologies. Phần mềm của họ được sử dụng rộng rãi trong quân đội và các cơ quan thực thi pháp luật liên bang.
Sau cuộc đột kích, nhân viên của Anthropic đã hỏi đồng nghiệp từ Palantir về vai trò chính xác của mạng neural trong chiến dịch bắt giữ Maduro, WSJ đưa tin. Đại diện của startup này cho biết công ty chưa từng thảo luận về việc sử dụng các mô hình của mình trong các nhiệm vụ cụ thể «với bất kỳ đối tác nào, kể cả Palantir», chỉ giới hạn ở các vấn đề kỹ thuật.
Anthropic chống lại Pentagon?
Đại diện của Bộ Quốc phòng Mỹ, ông Sean Parnell, tuyên bố đang xem xét lại mối quan hệ với phòng thí nghiệm AI.
Tháng 7 năm 2025, Bộ Quốc phòng Mỹ đã ký hợp đồng trị giá lên tới 200 triệu USD với Anthropic, Google, OpenAI và xAI để phát triển các giải pháp AI trong lĩnh vực an ninh. Cục chính về công nghệ số và AI của bộ dự định sử dụng các phát triển này để tạo ra các hệ thống an ninh dựa trên tác nhân.
Tuy nhiên, đến tháng 1 năm 2026, WSJ đưa tin về nguy cơ hủy bỏ thỏa thuận với Anthropic. Các bất đồng xuất phát từ chính sách đạo đức nghiêm ngặt của startup này. Các quy định cấm sử dụng Claude cho giám sát quy mô lớn và các hoạt động gây chết người tự động, hạn chế việc sử dụng của các cơ quan tình báo như ICE và FBI.
Sự bất mãn của các quan chức tăng lên khi mạng chat Grok được tích hợp vào mạng lưới của Pentagon. Bộ trưởng Quốc phòng Pít Hegset, khi bình luận về hợp tác với xAI, nhấn mạnh rằng bộ này «sẽ không sử dụng các mô hình không cho phép tiến hành chiến tranh».
Áp lực đối với các nhà phát triển
Axios dẫn nguồn tin cho biết, Bộ Quốc phòng Mỹ đang gây áp lực lên bốn công ty AI lớn để họ cho phép quân đội Mỹ sử dụng công nghệ «cho tất cả các mục đích hợp pháp». Trong đó có phát triển vũ khí, thu thập tình báo và các hoạt động chiến đấu.
Anthropic từ chối gỡ bỏ hạn chế giám sát công dân Mỹ và tạo ra vũ khí hoàn toàn tự động. Các cuộc đàm phán bế tắc, tuy nhiên việc thay thế Claude nhanh chóng là khó khăn do sự vượt trội về công nghệ của mô hình trong các nhiệm vụ đặc thù của chính phủ.
Ngoài chat-bot của Anthropic, Pentagon còn sử dụng ChatGPT của OpenAI, Gemini của Google và Grok của xAI trong các nhiệm vụ không bí mật. Cả ba đều đồng ý nới lỏng các hạn chế áp dụng cho người dùng thông thường.
Hiện đang thảo luận về việc chuyển LLM vào hệ thống bí mật và sử dụng «cho tất cả các mục đích hợp pháp». Một trong ba công ty đã đồng ý làm điều này, hai công ty còn lại «thể hiện sự linh hoạt lớn hơn» so với Anthropic.
Quân sự hóa AI
Mỹ không phải là quốc gia duy nhất tích cực đưa trí tuệ nhân tạo vào lĩnh vực quốc phòng.
Trung Quốc
Tháng 6 năm 2024, Trung Quốc giới thiệu một AI chỉ huy cho các cuộc diễn tập quân sự quy mô lớn với sự tham gia của tất cả các loại quân đội của PLA. Chiến lược gia ảo này có quyền hạn rộng rãi, học hỏi nhanh và nâng cao chiến thuật trong các cuộc tập trận số hóa.
Tháng 11, truyền thông đưa tin các nhà nghiên cứu Trung Quốc đã điều chỉnh mô hình Llama 13B của Meta để tạo ra công cụ ChatBIT. Mạng neural này được tối ưu hóa để thu thập và phân tích dữ liệu tình báo, cũng như hỗ trợ ra quyết định nhanh chóng.
Ấn Độ
New Delhi cũng đặt cược vào AI như một động lực cho an ninh quốc gia. Chính phủ đã xây dựng các chiến lược và chương trình cấp quốc gia, thành lập các viện và cơ quan đặc biệt để triển khai AI, cũng như khởi động các dự án ứng dụng công nghệ trong nhiều lĩnh vực.
Vương quốc Anh
London đã xác định AI là lĩnh vực ưu tiên hàng đầu. Trong «Chiến lược AI cho quốc phòng» (2022), bộ này xem AI là thành phần then chốt của lực lượng vũ trang tương lai. Trong «Báo cáo quốc phòng chiến lược» (2025), công nghệ này được gọi là yếu tố nền tảng của chiến tranh hiện đại.
Trước đây, AI trong bối cảnh quân sự được xem như một công cụ hỗ trợ, thì nay Quân đội Anh dự định chuyển đổi thành «lực lượng tích hợp công nghệ», trong đó các hệ thống AI sẽ được sử dụng ở mọi cấp độ — từ phân tích chiến thuật đến chiến trường.
Nhớ lại, tháng 3 năm 2025, Pentagon đã công bố sử dụng các tác nhân AI để mô phỏng các cuộc đụng độ với các đối thủ nước ngoài.