# Media mengetahui penggunaan alat AI Claude dalam operasi militer untuk menangkap Maduro
Tentara AS menggunakan Claude dari Anthropic dalam operasi penangkapan Presiden Venezuela Nicolás Maduro. Hal ini dilaporkan oleh WSJ mengutip sumber.
Misi tersebut meliputi pengeboman beberapa objek di Caracas
Penggunaan model untuk tujuan seperti ini bertentangan dengan kebijakan publik Anthropic. Aturan perusahaan secara tegas melarang penggunaan AI untuk kekerasan, pengembangan senjata, atau pengawasan.
“Kami tidak dapat mengomentari apakah Claude atau model lain digunakan dalam operasi tertentu — baik rahasia maupun tidak. Setiap penggunaan LLM — baik di sektor swasta maupun lembaga pemerintah — harus sesuai dengan kebijakan kami yang mengatur cara penerapan neural network. Kami bekerja sama dengan mitra untuk memastikan kepatuhan terhadap aturan,” kata perwakilan Anthropic.
Implementasi Claude ke dalam struktur Kementerian Pertahanan dimungkinkan berkat kemitraan Anthropic dengan Palantir Technologies. Perangkat lunak mereka banyak digunakan oleh militer dan aparat penegak hukum federal.
Setelah operasi tersebut, seorang karyawan Anthropic menanyakan kepada kolega dari Palantir tentang peran apa yang dimainkan neural network dalam operasi penangkapan Maduro, tulis WSJ. Perwakilan startup tersebut menyatakan bahwa perusahaan tidak membahas penggunaan model mereka dalam misi tertentu “baik dengan mitra mana pun, termasuk Palantir,” dan hanya membahas aspek teknis.
“Anthropic berkomitmen untuk penggunaan AI canggih demi mendukung keamanan nasional AS,” tambah perwakilan perusahaan.
Anthropic melawan Pentagon?
Perwakilan Pentagon, Shawn Parnell, menyatakan sedang meninjau kembali hubungan dengan laboratorium AI tersebut.
“Negara kita membutuhkan mitra yang siap membantu prajurit menang dalam perang apa pun,” katanya.
Pada Juli 2025, Departemen Pertahanan AS menandatangani kontrak senilai hingga $200 juta dengan Anthropic, Google, OpenAI, dan xAI untuk pengembangan solusi AI di bidang keamanan. Badan utama untuk teknologi digital dan AI dari departemen tersebut berencana menggunakan pengembangan mereka untuk menciptakan sistem keamanan berbasis agen.
Namun, pada Januari 2026, WSJ melaporkan adanya risiko pemutusan kontrak dengan Anthropic. Perselisihan muncul karena kebijakan etika startup yang ketat. Aturan melarang penggunaan Claude untuk pengawasan massal dan operasi mematikan otomatis, yang membatasi penggunaannya oleh badan intelijen seperti ICE dan FBI.
Ketidakpuasan pejabat meningkat seiring integrasi chatbot Grok ke jaringan Pentagon. Menteri Pertahanan Pit Hegset, dalam komentarnya tentang kemitraan dengan xAI, menegaskan bahwa lembaga tersebut “tidak akan menggunakan model yang tidak memungkinkan untuk melakukan perang.”
Tekanan terhadap pengembang
Axios mengutip sumber mengatakan bahwa Pentagon menekan empat perusahaan AI besar agar mereka mengizinkan militer AS menggunakan teknologi tersebut untuk “semua tujuan yang sah.” Termasuk pengembangan senjata, pengumpulan intel, dan operasi tempur.
Anthropic menolak mencabut pembatasan pengawasan terhadap warga AS dan pembuatan senjata otomatis penuh. Negosiasi macet, tetapi sulit menggantikan Claude secara cepat karena keunggulan teknologi model dalam tugas-tugas pemerintah yang spesifik.
Selain chatbot Anthropic, Pentagon juga menggunakan ChatGPT dari OpenAI, Gemini dari Google, dan Grok dari xAI untuk tugas-tugas non-rahasia. Ketiga perusahaan setuju melonggarkan pembatasan yang berlaku untuk pengguna biasa.
Saat ini sedang dibahas pemindahan LLM ke dalam jaringan rahasia dan penggunaannya “untuk semua tujuan yang sah.” Salah satu dari tiga perusahaan sudah setuju melakukannya, dua lainnya “menunjukkan fleksibilitas lebih besar” dibandingkan Anthropic.
Militerisasi AI
AS bukan satu-satunya negara yang aktif mengintegrasikan kecerdasan buatan ke dalam sektor pertahanan.
Tiongkok
Pada Juni 2024, Tiongkok memperkenalkan AI-komandan untuk simulasi militer besar-besaran melibatkan semua jenis pasukan PLA. Strateg virtual ini memiliki kewenangan luas, belajar cepat, dan meningkatkan taktik selama latihan digital.
Pada November, media melaporkan bahwa peneliti Tiongkok mengadaptasi model Llama 13B dari Meta untuk membuat alat ChatBIT. Neural network ini dioptimalkan untuk pengumpulan dan analisis data intel serta mendukung pengambilan keputusan operasional.
India
New Delhi juga menempatkan AI sebagai pendorong utama keamanan nasional. Pemerintah mengembangkan strategi dan program nasional, membentuk lembaga dan badan khusus untuk penerapan AI, serta meluncurkan proyek penggunaan teknologi di berbagai sektor.
Inggris
London menegaskan status AI sebagai prioritas utama. Dalam “Strategi AI untuk Pertahanan” (2022), kementerian menganggap AI sebagai komponen kunci dari angkatan bersenjata masa depan. Dalam “Tinjauan Pertahanan Strategis” (2025), teknologi ini disebut sebagai elemen fundamental dari perang modern.
Dulu, kecerdasan buatan dalam konteks militer dipandang sebagai alat bantu, tetapi kini militer Inggris berencana melakukan transformasi menjadi “pasukan yang terintegrasi secara teknologi,” di mana sistem AI akan digunakan di semua tingkat — dari analisis staf hingga medan perang.
Perlu diingat, pada Maret 2025, Pentagon mengumumkan penggunaan agen AI untuk memodelkan bentrokan dengan musuh asing.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Media mengetahui penggunaan alat AI Claude dalam operasi militer untuk merebut Maduro - ForkLog: cryptocurrency, AI, singularitas, masa depan
Tentara AS menggunakan Claude dari Anthropic dalam operasi penangkapan Presiden Venezuela Nicolás Maduro. Hal ini dilaporkan oleh WSJ mengutip sumber.
Misi tersebut meliputi pengeboman beberapa objek di Caracas
Penggunaan model untuk tujuan seperti ini bertentangan dengan kebijakan publik Anthropic. Aturan perusahaan secara tegas melarang penggunaan AI untuk kekerasan, pengembangan senjata, atau pengawasan.
Implementasi Claude ke dalam struktur Kementerian Pertahanan dimungkinkan berkat kemitraan Anthropic dengan Palantir Technologies. Perangkat lunak mereka banyak digunakan oleh militer dan aparat penegak hukum federal.
Setelah operasi tersebut, seorang karyawan Anthropic menanyakan kepada kolega dari Palantir tentang peran apa yang dimainkan neural network dalam operasi penangkapan Maduro, tulis WSJ. Perwakilan startup tersebut menyatakan bahwa perusahaan tidak membahas penggunaan model mereka dalam misi tertentu “baik dengan mitra mana pun, termasuk Palantir,” dan hanya membahas aspek teknis.
Anthropic melawan Pentagon?
Perwakilan Pentagon, Shawn Parnell, menyatakan sedang meninjau kembali hubungan dengan laboratorium AI tersebut.
Pada Juli 2025, Departemen Pertahanan AS menandatangani kontrak senilai hingga $200 juta dengan Anthropic, Google, OpenAI, dan xAI untuk pengembangan solusi AI di bidang keamanan. Badan utama untuk teknologi digital dan AI dari departemen tersebut berencana menggunakan pengembangan mereka untuk menciptakan sistem keamanan berbasis agen.
Namun, pada Januari 2026, WSJ melaporkan adanya risiko pemutusan kontrak dengan Anthropic. Perselisihan muncul karena kebijakan etika startup yang ketat. Aturan melarang penggunaan Claude untuk pengawasan massal dan operasi mematikan otomatis, yang membatasi penggunaannya oleh badan intelijen seperti ICE dan FBI.
Ketidakpuasan pejabat meningkat seiring integrasi chatbot Grok ke jaringan Pentagon. Menteri Pertahanan Pit Hegset, dalam komentarnya tentang kemitraan dengan xAI, menegaskan bahwa lembaga tersebut “tidak akan menggunakan model yang tidak memungkinkan untuk melakukan perang.”
Tekanan terhadap pengembang
Axios mengutip sumber mengatakan bahwa Pentagon menekan empat perusahaan AI besar agar mereka mengizinkan militer AS menggunakan teknologi tersebut untuk “semua tujuan yang sah.” Termasuk pengembangan senjata, pengumpulan intel, dan operasi tempur.
Anthropic menolak mencabut pembatasan pengawasan terhadap warga AS dan pembuatan senjata otomatis penuh. Negosiasi macet, tetapi sulit menggantikan Claude secara cepat karena keunggulan teknologi model dalam tugas-tugas pemerintah yang spesifik.
Selain chatbot Anthropic, Pentagon juga menggunakan ChatGPT dari OpenAI, Gemini dari Google, dan Grok dari xAI untuk tugas-tugas non-rahasia. Ketiga perusahaan setuju melonggarkan pembatasan yang berlaku untuk pengguna biasa.
Saat ini sedang dibahas pemindahan LLM ke dalam jaringan rahasia dan penggunaannya “untuk semua tujuan yang sah.” Salah satu dari tiga perusahaan sudah setuju melakukannya, dua lainnya “menunjukkan fleksibilitas lebih besar” dibandingkan Anthropic.
Militerisasi AI
AS bukan satu-satunya negara yang aktif mengintegrasikan kecerdasan buatan ke dalam sektor pertahanan.
Tiongkok
Pada Juni 2024, Tiongkok memperkenalkan AI-komandan untuk simulasi militer besar-besaran melibatkan semua jenis pasukan PLA. Strateg virtual ini memiliki kewenangan luas, belajar cepat, dan meningkatkan taktik selama latihan digital.
Pada November, media melaporkan bahwa peneliti Tiongkok mengadaptasi model Llama 13B dari Meta untuk membuat alat ChatBIT. Neural network ini dioptimalkan untuk pengumpulan dan analisis data intel serta mendukung pengambilan keputusan operasional.
India
New Delhi juga menempatkan AI sebagai pendorong utama keamanan nasional. Pemerintah mengembangkan strategi dan program nasional, membentuk lembaga dan badan khusus untuk penerapan AI, serta meluncurkan proyek penggunaan teknologi di berbagai sektor.
Inggris
London menegaskan status AI sebagai prioritas utama. Dalam “Strategi AI untuk Pertahanan” (2022), kementerian menganggap AI sebagai komponen kunci dari angkatan bersenjata masa depan. Dalam “Tinjauan Pertahanan Strategis” (2025), teknologi ini disebut sebagai elemen fundamental dari perang modern.
Dulu, kecerdasan buatan dalam konteks militer dipandang sebagai alat bantu, tetapi kini militer Inggris berencana melakukan transformasi menjadi “pasukan yang terintegrasi secara teknologi,” di mana sistem AI akan digunakan di semua tingkat — dari analisis staf hingga medan perang.
Perlu diingat, pada Maret 2025, Pentagon mengumumkan penggunaan agen AI untuk memodelkan bentrokan dengan musuh asing.