Perusahaan AI Anthropic mencari ahli senjata untuk menghentikan pengguna dari 'penyalahgunaan'

Perusahaan AI Anthropic Cari Ahli Senjata untuk Mencegah Penyalahgunaan

1 hari yang lalu

BagikanSimpan

Zoe KleinmanEditor Teknologi

BagikanSimpan

Getty Images

Perusahaan kecerdasan buatan (AI) asal AS, Anthropic, sedang mencari ahli senjata kimia dan bahan peledak berkekuatan tinggi untuk mencoba mencegah “penyalahgunaan yang katastrofik” dari perangkat lunaknya.

Dengan kata lain, mereka khawatir bahwa alat AI mereka mungkin memberi tahu seseorang cara membuat senjata kimia atau radioaktif, dan mereka menginginkan seorang ahli untuk memastikan pengamanannya cukup kuat.

Dalam posting lowongan di LinkedIn, perusahaan menyatakan bahwa pelamar harus memiliki pengalaman minimal lima tahun dalam “pertahanan senjata kimia dan/atau bahan peledak” serta pengetahuan tentang “alat penyebar radiologis” – juga dikenal sebagai bom kotor.

Perusahaan mengatakan kepada BBC bahwa peran ini serupa dengan pekerjaan di bidang sensitif lain yang sudah mereka buat.

Anthropic bukan satu-satunya perusahaan AI yang mengadopsi strategi ini.

Posisi serupa juga diiklankan oleh pengembang ChatGPT, OpenAI. Di situs kariernya, mereka mencantumkan lowongan untuk peneliti dalam bidang “risiko biologis dan kimia”, dengan gaji hingga $455.000 (£335.000), hampir dua kali lipat dari yang ditawarkan oleh Anthropic.

Namun, beberapa ahli mengkhawatirkan risiko dari pendekatan ini, memperingatkan bahwa hal ini memberi alat AI informasi tentang senjata – bahkan jika mereka telah diprogram untuk tidak menggunakannya.

“Apakah pernah aman menggunakan sistem AI untuk menangani informasi tentang bahan kimia dan bahan peledak sensitif, termasuk bom kotor dan senjata radiologis lainnya?” kata Dr. Stephanie Hare, peneliti teknologi dan co-presenter acara TV AI Decoded BBC.

“Tidak ada perjanjian internasional atau regulasi lain untuk jenis pekerjaan ini dan penggunaan AI dengan jenis senjata ini. Semua ini berlangsung di luar penglihatan.”

Industri AI terus memperingatkan tentang potensi ancaman eksistensial yang ditimbulkan oleh teknologi mereka, tetapi tidak ada upaya untuk memperlambat kemajuannya.

Isu ini menjadi semakin mendesak saat pemerintah AS menyerukan kepada perusahaan AI sambil meluncurkan perang di Iran dan operasi militer di Venezuela.

LinkedIn

Iklan lowongan kerja perusahaan AI AS, Anthropic, merekrut ahli senjata kimia dan bahan peledak berkekuatan tinggi untuk bergabung dengan tim kebijakan mereka

Anthropic mengambil tindakan hukum terhadap Departemen Pertahanan AS, yang menandainya sebagai risiko rantai pasokan ketika perusahaan bersikeras bahwa sistem mereka tidak boleh digunakan dalam senjata otonom penuh maupun pengawasan massal terhadap warga AS.

Co-founder Anthropic, Dario Amodei, menulis pada Februari bahwa dia tidak berpikir teknologi ini cukup baik dan seharusnya tidak digunakan untuk tujuan tersebut.

Gedung Putih menyatakan bahwa militer AS tidak akan diatur oleh perusahaan teknologi.

Label risiko ini menempatkan perusahaan AS yang sama dengan Huawei, perusahaan telekomunikasi Tiongkok yang juga masuk daftar hitam karena kekhawatiran keamanan nasional yang berbeda.

OpenAI mengatakan setuju dengan posisi Anthropic, tetapi kemudian menegosiasikan kontrak sendiri dengan pemerintah AS, yang menurut mereka belum dimulai.

Asisten AI Anthropic, bernama Claude, belum dihentikan dan saat ini masih terintegrasi dalam sistem yang disediakan oleh Palantir dan digunakan oleh AS dalam perang Iran-AS-Israel.

Teknologi Besar Dukung Anthropic dalam Perlawanan terhadap Administrasi Trump

Anthropic Gugat Pemerintah AS karena Menganggapnya Risiko

Pemimpin Keamanan AI Katakan ‘Dunia dalam Bahaya’ dan Mengundurkan Diri untuk Belajar Puisi

Daftar untuk newsletter Tech Decoded kami untuk mengikuti cerita dan tren teknologi teratas dunia. Di luar Inggris? Daftar di sini.

Kecerdasan Buatan

Militer

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan