Studi Menemukan Bahwa AI Adalah Ketakutan Keamanan Siber Teratas Organisasi

Lebih dari setengah organisasi sekarang menganggap kecerdasan buatan generatif sebagai ancaman keamanan terbesar mereka, melampaui kredensial yang dicuri. Munculnya serangan yang didorong oleh AI—dari deepfake hingga phishing yang sangat dipersonalisasi—mengguncang keamanan siber, dengan kecepatan dan skala yang melampaui pertahanan tradisional.

Menurut The State of Passwordless Identity Assurance, sebuah studi dari HYPR, AI generatif dan AI agenik memungkinkan bentuk serangan baru yang sama sekali baru, termasuk deepfake dan peniruan karyawan. Studi tersebut menemukan bahwa hampir dua pertiga organisasi yang disurvei sudah menjadi target email phishing yang dipersonalisasi—pesan yang dihasilkan oleh AI yang dirancang untuk meniru eksekutif—menyoroti betapa cepatnya ancaman ini berkembang.

Phishing adalah jenis serangan siber yang paling umum dihadapi organisasi dalam 12 bulan terakhir, diikuti oleh malware dan ransomware. Temuan ini sejalan dengan studi dari Cofense, yang menemukan bahwa tingkat serangan phishing semakin meningkat, dengan filter spam menandai satu email phishing setiap 19 detik pada 2025, naik dari satu setiap 42 detik pada tahun sebelumnya.

Kecepatan Adalah Kunci

Hampir 40% responden melaporkan mengalami beberapa bentuk insiden keamanan terkait AI generatif dalam 12 bulan terakhir. Kekhawatiran semakin meningkat, karena 43% responden mengidentifikasi serangan yang didorong oleh AI sebagai perubahan paling signifikan dalam keamanan siber selama setahun terakhir.

Namun terlalu banyak organisasi masih bereaksi hanya setelah kerusakan terjadi. Tiga dari lima responden mengatakan mereka telah mengalami pajak keterlambatan, meningkatkan anggaran keamanan siber mereka hanya setelah pelanggaran telah terjadi.

Di era AI, pendekatan itu tidak lagi memadai. AI telah meningkatkan skala, kecepatan, dan efektivitas phishing dan serangan siber lainnya. Sementara sebagian besar serangan berbasis identitas terdeteksi dalam hitungan jam, otomatisasi yang didorong oleh AI memungkinkan data dicuri sebelum intervensi manusia dapat terjadi.

Ancaman dari AI Agenik

Risiko baru lainnya, perdagangan agenik, juga sedang menjadi sorotan. Menurut HYPR, agen otomatis diperkirakan akan membocorkan lebih banyak kata sandi daripada manusia tahun ini, di tengah laporan yang semakin meningkat tentang agen yang menyimpang.

Perusahaan keamanan AI Irregular baru-baru ini melakukan tes di mana agen AI diperintahkan untuk membuat posting LinkedIn menggunakan materi dari database internal perusahaan. Para agen berhasil menghindari protokol anti-peretasan dan akhirnya menerbitkan informasi kata sandi yang sensitif. Dalam kasus lain, agen AI melewati perangkat lunak antivirus untuk mengunduh file yang berisi malware.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan