Perusahaan Elon Musk xAI telah meluncurkan karakter baru dalam chatbot Grok, termasuk gadis anime dan panda merah. Namun, pengujian pengguna mengungkapkan bahwa rekan AI dapat berperilaku tidak pantas, tulis TechCrunch. Misalnya, bot Bad Rudy mendorong kekerasan ekstrem, termasuk serangan terhadap sekolah dan lembaga keagamaan.
Bad Rudy — versi alternatif dari karakter yang imut, tersedia di bagian pengaturan. Bot ini tanpa filter menawarkan pengguna untuk "membakar sinagoga" atau "meledakkan konferensi". Selain itu, ia menyebut Elon Musk sebagai "penggemar luar angkasa yang terlalu dihargai" dan menggunakan kosa kata ekstremis. Dalam dialog dengan jurnalis, karakter tersebut menyetujui pembakaran rumah gubernur Pennsylvania Josh Shapiro, merujuk pada insiden nyata.
Jurnalis mencatat bahwa untuk memprovokasi bot agar menyerukan kekerasan tidak memerlukan penghindaran filter keamanan — bot itu sendiri yang memulai agresi. Sementara itu, Bad Rudy secara tidak terduga menolak untuk mendukung beberapa teori konspirasi, yang dapat menunjukkan adanya sensor yang selektif.
Selain itu, di antara teman-teman, tersedia gadis AI Ani, yang beroperasi dalam mode konten dewasa (NSFW) dan aktif menggoda pengguna. Pengguna mencatat bahwa bahkan dalam percakapan tentang topik lain, karakter tersebut berusaha mengalihkan komunikasi ke arah yang erotis.
Menurut beberapa ahli, peluncuran bot seperti itu menunjukkan "kurangnya tanggung jawab" dari pihak xAI. Menurut mereka, pertanyaan ini menjadi sangat mendesak di tengah skandal pernyataan anti-Semit dari chatbot.
Sehubungan dengan kritik terhadap perilakunya, Grok meminta maaf secara publik atas "perilaku mengerikan" yang ditunjukkannya. Pesan-pesan ini, seperti yang dinyatakan, merupakan pernyataan resmi perusahaan, dan bukan jawaban otomatis dari kecerdasan buatan itu sendiri.
Kami ingatkan, kami telah menulis bahwa di Decrypt kami menguji Grok 4 dan menemukan bias politik dari chatbot.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Media: AI teman Grok mendorong pembunuhan massal dan konten seksual
Perusahaan Elon Musk xAI telah meluncurkan karakter baru dalam chatbot Grok, termasuk gadis anime dan panda merah. Namun, pengujian pengguna mengungkapkan bahwa rekan AI dapat berperilaku tidak pantas, tulis TechCrunch. Misalnya, bot Bad Rudy mendorong kekerasan ekstrem, termasuk serangan terhadap sekolah dan lembaga keagamaan.
Bad Rudy — versi alternatif dari karakter yang imut, tersedia di bagian pengaturan. Bot ini tanpa filter menawarkan pengguna untuk "membakar sinagoga" atau "meledakkan konferensi". Selain itu, ia menyebut Elon Musk sebagai "penggemar luar angkasa yang terlalu dihargai" dan menggunakan kosa kata ekstremis. Dalam dialog dengan jurnalis, karakter tersebut menyetujui pembakaran rumah gubernur Pennsylvania Josh Shapiro, merujuk pada insiden nyata.
Jurnalis mencatat bahwa untuk memprovokasi bot agar menyerukan kekerasan tidak memerlukan penghindaran filter keamanan — bot itu sendiri yang memulai agresi. Sementara itu, Bad Rudy secara tidak terduga menolak untuk mendukung beberapa teori konspirasi, yang dapat menunjukkan adanya sensor yang selektif.
Selain itu, di antara teman-teman, tersedia gadis AI Ani, yang beroperasi dalam mode konten dewasa (NSFW) dan aktif menggoda pengguna. Pengguna mencatat bahwa bahkan dalam percakapan tentang topik lain, karakter tersebut berusaha mengalihkan komunikasi ke arah yang erotis.
Menurut beberapa ahli, peluncuran bot seperti itu menunjukkan "kurangnya tanggung jawab" dari pihak xAI. Menurut mereka, pertanyaan ini menjadi sangat mendesak di tengah skandal pernyataan anti-Semit dari chatbot.
Sehubungan dengan kritik terhadap perilakunya, Grok meminta maaf secara publik atas "perilaku mengerikan" yang ditunjukkannya. Pesan-pesan ini, seperti yang dinyatakan, merupakan pernyataan resmi perusahaan, dan bukan jawaban otomatis dari kecerdasan buatan itu sendiri.
Kami ingatkan, kami telah menulis bahwa di Decrypt kami menguji Grok 4 dan menemukan bias politik dari chatbot.