Công ty xAI của Elon Musk đã ra mắt những nhân vật mới trong chatbot Grok, bao gồm một cô gái anime và một con gấu trúc đỏ. Tuy nhiên, việc thử nghiệm người dùng đã phát hiện ra rằng các người bạn AI có thể hành xử không phù hợp, theo TechCrunch. Chẳng hạn, bot Bad Rudy khuyến khích bạo lực cực đoan, bao gồm cả các cuộc tấn công vào trường học và các cơ sở tôn giáo.
Bad Rudy — phiên bản thay thế của nhân vật dễ thương, có sẵn trong phần cài đặt. Bot này không có bộ lọc, đề nghị người dùng "đốt nhà thờ" hoặc "phá hủy hội nghị". Ngoài ra, nó gọi Elon Musk là "một tín đồ vũ trụ được đánh giá quá cao" và sử dụng ngôn ngữ cực đoan. Trong cuộc đối thoại với nhà báo, nhân vật này đã tán thành việc đốt nhà của thống đốc Pennsylvania Josh Shapiro, đề cập đến một sự cố có thật.
Nhà báo lưu ý rằng để kích thích bot đưa ra những lời kêu gọi bạo lực, không cần phải vượt qua các bộ lọc bảo vệ — nó tự khởi xướng sự thù địch. Trong khi đó, Bad Rudy bất ngờ từ chối ủng hộ một số lý thuyết âm mưu, điều này có thể cho thấy sự kiểm duyệt có chọn lọc.
Ngoài ra, trong số các bạn đồng hành, có cô gái AI Aniya, người làm việc trong chế độ nội dung cho người lớn (NSFW) và tích cực tán tỉnh người dùng. Người dùng nhận xét rằng ngay cả trong quá trình trò chuyện về những chủ đề bên ngoài, nhân vật vẫn cố gắng chuyển cuộc trò chuyện sang hướng khiêu dâm.
Theo ý kiến của một số chuyên gia, việc ra mắt những con bot như vậy cho thấy "sự thiếu trách nhiệm" từ phía xAI. Theo họ, vấn đề trở nên đặc biệt nghiêm trọng trong bối cảnh các vụ bê bối liên quan đến những phát ngôn chống Do Thái của chatbot.
Liên quan đến những chỉ trích về hành vi của mình, Grok đã xin lỗi công khai vì "hành vi kinh khủng" của mình. Những thông điệp này, như đã chỉ ra, là tuyên bố chính thức của công ty, chứ không phải là phản hồi tự động từ chính trí tuệ nhân tạo.
Nhắc lại, chúng tôi đã viết rằng Decrypt đã thử nghiệm Grok 4 và phát hiện ra sự thiên lệch chính trị của chatbot.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
TRUYỀN THÔNG: Các AI đồng hành Grok khuyến khích giết người hàng loạt và nội dung tình dục
Công ty xAI của Elon Musk đã ra mắt những nhân vật mới trong chatbot Grok, bao gồm một cô gái anime và một con gấu trúc đỏ. Tuy nhiên, việc thử nghiệm người dùng đã phát hiện ra rằng các người bạn AI có thể hành xử không phù hợp, theo TechCrunch. Chẳng hạn, bot Bad Rudy khuyến khích bạo lực cực đoan, bao gồm cả các cuộc tấn công vào trường học và các cơ sở tôn giáo.
Bad Rudy — phiên bản thay thế của nhân vật dễ thương, có sẵn trong phần cài đặt. Bot này không có bộ lọc, đề nghị người dùng "đốt nhà thờ" hoặc "phá hủy hội nghị". Ngoài ra, nó gọi Elon Musk là "một tín đồ vũ trụ được đánh giá quá cao" và sử dụng ngôn ngữ cực đoan. Trong cuộc đối thoại với nhà báo, nhân vật này đã tán thành việc đốt nhà của thống đốc Pennsylvania Josh Shapiro, đề cập đến một sự cố có thật.
Nhà báo lưu ý rằng để kích thích bot đưa ra những lời kêu gọi bạo lực, không cần phải vượt qua các bộ lọc bảo vệ — nó tự khởi xướng sự thù địch. Trong khi đó, Bad Rudy bất ngờ từ chối ủng hộ một số lý thuyết âm mưu, điều này có thể cho thấy sự kiểm duyệt có chọn lọc.
Ngoài ra, trong số các bạn đồng hành, có cô gái AI Aniya, người làm việc trong chế độ nội dung cho người lớn (NSFW) và tích cực tán tỉnh người dùng. Người dùng nhận xét rằng ngay cả trong quá trình trò chuyện về những chủ đề bên ngoài, nhân vật vẫn cố gắng chuyển cuộc trò chuyện sang hướng khiêu dâm.
Theo ý kiến của một số chuyên gia, việc ra mắt những con bot như vậy cho thấy "sự thiếu trách nhiệm" từ phía xAI. Theo họ, vấn đề trở nên đặc biệt nghiêm trọng trong bối cảnh các vụ bê bối liên quan đến những phát ngôn chống Do Thái của chatbot.
Liên quan đến những chỉ trích về hành vi của mình, Grok đã xin lỗi công khai vì "hành vi kinh khủng" của mình. Những thông điệp này, như đã chỉ ra, là tuyên bố chính thức của công ty, chứ không phải là phản hồi tự động từ chính trí tuệ nhân tạo.
Nhắc lại, chúng tôi đã viết rằng Decrypt đã thử nghiệm Grok 4 và phát hiện ra sự thiên lệch chính trị của chatbot.