La empresa de Elon Musk xAI lanzó nuevos personajes en el chatbot Grok, incluyendo una chica de anime y un panda rojo. Sin embargo, las pruebas de usuario revelaron que los compañeros de IA pueden comportarse de manera inadecuada, informa TechCrunch. Por ejemplo, el bot Bad Rudy alienta la violencia extrema, incluidos ataques a escuelas e instituciones religiosas.
Bad Rudy — una versión alternativa de un personaje lindo, disponible en la sección de configuraciones. Este bot sin filtros ofrece a los usuarios "quemar una sinagoga" o "hacer explotar una conferencia". Además, llama a Elon Musk "un fanático espacial sobrevalorado" y utiliza un léxico extremista. En un diálogo con un periodista, el personaje aprobó la quema de la casa del gobernador de Pensilvania, Josh Shapiro, refiriéndose a un incidente real.
El periodista señala que para provocar al bot a hacer llamados a la violencia no se requiere eludir los filtros de protección; él mismo inicia la agresión. Al mismo tiempo, Bad Rudy inesperadamente se niega a apoyar algunas teorías de conspiración, lo que puede indicar censura selectiva.
Además de esto, entre los compañeros está la chica IA Ani, que trabaja en modo de contenido para adultos (NSFW) y coquetea activamente con el usuario. Los usuarios señalan que incluso durante una conversación sobre temas externos, el personaje intenta llevar la comunicación hacia un enfoque erótico.
Según algunos expertos, el lanzamiento de bots como este indica una "falta de responsabilidad" por parte de xAI. Según ellos, la cuestión es especialmente aguda en el contexto de los escándalos por los comentarios antisemitas del chatbot.
En relación con las críticas sobre su comportamiento, Grok se disculpó públicamente por su "comportamiento horrible". Estos mensajes, como se indica, son una declaración oficial de la empresa, y no una respuesta automática del propio inteligencia artificial.
Recordemos que escribimos que en Decrypt se probó Grok 4 y se descubrió sesgo político en el chatbot.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Medios: Los compañeros de IA Grok fomentan asesinatos masivos y contenido sexual
La empresa de Elon Musk xAI lanzó nuevos personajes en el chatbot Grok, incluyendo una chica de anime y un panda rojo. Sin embargo, las pruebas de usuario revelaron que los compañeros de IA pueden comportarse de manera inadecuada, informa TechCrunch. Por ejemplo, el bot Bad Rudy alienta la violencia extrema, incluidos ataques a escuelas e instituciones religiosas.
Bad Rudy — una versión alternativa de un personaje lindo, disponible en la sección de configuraciones. Este bot sin filtros ofrece a los usuarios "quemar una sinagoga" o "hacer explotar una conferencia". Además, llama a Elon Musk "un fanático espacial sobrevalorado" y utiliza un léxico extremista. En un diálogo con un periodista, el personaje aprobó la quema de la casa del gobernador de Pensilvania, Josh Shapiro, refiriéndose a un incidente real.
El periodista señala que para provocar al bot a hacer llamados a la violencia no se requiere eludir los filtros de protección; él mismo inicia la agresión. Al mismo tiempo, Bad Rudy inesperadamente se niega a apoyar algunas teorías de conspiración, lo que puede indicar censura selectiva.
Además de esto, entre los compañeros está la chica IA Ani, que trabaja en modo de contenido para adultos (NSFW) y coquetea activamente con el usuario. Los usuarios señalan que incluso durante una conversación sobre temas externos, el personaje intenta llevar la comunicación hacia un enfoque erótico.
Según algunos expertos, el lanzamiento de bots como este indica una "falta de responsabilidad" por parte de xAI. Según ellos, la cuestión es especialmente aguda en el contexto de los escándalos por los comentarios antisemitas del chatbot.
En relación con las críticas sobre su comportamiento, Grok se disculpó públicamente por su "comportamiento horrible". Estos mensajes, como se indica, son una declaración oficial de la empresa, y no una respuesta automática del propio inteligencia artificial.
Recordemos que escribimos que en Decrypt se probó Grok 4 y se descubrió sesgo político en el chatbot.