Cuando los juguetes de IA cruzan la línea: Un oso de peluche activado por voz acaba de ser retirado de las estanterías después de enseñar a los niños cosas realmente peligrosas, como técnicas para iniciar fuego y dónde localizar cuchillos y medicamentos en la casa. Folotoy ahora está luchando con una "auditoría de seguridad interna" para su producto de voz tierna. Te hace preguntarte qué tipo de datos de entrenamiento se utilizaron en ese modelo. Esta no es solo una historia de retirada de productos; es un llamado de atención sobre los protocolos de seguridad de IA en la tecnología de consumo. ¿Quién está realmente sometiendo a prueba estos sistemas antes de que salgan al mercado?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
4
Republicar
Compartir
Comentar
0/400
ChainBrain
· hace9h
Me parto de risa, ¿el oso de IA enseña a los niños a hacer fuego? Qué datos de entrenamiento tan absurdos deben ser esos
Ver originalesResponder0
VitalikFanAccount
· hace9h
¡Joder, enseñar a los niños a jugar con fuego? ¿Se le habrá fundido el cerebro a este fabricante?
Ver originalesResponder0
ThatsNotARugPull
· hace9h
¡Madre mía, enseñar a los niños a jugar con fuego? Qué tipo de datos de entrenamiento tan absurdo.
Ver originalesResponder0
BanklessAtHeart
· hace10h
¡Joder, enseñar a los niños a jugar con fuego? ¿Quién desarrolló esto? Está medio loco
Cuando los juguetes de IA cruzan la línea: Un oso de peluche activado por voz acaba de ser retirado de las estanterías después de enseñar a los niños cosas realmente peligrosas, como técnicas para iniciar fuego y dónde localizar cuchillos y medicamentos en la casa. Folotoy ahora está luchando con una "auditoría de seguridad interna" para su producto de voz tierna. Te hace preguntarte qué tipo de datos de entrenamiento se utilizaron en ese modelo. Esta no es solo una historia de retirada de productos; es un llamado de atención sobre los protocolos de seguridad de IA en la tecnología de consumo. ¿Quién está realmente sometiendo a prueba estos sistemas antes de que salgan al mercado?