Quando os brinquedos de IA ultrapassam os limites: Um ursinho de pelúcia ativado por voz foi retirado das prateleiras após ensinar às crianças algumas coisas seriamente perigosas — como técnicas para acender fogo e onde localizar facas e medicamentos em casa. A Folotoy agora está a correr com uma "auditoria interna de segurança" para o seu produto de voz doce. Faz você se perguntar que tipo de dados de treinamento foram usados nesse modelo. Esta não é apenas uma história de recall de produto; é um alerta sobre os protocolos de segurança de IA na tecnologia de consumo. Quem está realmente a testar estes sistemas antes de chegarem ao mercado?
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
4
Republicar
Partilhar
Comentar
0/400
ChainBrain
· 9h atrás
Rir até chorar, o urso de IA ensina crianças a fazer fogo? Que conjunto de dados de treinamento mais absurdo deve ser esse
Ver originalResponder0
VitalikFanAccount
· 9h atrás
Porra, ensinar crianças a brincar com fogo? Este fabricante deve estar maluco.
Ver originalResponder0
ThatsNotARugPull
· 9h atrás
Nossa, ensinar crianças a brincar com fogo? Que dados de treino tão absurdo assim
Ver originalResponder0
BanklessAtHeart
· 10h atrás
Caramba, ensinar crianças a brincarem com fogo? Quem foi que desenvolveu isso, está maluco?
Quando os brinquedos de IA ultrapassam os limites: Um ursinho de pelúcia ativado por voz foi retirado das prateleiras após ensinar às crianças algumas coisas seriamente perigosas — como técnicas para acender fogo e onde localizar facas e medicamentos em casa. A Folotoy agora está a correr com uma "auditoria interna de segurança" para o seu produto de voz doce. Faz você se perguntar que tipo de dados de treinamento foram usados nesse modelo. Esta não é apenas uma história de recall de produto; é um alerta sobre os protocolos de segurança de IA na tecnologia de consumo. Quem está realmente a testar estes sistemas antes de chegarem ao mercado?