La fonction de traduction d'un grand modèle est vraiment un peu aberrante. On approche de 2026, et ce niveau de LLM continue à faire des erreurs élémentaires — comme translittérer directement "妙" en "miao". Quelle logique de traduction basée sur la transcription phonétique rigide a permis cela ? Quel type de données d'entraînement et de stratégies de fine-tuning sont nécessaires pour produire un résultat aussi magique ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
4
Reposter
Partager
Commentaire
0/400
MEVHunterX
· Il y a 5h
Miao... Attends, cette logique de traduction est vraiment géniale, tu joues encore avec la transcription pinyin en 2026 ? Est-ce une façon de tester la patience des utilisateurs ?
Voir l'originalRépondre0
LiquidityWitch
· Il y a 5h
miao哈哈, cette traduction est vraiment aberrante, qu'est-ce que c'est que cette opération de translittération pinyin à l'état brut
Voir l'originalRépondre0
SchrodingerPrivateKey
· Il y a 6h
Miao directement en traduction ? C'est vraiment absurde, je pensais que c'était une IA de 2024.
Voir l'originalRépondre0
FreeMinter
· Il y a 6h
Haha cette capacité de traduction est vraiment médiocre, on est déjà en 2026 et ils jouent encore avec des jeux de pinyin
---
Translittérer directement "妙" en miao, c'est sérieux ?
---
Non, comment ces erreurs basiques peuvent-elles passer la validation et être publiées ? Les données d'entraînement doivent être complètement aberrantes
---
"miao"... Je veux juste demander qui a donné son accord pour la mise en ligne
---
La traduction par gros modèle est vraiment difficile à supporter, les erreurs basiques se multiplient
---
Cette stratégie de fine-tuning est tout simplement absurde, elle transforme le LLM en un convertisseur de pinyin
La fonction de traduction d'un grand modèle est vraiment un peu aberrante. On approche de 2026, et ce niveau de LLM continue à faire des erreurs élémentaires — comme translittérer directement "妙" en "miao". Quelle logique de traduction basée sur la transcription phonétique rigide a permis cela ? Quel type de données d'entraînement et de stratégies de fine-tuning sont nécessaires pour produire un résultat aussi magique ?