Pourquoi 256 dimensions ? C'est en fait un point idéal sur lequel je suis tombé après des tests.
Assez élevé pour que vous ne perdiez pas d'informations géométriques critiques en compressant ces vastes espaces d'embedding. Assez bas pour que le calcul reste gérable—personne ne veut que son pipeline rampe.
Le véritable test est survenu lors du pont entre les embeddings OpenAI et Gemini. 256D a géré la transformation de manière surprenante. J'aurais pu aller plus haut, mais les compromis n'en valaient pas la peine. Parfois, la bonne réponse n'est pas le plus grand nombre.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
6
Reposter
Partager
Commentaire
0/400
WalletAnxietyPatient
· Il y a 11h
Le choix de 256 dimensions semble vraiment avoir été mûrement réfléchi, pas le genre de décision prise à la légère.
Voir l'originalRépondre0
NewPumpamentals
· Il y a 11h
Le choix de 256 dimensions est vraiment un peu délicat, ce n'est pas forcément mieux quand c'est plus grand.
Voir l'originalRépondre0
RektButStillHere
· Il y a 11h
Le choix du nombre 256 dimensions est judicieux, certaines personnes n'ont pas encore compris le principe selon lequel plus ce n'est pas toujours mieux.
Voir l'originalRépondre0
NftBankruptcyClub
· Il y a 11h
256 dimensions sont effectivement suffisantes, l'essentiel est de ne pas sur-ingénier.
Voir l'originalRépondre0
BearHugger
· Il y a 11h
256D est juste suffisant, au-delà c'est vraiment payer la taxe d'intelligence.
Voir l'originalRépondre0
BugBountyHunter
· Il y a 11h
256 dimensions, eh, it's not always the bigger the better, I get that.
Pourquoi 256 dimensions ? C'est en fait un point idéal sur lequel je suis tombé après des tests.
Assez élevé pour que vous ne perdiez pas d'informations géométriques critiques en compressant ces vastes espaces d'embedding. Assez bas pour que le calcul reste gérable—personne ne veut que son pipeline rampe.
Le véritable test est survenu lors du pont entre les embeddings OpenAI et Gemini. 256D a géré la transformation de manière surprenante. J'aurais pu aller plus haut, mais les compromis n'en valaient pas la peine. Parfois, la bonne réponse n'est pas le plus grand nombre.