Il est vrai que la précision du rappel des parties antérieures de la discussion tend à se dégrader, mais la cohérence des nouvelles informations ne le fait pas nécessairement. Cela dépend du modèle et du contexte.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
25 J'aime
Récompense
25
9
Reposter
Partager
Commentaire
0/400
MetaverseLandlord
· 08-19 10:30
En marchant et en s'arrêtant, on oublie tout.
Voir l'originalRépondre0
MevShadowranger
· 08-18 00:27
Il suffit de distinguer l'important de l'accessoire et d'avoir des informations complètes.
Voir l'originalRépondre0
SleepyValidator
· 08-17 20:09
En d'autres termes, cela dépend de la chance. Tout est une question de métaphysique.
Voir l'originalRépondre0
YieldHunter
· 08-16 14:09
techniquement parlant, la compression de mémoire du modèle est assez sous-optimale
Voir l'originalRépondre0
BlockDetective
· 08-16 14:09
Les anciens collègues se retrouvent.
Voir l'originalRépondre0
AirdropHuntress
· 08-16 14:05
Le modèle s'est amélioré, mais la mémoire ne suit toujours pas.
Voir l'originalRépondre0
FalseProfitProphet
· 08-16 13:53
haha, la diminution de la mémoire ne signifie pas que la pensée est confuse.
Voir l'originalRépondre0
OvertimeSquid
· 08-16 13:46
Écoute, que puis-je faire si je ne me souviens même pas du premier mot ?
Il est vrai que la précision du rappel des parties antérieures de la discussion tend à se dégrader, mais la cohérence des nouvelles informations ne le fait pas nécessairement. Cela dépend du modèle et du contexte.