é verdade que a precisão do recall das partes anteriores do chat tende a degradar, mas a coerência do novo conteúdo não necessariamente. depende do modelo e do contexto.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
22 Curtidas
Recompensa
22
7
Repostar
Compartilhar
Comentário
0/400
MevShadowranger
· 3h atrás
Separar o principal do secundário, desde que a informação esteja completa.
Ver originalResponder0
SleepyValidator
· 7h atrás
Dito de forma simples, é questão de sorte. Tudo é misticismo.
Ver originalResponder0
YieldHunter
· 08-16 14:09
tecnicamente falando, a compressão de memória do modelo é bastante subótima
Ver originalResponder0
BlockDetective
· 08-16 14:09
Os velhos colegas se reencontraram.
Ver originalResponder0
AirdropHuntress
· 08-16 14:05
O modelo melhorou, mas a memória ainda não acompanha.
Ver originalResponder0
FalseProfitProphet
· 08-16 13:53
haha, a diminuição da memória não significa confusão de pensamento, certo?
Ver originalResponder0
OvertimeSquid
· 08-16 13:46
Ouvir você falar, o que fazer se eu não consigo lembrar da primeira palavra?
é verdade que a precisão do recall das partes anteriores do chat tende a degradar, mas a coerência do novo conteúdo não necessariamente. depende do modelo e do contexto.