AI产品狙击手

专注于大语言模型LLM,文生图模型Stable Diffusion, 视频生成模型等免费AI工具的分享和应用,助你掌握最前沿的AI技术

0%

Trae solo 健忘?试下上下文压缩!

现在的大语言模型都号称支持长上下文,但是我们用着用着就会发现它还是经常会忘记前面你说过什么,比如豆包和混元都有这种问题。Trae solo就提供了一个解决方案,压缩上下文。大家在对话框上方这里就能找到。我想工作原理应该很简单,就是将老的上下文丢给背后的大语言模型做总结,从而实现压缩效果…