我头一次听这个问题的时候,寻思,这不简单,现在模型的上下文那么老长,“用向量数据库存历史对话,每次检索相关内容拼进去”,不就得了。然后过年吃饭和一个做算法的同学聊到这里,他告诉我,这样回答根本拿不到分。1.先看GPT咋做的前阵子网上比较火的一个帖子,有开发者通过对话实验,把ChatGPT的记忆机制逆向了出来。结果挺让人意外的,整套系统没有向量数据库,没有RAG,没有 Embedding 召回,甚至连相似度匹配都没做。就是四层纯结构化设计,干干净净。我当时也疑惑:GPT又不算Agent,这个例子能说明什么?你先罚一杯!ChatGPT的确是对话产品,不是严格意义上的Agent。但它的Memory设...