AI 快讯列表关于 记忆管理
| 时间 | 详情 |
|---|---|
|
2026-04-09 20:20 |
Anthropic Claude 源码意外泄露:50万行揭示代理架构、工具集成与分层记忆——2026深度分析
据 DeepLearning.AI 在推特所述,一次意外泄露公开了超过50万行的 Anthropic Claude 代码,展现其代理式架构:模块化工具接口、子代理群协作以及分层记忆管理。根据 DeepLearning.AI 报道,代码显示中枢编排层将任务路由至专长子代理,并通过工具适配器调用外部能力,同时以持久、情节与工作记忆三层结构支持长程规划与检索。依照 DeepLearning.AI 信息,此架构为企业带来机遇:企业自动化平台可对接 Claude 工具链,AIOps 与可观测性厂商可监控子代理与工具调用,安全公司可强化权限边界与记忆隐私管控。此外,据 DeepLearning.AI 披露的运行细节(如动态上下文压缩与函数调用模式),可用于企业评估代理在时延、成本与可靠性方面的基准。 |
|
2026-03-25 18:50 |
Claude 记忆管理实用指南:7 分钟修复顽固个性化偏差
据 God of Prompt 在 X 上转引 Andrej Karpathy 所述,LLM 的个性化漂移常由记忆系统保留陈旧上下文引发,使 Claude 在新对话中反复提及早已不相关的话题。根据该贴文,Claude 的记忆由两层组成:一层为最多 30 条的手动可编辑记忆,另一层每约 24 小时从聊天记录自动生成。按帖文建议,用户可通过 设置 → Capabilities → Memory → 查看并编辑记忆,删除过期项、修正错误假设,并仅保留长期有效的偏好(角色、工具、沟通风格)。同时,据该贴文报道,使用 Projects 可隔离话题,避免上下文串扰。对于团队与重度用户,这将带来更稳定的检索上下文,减少个性化幻觉并提升回复相关性,直接改善工作流可靠性与面向客户场景的业务效果。 |