上下文不是越长越好
随着历史对话、工具输出、文档内容不断堆积,模型成本与延迟会明显上升,同时对真正关键线索的注意力会下降。
Context Engineering
Context engineering 不是简单地往 prompt 里加更多文字,而是持续地组装、压缩、筛选与注入信息,让 agent 在有限上下文里做出更稳定的判断。
随着历史对话、工具输出、文档内容不断堆积,模型成本与延迟会明显上升,同时对真正关键线索的注意力会下降。
一个生产级 agent 需要根据当前目标、用户身份、任务阶段与历史事件,动态拼装上下文,而不是机械拼接全部内容。
Harness Engineer 要做的是建立上下文治理机制,让 agent 有边界、有优先级、有恢复能力。
适合任务短、依赖近期上下文的场景,但会丢失更早的重要信息。
在固定 token 预算下纳入最多内容,简单直接,但并不理解信息价值。
把旧对话变成摘要,适合长任务,但要警惕摘要带来的不可逆信息损失。
只要 URL、文档路径、工具输出索引仍在,原始内容就可以暂时退出上下文,而不是彻底消失。
把目标、todo 或阶段计划不断重写到近期上下文里,可以减少模型在长任务中偏离目标。
错误工具调用和失败路径不应被抹掉,因为它们是 agent 调整后续行动的重要证据。
这些问题覆盖 Harness Engineer、Context Engineering、Sessions 与 Memory 的高频搜索意图。
Prompt engineering 更偏单次输入优化,context engineering 更偏系统层面的动态信息治理与任务状态控制。
因为 Harness Engineer 的核心价值之一,就是保证 agent 在长任务、多工具、多轮会话中依旧能拿到合适的上下文。
下一步
我们可以帮助你梳理上下文层、session 策略、memory 调用方式与评估框架。