
How Long Contexts Fail
Taking care of your context is the key to building successful agents. Just because there’s a 1 million token context window doesn’t mean you should fill it.
本文探讨了为什么更长的上下文(Context)并不总能带来更好的 AI 模型响应,反而可能以四种令人惊讶的方式导致代理和应用程序失败:上下文中毒(Context Poisoning)、上下文干扰(Context Distraction)、上下文混淆(Context Confusion)和上下文冲突(Context Clash)。当模型在上下文中遇到错误信息、因过长的历史记录而分心、被无关信息误导或处理相互矛盾的数据时,其性能就会下降。因此,仅仅扩大上下文窗口并不能解决所有问题,反而会为复杂的代理工作流程带来新的挑战。