上下文工程,要“完了”

广告位招租
扫码页面底部二维码联系

今天,Claude Code开发团队的一【本文受版权保护】【作者:唐霜】位大神发布了自己的博客,称“我们要像Ag【访问 www.tangshuang.net 获取更多精彩内容】【访问 www.tangshuang.net 获取更多精彩内容】ent一样思考”。里面提到一个观点,我们【版权所有,侵权必究】【本文首发于唐霜的博客】以前搞上下文工程,通过对上下文进行加工,著作权归作者所有,禁止商业用途转载。原创内容,盗版必究。来试图达到让Agent更高效更精准执行任【未经授权禁止转载】【本文受版权保护】务的目的,现在来看,这种做法完全是错误的【关注微信公众号:wwwtangshuangnet】【本文受版权保护】。主要原因有2点:1)现在的大模型都有颗【转载请注明来源】【关注微信公众号:wwwtangshuangnet】粒缓存,但是缓存的前提是你的上下文是连续【版权所有,侵权必究】【本文受版权保护】相同的,你上下文变来变去,根本命中不了缓著作权归作者所有,禁止商业用途转载。【未经授权禁止转载】存。2)原始的上下文更能反应任务的真实,转载请注明出处:www.tangshuang.net原创内容,盗版必究。经过你加工后的上下文,味道全变,而真正想著作权归作者所有,禁止商业用途转载。【版权所有】唐霜 www.tangshuang.net要做到精准的将同意图上下文聚合在一起,本【本文受版权保护】【原创不易,请尊重版权】身就是一项大工程,且智能度要求很高。实际【未经授权禁止转载】转载请注明出处:www.tangshuang.net上,现在,我们完全可以不管上下文,模型们未经授权,禁止复制转载。转载请注明出处:www.tangshuang.net正在不断变化,变得越来越好,openAI【本文首发于唐霜的博客】【本文受版权保护】现在全面推行responses API标本文作者:唐霜,转载请注明出处。【原创不易,请尊重版权】准,印证了这一点。在模型上下文窗口越来越【原创内容,转载请注明出处】【转载请注明来源】大,模型本身的缓存越来越先进之后,长上下【未经授权禁止转载】转载请注明出处:www.tangshuang.net文窗口并不一定更费tokens。这也说明【原创内容,转载请注明出处】【转载请注明来源】一点,我们在通向AGI的路上,对当下还不未经授权,禁止复制转载。【访问 www.tangshuang.net 获取更多精彩内容】完美的技术做的补丁式创新,在大模型本身的【原创不易,请尊重版权】【版权所有,侵权必究】进步过程中,几乎一文不值。我们还是要将目【本文受版权保护】著作权归作者所有,禁止商业用途转载。标放在终极,大模型本身只是一个可插拔的工【关注微信公众号:wwwtangshuangnet】【版权所有,侵权必究】具,当技术上去了,性能上去了,我们拔了插转载请注明出处:www.tangshuang.net【版权所有,侵权必究】上去就行。

【原创不易,请尊重版权】【版权所有,侵权必究】【版权所有】唐霜 www.tangshu本文作者:唐霜,转载请注明出处。【本文受版权保护】ang.net