主要是我发现3pro的上下文只要稍微一长,有时候才50k左右,就开始忘东西、忽略开头的
指令约束之类的
网上的测试也和我的体感一致,你可以看一下github上的Lianues/LLM-NeedleInAHaystack
【 在 lvsoft 的大作中提到: 】
: 为啥啊?3pro是我唯一使用的模型。上下文长度都是1m的,但你不能真当1m去用,长上下文情况下能力会退化,只能做点简单的任务。
: 2.5pro是没法coding的,2.5pro的宏观规划很不错,但执行细节非常差,可以类比为老奶奶穿针一样,细节干不好,只能做管理不能让它干活。
: 3flash确实是综合很不错的,但能力和3pro比还差一档。
: ...................
--
FROM 115.150.225.*