- 主题:有人用glm4.6吗
用opencode调用glm4.6为什么速度感觉很慢呢?
我这还是花钱买了token流量包了
--
FROM 114.249.28.*
是的就是那个入门款 首次有优惠的那个
说实话,这么慢真的很不爽。等待的时间太长了。
【 在 Peleus 的大作中提到: 】
: 据说最近买coding plan的人多
: 算力资源不够,所以慢了
: 我怀疑他家又争分夺秒训练新模型呢
--
FROM 114.249.28.*
真想让他们退钱了,虽说不多
【 在 ArchLinux 的大作中提到: 】
: 感觉就是上面说的,买的人太多了。
: 看OpenRouter的数据,GLM 4.6和4.7,提供商z.ai throughput和uptime都很难看。
:
--
FROM 114.249.28.*
免费的我就不抱怨了
花了钱的,但是比之前我用deepseek慢的太多了
【 在 prettyPIG 的大作中提到: 】
: 你用的默认的免费的那个?
: 自己花点钱弄个api key,速度好像好一些。
:
--
FROM 114.249.28.*
好的
【 在 kayka 的大作中提到: 】
: 可以试试carrycode.ai,原生支持LLM延迟检测,还加强了对code plan的适配和token数量统计。
: 发自「今日水木 on iPhone 15 Pro」
--
FROM 114.249.28.*
glm5出来了,这也有点太快了
【 在 kayka 的大作中提到: 】
: opencode不止是慢的问题,opencode对glm的工具调用支持很差,使用glm时经常推理出来一些带标签的内容,导致glm预测异常提前结束。
: 发自「今日水木 on iPhone 15 Pro」
--
FROM 114.249.28.*