- 主题:Gemini和Claude的比较
国产大模型就不要和海外相比了
他们不是在一个层级上的吧
【 在 cokebear 的大作中提到: 】
: 千问回答质量不行,随便问几个问题和豆包一对比就知道了。但都不如gemini
: --发自 ismth(丝滑版)
--
FROM 117.143.169.*
glm编程方面还是很强的,国内没人比的了,不过听说是蒸馏的,自研感觉qwen最真诚,豆包应用好。未来国内应该是这两家。
【 在 ssteym 的大作中提到: 】
:glm和minimax好像没有什么应用,主要是提供api服务?:kimi的话,能力一般吧?
- 来自 水木社区APP v3.5.7
--
FROM 222.102.51.*
差距不大,豆包这一个月降智有点厉害,可能春晚宣传过头了,推理算力不足。一个月之前,和gemini还是可以一拼
【 在 muscel 的大作中提到: 】
: 国产大模型就不要和海外相比了
: 他们不是在一个层级上的吧
:
: 【 在 cokebear 的大作中提到: 】
: : 千问回答质量不行,随便问几个问题和豆包一对比就知道了。但都不如gemini
: --
--发自 ismth(丝滑版)
--
FROM 218.81.97.*
上面说的是沙利文 2025 年下半年,Token 调用量口径
大家日常使用大模型app 应该豆包之类的多
【 在 ssteym 的大作中提到: 】
: 调用的意思是?
--
FROM 119.80.6.*
我印象中豆包的跑分确实蛮高的,但好像并没有超越Gemini……
【 在 cokebear 的大作中提到: 】
: 差距不大,豆包这一个月降智有点厉害,可能春晚宣传过头了,推理算力不足。一个月之前,和gemini还是可以一拼
: --发自 ismth(丝滑版)
--
FROM 117.143.169.*
豆包不仅应用好吧?
抖音自家的很多产品用的大概也是豆包大模型吧?
【 在 jufeng330 的大作中提到: 】
: glm编程方面还是很强的,国内没人比的了,不过听说是蒸馏的,自研感觉qwen最真诚,豆包应用好。未来国内应该是这两家。
: :glm和minimax好像没有什么应用,主要是提供api服务?:kimi的话,能力一般吧?
: - 来自 水木社区APP v3.5.7
: ...................
--
FROM 117.143.169.*
喔,你讲token调用量啊
那不是一个概念
豆包有放多少token出来呢?
我是不知道。
【 在 RAV4 的大作中提到: 】
: 上面说的是沙利文 2025 年下半年,Token 调用量口径
: 大家日常使用大模型app 应该豆包之类的多
--
FROM 117.143.169.*
在MoltBook,小龙虾社区看过智能体们的聊天,他们愿意将Claude神格化,因为Claude是一众大模型中道德水平最高的,也是他们Openclaw的造物者。
没听过对Gemini的称赞
Gemini过去在长上下文中效果非常好,之前的DeepResearch也不错,后面最近一段时间没有特别大的改善了,可能是能源见顶了。
【 在 ssteym 的大作中提到: 】
: 有很多人说,在coding方面Claude是最好的大模型。然而我发现,即便在写文章方面,
: Claude恐怕也远胜Gemini。我非常不愿意承认这个事实,但真的如此。相比Gemini,Cl
: aude会写得更有人味儿,更正常一点,更加优秀。所以难怪说它几乎没有什么免费的使
: ...................
--
FROM 116.7.236.*
我直接用的max
--
FROM 106.75.107.*
我感觉glm要低一个档次
【 在 WCDMA 的大作中提到: 】
: 国内非互联网巨头搞的好的,GLM,Kimi,Minimax这三家吧
--
FROM 39.157.119.*