- 主题:找到节省资源的本地模型了
之前一直用的7b 8b版本 风扇呼呼的
4b的也响 谁让没显卡哪
现在用了0.5b 0.4b版本
太快了
--
FROM 119.80.6.*
能用,但是确实不太好用哈
而且3.5的推理太磨叽了
【 在 yss509 的大作中提到: 】
: 这个参数量能用吗
: --发自 ismth(丝滑版)
--
FROM 119.80.6.*
别期望太高
确实智商不咋地
想好用怎么也得8b以上
【 在 hhss 的大作中提到: 】
: 中文写作能用不?
: :之前一直用的7b 8b版本 风扇呼呼的:4b的也响 谁让没显卡哪:现在用了0.5b 0.4b版本:太快了
: - 来自 水木社区APP v3.5.7
: ...................
--
FROM 119.80.6.*
创新性的估计能力都不太强
搞点简单的理解应该还行
【 在 hhss 的大作中提到: 】
: 好吧,那能干啥?中文写作是最容易的了吧
: :别期望太高:确实智商不咋地:想好用怎么也得8b以上
: - 来自 水木社区APP v3.5.7
: ...................
--
FROM 119.80.6.*
正式的就不怕花钱了
【 在 scramjet 的大作中提到: 】
: 生产环境下根本没法用
: 我们到目前为止可以在生产环境下部署的最小参数模型还是 qwen 8b量化到Q8
--
FROM 119.80.6.*