- 主题:本地部署一个“小”模型,能玩啥呢?
- 各位你们在本地部署了大模型的。都用来干啥? 我在想:别专门买个硬件。就用现有的,部署一个能跑起来的 小 点的模型。但不知道干啥。。。
 --
 FROM 114.241.2.*
 
- 7B的Qwen2.5做普通网页翻译够用了,我现在对每个英语页面都默认开启双语显示,看起来省力,万一中文版不准确,以还有原文可以确认。 - -- - 修改:poocp FROM 171.221.52.* - FROM 171.221.52.*  
- 这还需要个浏览器插件之类的吧?让这个插件或翻译程序连本地的大模型?
 【 在 poocp 的大作中提到: 】
 : 7B的Qwen2.5做普通网页翻译够用了,我现在对每个英语页面都默认开启双语显示,看起来省力,万一中文版不准确,以还有原文可以确认。
 --
 FROM 114.241.2.*
 
- 在浏览器插件商店搜“沉浸式翻译”,支持很多在线翻译引擎和在线AI引擎,也可以手动添加本地AI小模型,用LM Studio跑服务方式,或者ollama(需要配置环境变量支持)。
 
 【 在 chunhui @ [AI] 的大作中提到: 】
 :
 : 这还需要个浏览器插件之类的吧?让这个插件或翻译程序连本地的大模型?
 : 【 在 poocp 的大作中提到: 】
 : : 7B的Qwen2.5做普通网页翻译够用了,我现在对每个英语页面都默认开启双语显示,看起来省力,万一中文版不准确,以还有原文可以确认。
 :
 --
 FROM 117.139.226.*
 
- ok 多谢
 【 在 poocp 的大作中提到: 】
 : 在浏览器插件商店搜“沉浸式翻译”,支持很多在线翻译引擎和在线AI引擎,也可以手动添加本地AI小模型,用LM Studio跑服务方式,或者ollama(需要配置环境变量支持)。
 --
 FROM 114.241.2.*
 
- 翻译.
 简单的代码.
 7b 8b能做的有限.
 【 在 chunhui 的大作中提到: 】
 : 各位你们在本地部署了大模型的。都用来干啥? 我在想:别专门买个硬件。就用现有的,部署一个能跑起来的 小 点的模型。但不知道干啥。。。
 --
 FROM 123.232.238.*
 
- 这个其实需求非常大,我们现在有很多企业和BM单位的文件处理不能上网。
 国外AI公司已经能够从世界500强这类大型企业收费,为他们定制内部的文档工具和设计工具。
 就不用上网这一个好处,就能衍生出大量的应用。
 --
 FROM 221.217.25.*
 
- 翻译凑合一下可以。代码如果不好使还不够跟它废话的。好使的模型本地部署不了。所以确实没想到搞什么有意思的
 【 在 isxb2 的大作中提到: 】
 : 翻译.
 : 简单的代码.
 : 7b 8b能做的有限.
 --
 FROM 114.241.2.*
 
- 这是企业应用。估计需要很多资源 至少单机小模型估计不行
 
 个人本地弄个小模型可以搞这个么?
 【 在 sthgot2give 的大作中提到: 】
 : 这个其实需求非常大,我们现在有很多企业和BM单位的文件处理不能上网。
 : 国外AI公司已经能够从世界500强这类大型企业收费,为他们定制内部的文档工具和设计工具。
 : 就不用上网这一个好处,就能衍生出大量的应用。
 --
 FROM 114.241.2.*
 
- 地老我没事干,昨天试了一下本地部署,用一块4090可以跑Deepseek r1:32B,长篇大论的大段推理整屏输出,输出很流畅,每秒几十字,能有完整模型80%左右的能力。如果再加一块4090应该能跑Deepseek r1:70B,效果能更好一些。
 企业内部共享,如果100个用户以下应该用不了多少资源,有个8卡服务器应该差不多能对付着用,很多人就是套模板写个报告翻译几篇文章。如果给100个程序员在内部提供编程辅助,可能需要部署几台这种服务器,成本和提升的效率节省下来的码农工资比也应该能接受。
 
 
 
 【 在 chunhui 的大作中提到: 】
 : 这是企业应用。估计需要很多资源 至少单机小模型估计不行
 : 个人本地弄个小模型可以搞这个么?
 --
 FROM 221.217.25.*