水木社区手机版
首页
|版面-苹果(Apple)|
新版wap站已上线
返回
1/1
|
转到
主题:求用mac本地跑大模型的使用感受
5楼
|
toyarmybin
|
2024-04-25 01:54:47
|
展开
有一个苹果M芯片专属的MLX大模型框架,可以调用LLaMA和Stable Diffusion等,可以试
试看:)
【 在 chunhui 的大作中提到: 】
: 最近出了llama3,很多人说可以顶gpt4了。而且可以本地跑。各位有人这么用的么?给介绍一下。如果很好用,考虑也弄一个。
--
FROM 171.216.136.*
24楼
|
toyarmybin
|
2024-04-27 13:21:05
|
展开
土豪好,你可以用硬件费用的零头找个计算机系大学生,试完所有模型再给你出份报告:)
【 在 beaver 的大作中提到: 】
: 128G的版本,或者192G的版本,能跑什么模型啊,效果如何?
--
FROM 118.114.94.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版