- 主题:巨震!谷歌发布六倍大模型存储压缩技术,将导致内存价格巨跌
看得出来。
你即使平时胡言乱语也经常脉络清晰
【 在 Barbarossa 的大作中提到: 】
: 一共三段,第一段介绍谷歌技术工作原理,第二段说大模型显存配置,第三段说系统配置,非常清楚简洁。
:
: 【 在 hut 的大作中提到: 】
: : 内容乱七八糟
: : 你不是学it的吧
: : 【 在 Barbarossa 的大作中提到: 】
--发自 ismth(丝滑版)
--
FROM 27.211.205.*
671 8b 精度的,纯内存是512g还是1t来着。
后悔没这样搞一把啊,用一年多,现在卖掉就爽了
【 在 Barbarossa 的大作中提到: 】
: 没有独显也能工作?难以置信。你的大模型应该配个RTX5090比较合适,否则运行太慢了。三万块绰绰有余了
:
: 【 在 hut 的大作中提到: 】
: : 标题跟内容有什么关系呢
: : 内容就是第一段,说的就是缓存
: : 然后后面也没说什么模型压缩
--发自 ismth(丝滑版)
--
FROM 27.211.205.*
纯内存一秒蹦不出几个字,心累。
【 在 hut 的大作中提到: 】
: 我观察过大模型的运行时候的内存情况,基本上就是大模型本体载入需要的空间,比如32b的本体占硬盘大小20g,那么内存需要20g多点
: 你说的大模型70b不是70g,参数是700亿,这个需要43g的内存或者显存空间,这个模型我也装过几次
:
: 还有,你这里说的缓存跟你主楼说的不一样,主楼的意思有点像网页浏览器的缓存,你现在说的这个有点动态规划的思想,但是大模型推理起来是没法控制细节的,所以你说的不可行,只能是你我问的问题差不多,然后直接不要调用大模型了,直接把答案给后一个问的就可以了,就是网页缓存那种,当然了,问题相似度可以用小模样判断一下
: 【 在 Barbarossa 的大作中提到: 】
: : 那你的内存,够用了。显存要存大模型权重数据的,比如你的大模型70G,参数70亿,这些参数都要存的,所以说大模型很吃内存。标题说的是为什么谷歌算法能省内存,因为大模型开起来后,有大量中间数据要存,现在引入缓存,这些中间数据就不需要存了。也就不需要那么多内存
--发自 ismth(丝滑版)
--
FROM 27.211.205.*
稳拿,不要嘲笑我等地青
【 在 liangf 的大作中提到: 】
: 斯文那
: 【 在 isxb2 的大作中提到: 】
: : 671 8b 精度的,纯内存是512g还是1t来着。
: : 后悔没这样搞一把啊,用一年多,现在卖掉就爽了
--发自 ismth(丝滑版)
--
FROM 27.211.205.*
他是富人,不需要了解穷人怎么活
【 在 hut 的大作中提到: 】
: 至少是可以的
: 所以我说楼主找来的资料乱乱的
:
: 【 在 isxb2 的大作中提到: 】
: : 纯内存一秒蹦不出几个字,心累。
--发自 ismth(丝滑版)
--
FROM 27.211.205.*
你灌水也灌的这么求真务实一丝不苟理性批判,
【 在 hut 的大作中提到: 】
: 而且他连大模型的参数数量大小也不是很明白
: 一会70g一会70亿的
: 再加上他没搞明白大模型的推理运行机理
: 内存显存缓存混乱
: 所以我说他不是搞it的,他还不服
--发自 ismth(丝滑版)
--
FROM 27.211.205.*
一个月生活费呢
【 在 TexasPotato 的大作中提到: 】
: 512G内存,1T内存,这才能赚几个钱
:
: 【 在 isxb2 的大作中提到: 】
: : 671 8b 精度的,纯内存是512g还是1t来着。
: : 后悔没这样搞一把啊,用一年多,现在卖掉就爽了
--发自 ismth(丝滑版)
--
FROM 27.211.205.*
算错了-_-||
哈哈哈,
【 在 liangf 的大作中提到: 】
: 斯文那
: 【 在 isxb2 的大作中提到: 】
: : 一个月生活费呢
: --
:
: FROM 223.104.3.* [北京–朝阳区 移动]
--发自 ismth(丝滑版)
--
FROM 27.211.205.*