- 主题:巨震!谷歌发布六倍大模型存储压缩技术,将导致内存价格巨跌
原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB显存,极简版7B大模型也要13GB。显存不足会直接导致内存溢出,无法运行。
除此以外, 系统内存用来辅助加载、预处理数据,通常要求系统内存≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
--
修改:Barbarossa FROM 14.18.99.*
FROM 14.18.99.*
竟有此事
【 在 Barbarossa 的大作中提到: 】
: 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
:
: 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB,显存,极简版7B大模型也要13GB。显存不足会直接内存溢,无法运行。
: 除此以外, 系统内存用来辅助加载、预处理数据,通常要求≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
:
: --
--发自 ismth(丝滑版)
--
FROM 112.96.123.*
内容乱七八糟
你不是学it的吧
【 在 Barbarossa 的大作中提到: 】
: 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
: 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB显存,极简版7B大模型也要13GB。显存不足会直接导致内存溢出,无法运行。
: 除此以外, 系统内存用来辅助加载、预处理数据,通常要求系统内存≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
--
FROM 112.2.77.*
千真万确
【 在 xiaofeizai 的大作中提到: 】
: 竟有此事
:
: 【 在 Barbarossa 的大作中提到: 】
: : 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
: :
: : 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB,显存,极简版7B大模型也要13GB。显存不足会直接内存溢,无法运行。
--发自 ismth(丝滑版)
--
FROM 14.18.99.*
你指出一下,哪里乱七八糟,你随便说一个地方。这里我精心编辑过了,比古代文言文还要言简意赅
【 在 hut 的大作中提到: 】
: 内容乱七八糟
: 你不是学it的吧
: 【 在 Barbarossa 的大作中提到: 】
: : 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
: : 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB显存,极简版7B大模型也要13GB。显存不足会直接导致内存溢出,无法运行。
: : 除此以外, 系统内存用来辅助加载、预处理数据,通常要求系统内存≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
--发自 ismth(丝滑版)
--
FROM 14.18.99.*
一共三段,第一段介绍谷歌技术工作原理,第二段说大模型显存配置,第三段说系统配置,非常清楚简洁。
【 在 hut 的大作中提到: 】
: 内容乱七八糟
: 你不是学it的吧
: 【 在 Barbarossa 的大作中提到: 】
: : 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
: : 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB显存,极简版7B大模型也要13GB。显存不足会直接导致内存溢出,无法运行。
: : 除此以外, 系统内存用来辅助加载、预处理数据,通常要求系统内存≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
--发自 ismth(丝滑版)
--
FROM 14.18.99.*
谷歌除了搜索,其他方面很多东西都是虎头蛇尾,比如谷歌眼镜,谷歌之前还想搞物流
【 在 Barbarossa 的大作中提到: 】
: 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
: 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB显存,极简版7B大模型也要13GB。显存不足会直接导致内存溢出,无法运行。
: 除此以外, 系统内存用来辅助加载、预处理数据,通常要求系统内存≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
--
FROM 116.128.189.*
这是事实,但现在内存价格翻了好几倍,现在谷歌这种技术能让内存涨价歪风戛然而止
【 在 TexasPotato 的大作中提到: 】
: 谷歌除了搜索,其他方面很多东西都是虎头蛇尾,比如谷歌眼镜,谷歌之前还想搞物流
:
: 【 在 Barbarossa 的大作中提到: 】
: : 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
: : 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB显存,极简版7B大模型也要13GB。显存不足会直接导致内存溢出,无法运行。
: : 除此以外, 系统内存用来辅助加载、预处理数据,通常要求系统内存≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
--发自 ismth(丝滑版)
--
FROM 14.18.99.*
三年不开张,开张吃三年,九十九种技术不赚钱,一种大发横财就够了
【 在 TexasPotato 的大作中提到: 】
: 谷歌除了搜索,其他方面很多东西都是虎头蛇尾,比如谷歌眼镜,谷歌之前还想搞物流
:
: 【 在 Barbarossa 的大作中提到: 】
: : 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
: : 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB显存,极简版7B大模型也要13GB。显存不足会直接导致内存溢出,无法运行。
: : 除此以外, 系统内存用来辅助加载、预处理数据,通常要求系统内存≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
--发自 ismth(丝滑版)
--
FROM 14.18.99.*
看得出来。
你即使平时胡言乱语也经常脉络清晰
【 在 Barbarossa 的大作中提到: 】
: 一共三段,第一段介绍谷歌技术工作原理,第二段说大模型显存配置,第三段说系统配置,非常清楚简洁。
:
: 【 在 hut 的大作中提到: 】
: : 内容乱七八糟
: : 你不是学it的吧
: : 【 在 Barbarossa 的大作中提到: 】
--发自 ismth(丝滑版)
--
FROM 27.211.205.*