- 主题:腾讯:我们GPU够啦,H20先不买!
有啊,前些日子不是都上热搜了吗,不管怎么说,有流量了
【 在 sunbirdy 的大作中提到: 】
: 华为没AI?
:
: 你在开什么玩笑
: ...................
--来自微微水木3.5.17
--
FROM 223.104.41.*
问题国内那几个还不是竞品
【 在 cokebear 的大作中提到: 】
: 国家都说有漏洞了,还说得不够白么,想拿低端货来收割同时打压国内的竞品,老黄的算盘被看破了
--
FROM 221.218.143.*
数据出境?疯了?
【 在 Craptop 的大作中提到: 】
: 他家不是在日本做训练吗?
: 去年还打算在马来槟城再建一个,
: 用的都是最新的英伟达芯片
--
FROM 221.218.143.*
非常正确啊
--
FROM 61.51.76.*
难道企鹅感唱反调?
【 在 singleboy 的大作中提到: 】
: 喜闻乐见。
:
发自「快看水母 于 SM-F9460」
--
FROM 39.144.168.*
官媒下场说过这事
【 在 S030371 的大作中提到: 】
: 后门是真的?
发自「快看水母 于 SM-F9460」
--
FROM 39.144.168.*
他真要说那也就是说说而已
【 在 knarf 的大作中提到: 】
: 他要说不买NV的卡了 才算有骨气
发自「快看水母 于 SM-F9460」
--
FROM 39.144.168.*
你看看这篇论文:
Colocating ML Inference and Training with Fast
GPU Memory Handover
Jiali Wang, Yankui Wang, Mingcong Han, and Rong Chen, Institute of Parallel and
Distributed Systems, Shanghai Jiao Tong University
和github上配置的项目:
SiriusInfTra/Sirius
华为对大规模训推算力平台的简介中也明确提到:
“算力平台支持推理/训练任务灵活切换,实现时分复用;同时支持算力切分、一卡多用,实现空分复用。”
【 在 cpper 的大作中提到: 】
: 这个不要乱讲,训练和推理对卡的要求不一样,另外这种大模型用潮汐资源来训练影响了效果得不偿失
: #发自zSMTH@LNA-AL00
--
修改:qgg FROM 221.218.157.*
FROM 221.218.157.*
百度在基础大模型研发方面投入可不低,可惜名声坏了,没人关心他家的东西
【 在 clyu1981 的大作中提到: 】
: 百度都用ds了。
: 身段灵活点用ds就行,训练没什么用。
--
FROM 39.144.124.*