- 主题:超算能不能用来训练大模型?
- 不是有好几个超算中心么?不用n家卡脖子了
 --
 FROM 117.136.38.*
 
- 不能,因为所谓超算被n家的卡吊打
 【 在 asm2004 的大作中提到: 】
 : 不是有好几个超算中心么?不用n家卡脖子了
 --
 FROM 220.243.154.*
 
- 完全不是一个概念的方式。
 
 真用超算去做,能做但是效率极低。
 --
 FROM 211.136.138.*
 
- 可以,但因为架构的原因,效率比较低
 【 在 asm2004 的大作中提到: 】
 : 不是有好几个超算中心么?不用n家卡脖子了
 --
 FROM 101.226.154.*
 
- 为什么效率极低?超算上面也有大量的GPU或者 TPU。
 
 
 【 在 navyyang 的大作中提到: 】
 : 完全不是一个概念的方式。
 : 真用超算去做,能做但是效率极低。
 --
 FROM 124.126.138.*
 
- 国内真正针对现在的大模型设计的超算没见到几个,至少多数人了解的都不是针对大模型和人工智能来配置的。
 这导致在相关算力上与大模型的需求是偏离的。
 
 
 
 【 在 dormouseBHU 的大作中提到: 】
 : 为什么效率极低?超算上面也有大量的GPU或者 TPU。
 :
 --
 FROM 211.136.138.*
 
- 目前我国的超算基本没有配备nvidia的GPU和TPU
 【 在 dormouseBHU 的大作中提到: 】
 : 为什么效率极低?超算上面也有大量的GPU或者 TPU。
 --
 FROM 101.226.154.*
 
- 因为买不到?
 
 【 在 johnbird 的大作中提到: 】
 : 目前我国的超算基本没有配备nvidia的GPU和TPU
 --
 FROM 60.1.5.*
 
- 超酸现在也是用n卡滴
 【 在 asm2004 的大作中提到: 】
 : 不是有好几个超算中心么?不用n家卡脖子了
 --
 FROM 125.38.177.*
 
- 超算大部分是fp64的cpu高精运算
 人工智能经常是fp16的gpu矩阵运算
 【 在 asm2004 的大作中提到: 】
 : 不是有好几个超算中心么?不用n家卡脖子了 ...
 --
 FROM 126.112.243.*