- 主题:巨无霸大模型的神秘涌现能力,将重塑地球
后两句几乎是必然的
现在很多人都看到了未来趋势啊
【 在 huipj 的大作中提到: 】
: 不担心大模型 毁灭人类,担心大模型让好多人失业,然后老无所依
--
FROM 119.80.6.*
惶惶然不可终日~ 是不是8、90年代 微型电脑出现时的打工人的心态一样?还是那时候都还是铁饭碗,根本不担心
【 在 RAV4 的大作中提到: 】
: 后两句几乎是必然的
: 现在很多人都看到了未来趋势啊
--
FROM 111.30.114.*
没经历过那时候,那时候刚开放,机会很多吧,很多人都很有干劲,都有理想
现在都没理想了,再过20年,一半老年人的社会,太惨了
都只能自救
【 在 huipj 的大作中提到: 】
: 惶惶然不可终日~ 是不是8、90年代 微型电脑出现时的打工人的心态一样?还是那时候都还是铁饭碗,根本不担心
--
FROM 119.80.6.*
先来次大型的通货膨胀,将各人手中余财震没,通过股灾将金融性资产腰斩,再通过税收把房产打没,最后养老金破产~ 大批青壮年躺平,老年人乞讨为生
【 在 RAV4 的大作中提到: 】
: 没经历过那时候,那时候刚开放,机会很多吧,很多人都很有干劲,都有理想
: 现在都没理想了,再过20年,一半老年人的社会,太惨了
: 都只能自救
: ...................
--
FROM 111.30.114.*
数量足够了,数量就是质量
【 在 kixunkao 的大作中提到: 】
: 你说的这个是类似量变引起质变
: 【 在 Barbarossa 的大作中提到: 】
: : 拥有数万亿参数的大模型,其涌现能力无与伦比。大模型的涌现能力(Emergent Abilities),是指模型参数规模、训练数据量或训练步数突破某个临界阈值后,突然展现出小规模模型中不存在或极微弱的高阶复杂能力,性能呈非线性“跃迁”而非线性提升,类似物理学中的“相变”。
: : 不过我国算力中心GPU卡都太少,涌现能力强的可能在国外。比如马斯克的巨兽算力中心,正在野蛮扩张,H100达百万量级。目前我国算力都还仰人鼻息,缺算力卡将长期存在。
: : 字节跳动:约36-40万张(国内),含H100/H200/H20/A100,训练占比高;海外约60万张,合计约100万张,为国内最大英伟达卡持有方。阿里巴巴:约25万张,以A100/H20/H200为主,支撑阿里云与通义大模型,推理占比高。
: : ...................
--发自 ismth(丝滑版)
--
FROM 118.253.152.*
现在算力方面已经远远落后的,基本上望尘莫及
【 在 kixunkao 的大作中提到: 】
: 没有办法,否则就落后米国了
: 【 在 Barbarossa 的大作中提到: 】
: : 那得好几十亿美元
: --
:
: FROM 114.244.127.* [北京 联通]
--发自 ismth(丝滑版)
--
FROM 118.253.152.*
对啊,擎天柱比我国机器人强多了
【 在 kixunkao 的大作中提到: 】
: 非常看好马斯克的人形机器人与特斯拉车的合二为一,马斯克这一路径无人能复制
: 【 在 Barbarossa 的大作中提到: 】
: : 拥有数万亿参数的大模型,其涌现能力无与伦比。大模型的涌现能力(Emergent Abilities),是指模型参数规模、训练数据量或训练步数突破某个临界阈值后,突然展现出小规模模型中不存在或极微弱的高阶复杂能力,性能呈非线性“跃迁”而非线性提升,类似物理学中的“相变”。
: : 不过我国算力中心GPU卡都太少,涌现能力强的可能在国外。比如马斯克的巨兽算力中心,正在野蛮扩张,H100达百万量级。目前我国算力都还仰人鼻息,缺算力卡将长期存在。
: : 字节跳动:约36-40万张(国内),含H100/H200/H20/A100,训练占比高;海外约60万张,合计约100万张,为国内最大英伟达卡持有方。阿里巴巴:约25万张,以A100/H20/H200为主,支撑阿里云与通义大模型,推理占比高。
: : ...................
--发自 ismth(丝滑版)
--
FROM 118.253.152.*
自我安慰解决不了实力的差距。说破天,国内依然无法生产能与英伟达相匹敌的算力芯片。
【 在 Barbarossa 的大作中提到: 】
: 拥有数万亿参数的大模型,其涌现能力无与伦比。大模型的涌现能力(Emergent Abilities),是指模型参数规模、训练数据量或训练步数突破某个临界阈值后,突然展现出小规模模型中不存在或极微弱的高阶复杂能力,性能呈非线性“跃迁”而非线性提升,类似物理学中的“相变”。
: 不过我国算力中心GPU卡都太少,涌现能力强的可能在国外。比如马斯克的巨兽算力中心,正在野蛮扩张,H100达百万量级。目前我国算力都还仰人鼻息,缺算力卡将长期存在。
: 字节跳动:约36-40万张(国内),含H100/H200/H20/A100,训练占比高;海外约60万张,合计约100万张,为国内最大英伟达卡持有方。阿里巴巴:约25万张,以A100/H20/H200为主,支撑阿里云与通义大模型,推理占比高。
: ...................
--
FROM 61.51.122.*
讲,马斯克大模型要到六万亿参数,我国DeepSeek强调不要参数,是因为它没有算力
【 在 RAV4 的大作中提到: 】
: 现在已经不讲究参数了
:
: 【 在 Barbarossa 的大作中提到: 】
: : 拥有数万亿参数的大模型,其涌现能力无与伦比。大模型的涌现能力(Emergent Abilities),是指模型参数规模、训练数据量或训练步数突破某个临界阈值后,突然展现出小规模模型中不存在或极微弱的高阶复杂能力,性能呈非线性“跃迁”而非线性提升,类似物理学中的“相变”。
: : 不过我国算力中心GPU卡都太少,涌现能力强的可能在国外。比如马斯克的巨兽算力中心,正在野蛮扩张,H100达百万量级。目前我国算力都还仰人鼻息,缺算力卡将长期存在。
: : 字节跳动:约36-40万张(国内),含H100/H200/H20/A100,训练占比高;海外约60万张,合计约100万张,为国内最大英伟达卡持有方。阿里巴巴:约25万张,以A100/H20/H200为主,支撑阿里云与通义大模型,推理占比高。
--发自 ismth(丝滑版)
--
FROM 118.253.152.*
是的,难言之隐
【 在 shawn2024 的大作中提到: 】
: 自我安慰解决不了实力的差距。说破天,国内依然无法生产能与英伟达相匹敌的算力芯片。
: 【 在 Barbarossa 的大作中提到: 】
: : 拥有数万亿参数的大模型,其涌现能力无与伦比。大模型的涌现能力(Emergent Abilities),是指模型参数规模、训练数据量或训练步数突破某个临界阈值后,突然展现出小规模模型中不存在或极微弱的高阶复杂能力,性能呈非线性“跃迁”而非线性提升,类似物理学中的“相变”。
: : 不过我国算力中心GPU卡都太少,涌现能力强的可能在国外。比如马斯克的巨兽算力中心,正在野蛮扩张,H100达百万量级。目前我国算力都还仰人鼻息,缺算力卡将长期存在。
: : 字节跳动:约36-40万张(国内),含H100/H200/H20/A100,训练占比高;海外约60万张,合计约100万张,为国内最大英伟达卡持有方。阿里巴巴:约25万张,以A100/H20/H200为主,支撑阿里云与通义大模型,推理占比高。
: : ...................
--发自 ismth(丝滑版)
--
FROM 118.253.152.*