- 主题:DeepSeek热度已经过去:被豆包压在地上摩擦
蒸馏本来是我们生化环材一个最普通的物理分离手段,你们搞个高级点的词不好吗?
【 在 Barbarossa 的大作中提到: 】
: DeepSeek只适合算力低的场合,比如你问他一加一等于几这种数学题。绝大部分领域你问他,就告诉你系统繁忙,或者谎称被黑客攻击了。和豆包相比,语音图像它都不会,原因是缺乏算力。没有算力就没有智力,而且这种低智先天性的。读一下DeepSeek有关论文就知道,它没有任何理论创新,也没有算法创新。它只是把其他用了大量算力的大模型结果蒸馏一下而已
--
FROM 223.104.41.*
有啥本质区别吗?
【 在 liangf 的大作中提到: 】
: 精馏?
--
FROM 223.104.41.*
难道你们现在的AI数学模型还是人工神经网络?
黑到不能再黑的黑匣子?没有任何的物理意义?要是那样的话,没有啥太多的实际应用价值。还是在图像识别之类的好使,无法预测
【 在 Barbarossa 的大作中提到: 】
: 国际通行的概念啊,你去看看论文,knowledge distillation
: Knowledge distillation is a machine learning technique that aims to transfer the learnings of a large pre-trained model, the “teacher model,” to a smaller “student model.”
--
FROM 223.104.41.*
我以为有了新模型,可以实现预测功能
【 在 liangf 的大作中提到: 】
: 你以为是啥?
--
FROM 223.104.41.*
什么叫像,就是黑匣子。最后别的学科放弃人工神经网络就是因为它只能实现数据拟合,不能实现预测。
【 在 Barbarossa 的大作中提到: 】
: 本来有点像黑匣子,因为大模型有不可解释性
--
FROM 223.104.41.*
他们那个知识蒸馏我看了看有点扯,其实类似于公司的客服,经过培训后解答客户的不同问题。
【 在 addadd 的大作中提到: 】
: 这个我学过 哈哈哈
: 有回流的 多次蒸馏 是精馏
--
FROM 223.104.41.*
目前还是这个简单应用
【 在 addadd 的大作中提到: 】
: 外行
: 我对AI的概念还停留在 高级无广告百度 的认知水平上
:
: ...................
--
FROM 223.104.41.*