- 主题:Ai几十年发展史兜了一大圈,又回到仿生的路子上了
- 还没有误导
 
 由于这本书,神经网络方面研究受影响很大,连 辛顿 读研究生搞这个都差点被劝放弃
 
 
 【 在 yzjba 的大作中提到: 】
 : 并没有,误导,仿生的路一直有人在走,只是算力和数据不够。
 : 够了之后,不到5年就爆发了
 --
 修改:pixYY FROM 111.36.200.*
 FROM 111.36.200.*
 
- 人脑有什么意识?人脑做的一切想法都是基于吸收的内容,然后做推理,提炼和拓展而已,不会完全无中生有,和现在的人工智能没什么区别。
 
 【 在 far 的大作中提到: 】
 : 人脑还不是一样,人脑能工作,但不知道自己是怎么工作的;人脑有意识,但不知道意识是怎么形成的。
 --
 FROM 171.212.98.*
 
- 呵呵
 【 在 bingfengtmc 的大作中提到: 】
 : 人脑有什么意识?人脑做的一切想法都是基于吸收的内容,然后做推理,提炼和拓展而已,不会完全无中生有,和现在的人工智能没什么区别。
 --
 FROM 183.208.181.*
 
- 然而并没有,总有人会走这条路,即使他不做,还有别人
 【 在 pixYY 的大作中提到: 】
 : 还没有误导
 : 由于这本书,神经网络方面研究受影响很大,连 辛顿 读研究生搞这个都差点被劝放弃
 :
 --
 FROM 159.226.52.*
 
- embedding就是词向量?
 【 在 booble 的大作中提到: 】
 : 改正:attention也不是transformer模型原创。
 : 我觉得embedding才是革命性的想法,transformer不过解决了并行训练的问题。
 :
 --
 FROM 113.104.248.*
 
- 对,是包含了语义信息的词向量,不是仅仅表示词汇表位置的词向量。
 
 【 在 johnfader 的大作中提到: 】
 : embedding就是词向量?
 --
 FROM 112.41.21.*
 
- 对的,tranformer模型的并行对embedding很大贡献吧,embedding需要很多计算量。
 【 在 booble 的大作中提到: 】
 : 对,是包含了语义信息的词向量,不是仅仅表示词汇表位置的词向量。
 :
 --
 FROM 113.104.248.*
 
- embedding算啥革命性想法,感觉我都想到过。就是把词映射到一个合理的向量空间里,这不是本来就应该做的事情吗。  transformer算是各种技术发展到一定程度,水到渠成的事情。
 【 在 booble 的大作中提到: 】
 : 改正:attention也不是transformer模型原创。
 : 我觉得embedding才是革命性的想法,transformer不过解决了并行训练的问题。
 :
 --
 FROM 1.202.170.*
 
- 那你厉害,我原来对文字的理解就是一个符号,用什么样的方式表示都可以,只要能区分开不同的字符就行。但实际上文字不是单独存在的,文字之间有各种各样的关联关系,embedding里面存储了这些信息,所以大模型才能对自然语言有更深入的理解。
 
 【 在 liaotianxia 的大作中提到: 】
 : embedding算啥革命性想法,感觉我都想到过。就是把词映射到一个合理的向量空间里,这不是本来就应该做的事情吗。  transformer算是各种技术发展到一定程度,水到渠成的事情。
 --
 FROM 112.41.21.*
 
- 20多年前搞基于内容的搜索,第一步可不就是先做特征向量的提取,提取的越接近于文本、图片本来的空间分布,搜索效果越好。这真不算啥创新型的想法。
 【 在 booble 的大作中提到: 】
 : 那你厉害,我原来对文字的理解就是一个符号,用什么样的方式表示都可以,只要能区分开不同的字符就行。但实际上文字不是单独存在的,文字之间有各种各样的关联关系,embedding里面存储了这些信息,所以大模型才能对自然语言有更深入的理解。
 :
 --
 FROM 1.202.170.*