- 主题:国家智库现在对AI发展的观点
123就不是计划而是观点,45才涉及到一点计划
国家级的规划这种东西,只要大方向对了就行,往这个行业里加大投资,投1000个项目可能只有一个1个项目搞出了点创新的东西就有意义;即使其他999个项目全都死了,也培养了大量该行业的专业人才,谁知道哪天哪个脑子里就蹦出个灵感呢?
而且这个行业的工作人员也不会被上层的想法绑架,难道你走的路线和上层不一致会把你怎么样么?你搞的那些技术细节人家根本看不懂好吧
上层的观点说到底也是相关行业的专业人员给他们科普的,更多的是让他们对未来有个预期,不能预期太高,不然短期出不了成绩就要质疑你的行业发展路线是不是有问题,也不能预期太低,毕竟谁也不想为完全看不到的未来投资
这5条里面,123就是中长期的预期,可以展望但是目前不现实,45就是短期可以落地的工作,先做下去,后面看技术发展再考虑要不要调整
【 在 Jacqueline 的大作中提到: 】
: 工业机器人,包括自动驾驶,目前是因为视觉和身体感觉在原理上没搞定。现有方法的缺陷
: 是明显的,但我们没有办法判断未解决问题的难度,也许很难,也许跟大语言模型一样只差
: 几个天才的灵机一动以及工业界一窝蜂的跟进。不过这件事显然没有办法计划出来,不是说
: ...................
--
修改:adamhj FROM 182.85.139.*
FROM 182.85.139.*
给你点赞
写这么多字,居然没被水木过滤掉,也不容易
【 在 Jacqueline 的大作中提到: 】
: Transformer也许(很可能)不是AI的终极形态,但从最近一两年的飞速发展看,
: 离榨干它的上限还差得很远。编程就是文本生成,目前我们不知道它的上限在哪里。
: 机械决定论入脑的一代砖家想当然的想法。事实上新千年以后的机器学习全部基于概率
: ...................
--
FROM 111.36.200.*
六小虎是谁 ?
【 在 Jacqueline 的大作中提到: 】
:
: Transformer也许(很可能)不是AI的终极形态,但从最近一两年的飞速发展看,
: 离榨干它的上限还差得很远。编程就是文本生成,目前我们不知道它的上限在哪里。
: ...................
--
FROM 60.2.184.*
大模型本质就是猜数字的游戏啊.
可能他们要做的不是这种?
--
FROM 223.166.233.*
他们讲的物理规则不是你说的那个
有个处长特别强调,牛顿定律还有效,目前大模型的智力能够理解这一层还都远远不够。他们预期是大模型能够自主做数理逻辑推理和计算,并且是非常严谨的,才能给出准确决策跟物理世界互动。
我理解他们考虑的主要还是在工业领域应用
【 在 Jacqueline 的大作中提到: 】
:
: Transformer也许(很可能)不是AI的终极形态,但从最近一两年的飞速发展看,
: 离榨干它的上限还差得很远。编程就是文本生成,目前我们不知道它的上限在哪里。
: ...................
--
FROM 125.33.29.*
数理逻辑,那就不是大模型了,必须是知识图谱。
大模型之所以火爆,就是因为大数据训练,自然产生结果,无需人为干预。但是训练数据局限于文本视频,必然就是这种产出。
所以我说,是有框架限制的。
既要又要,最后就不是原来的技术本质了。
深度学习大模型的路线压根没法实现。首先训练数据就是局限的。
【 在 wlazy 的大作中提到: 】
: 他们讲的物理规则不是你说的那个
: 有个处长特别强调,牛顿定律还有效,目前大模型的智力能够理解这一层还都远远不够。他们预期是大模型能够自主做数理逻辑推理和计算,并且是非常严谨的,才能给出准确决策跟物理世界互动。
: 我理解他们考虑的主要还是在工业领域应用
: ...................
--
FROM 223.104.79.*
其实人也是有幻觉的;全是确定性并不是好事
【 在 wlazy 的大作中提到: 】
: 周末跟几个部里领导开会听说的几个顶层观点
: 1.Transformer的幻觉等问题已经使得应用落地发生了瓶颈,基于文本生成的AI,目前使用能力有限
: 2.要构建新一代模型架构,具备因果关系的识别和推理能力,彻底消灭幻觉
: ...................
--
FROM 175.152.60.*
【 在 wlazy 的大作中提到: 】
: 他们讲的物理规则不是你说的那个
: 有个处长特别强调,牛顿定律还有效,目前大模型的智力能够理解这一层还都远远不够。他们预期是大模型能够自主做数理逻辑推理和计算,并且是非常严谨的,才能给出准确决策跟物理世界互动。
: 我理解他们考虑的主要还是在工业领域应用
你去问他几个数学物理问题就知道了,GPT的数学物理能力早就碾压99%的专家了
(剩下那1%是真正有独创精神的科学家,目前AI还比不上)。
你让他算广义相对论,黎曼几何,秒杀所谓专家。
目前是理解外部世界的机制有问题,比如视频生成时不时会出现违反物理定律的物体穿越,
重力消失等等,光影不对就更不必说了。这是因为我们在视觉和身体感觉的原理方面仍然
处于很低级的认知阶段。
当然你不要告诉我,这些所谓“砖家”一不懂英语,二不会用LaTeX敲数学物理公式。。。
--
修改:Jacqueline FROM 116.230.17.*
FROM 116.230.17.*
有个观点,当前出现幻觉多少跟评审体系有关
说错了不扣分,那模型遇到不会的,也乱说一通,目标就是这样的
要调整为 说不会 不扣分,说错了 扣分,然后模型就逐步学习到 遇到 不会的问题,答案置信度低的问题,模型选择回答不会 而不是 不管是啥,模型都给你一通输出。
【 在 wlazy 的大作中提到: 】
: 周末跟几个部里领导开会听说的几个顶层观点
: 1.Transformer的幻觉等问题已经使得应用落地发生了瓶颈,基于文本生成的AI,目前使用能力有限
: 2.要构建新一代模型架构,具备因果关系的识别和推理能力,彻底消灭幻觉
: ...................
--
FROM 121.199.22.*
这还用你说吗,人家就这么训练的。
只不过技术能力范围只能到这。
回答正确的空话很容易,但就太没竞争力了,跟以前的nlp玩具一样了。
【 在 overcomeunic 的大作中提到: 】
: 有个观点,当前出现幻觉多少跟评审体系有关
: 说错了不扣分,那模型遇到不会的,也乱说一通,目标就是这样的
: 要调整为 说不会 不扣分,说错了 扣分,然后模型就逐步学习到 遇到 不会的问题,答案置信度低的问题,模型选择回答不会 而不是 不管是啥,模型都给你一通输出。
--
FROM 223.104.79.*