- 主题:真是讨厌现在ai这种错误
llm本质就是概率啊,猜词机,所谓的推理不就是思维链吗? 思维链就是prompt,本质也是通过prompt构造context从而影响概率。
【 在 bluecase 的大作中提到: 】
: 最烦别人说什么当前AI是基于统计和概率的,那特么是几年前的AI。
: 现在的AI有推理模式,已经不完全是概率了。用gemini3pro,基本都是推理计算出来的
: 另外可以尝试agent来做,
: ...................
--
FROM 124.64.19.*
agent其实没有给大模型带来任何技术推动,agent就是prompt,例如最成功的claude code,核心也就是prompt,而且刚刚被hack出来。。。。。
【 在 bluecase 的大作中提到: 】
: 场景: 假设模型“认识锤子”,“认识钉子”,“懂物理规律”,但从未在训练数据中见过“用石头砸开椰子”这个具体组合。
: 有推理的Agent: 它不会直接检索答案,而是现场推导。
: Step 1: 椰子是硬的,里面有水。
: ...................
--
FROM 124.64.19.*
第一行你说的就不对,cot和tot都是一样的,都是prompt,你说的真实世界反馈是agent的一种模式react型,这个跟tot就没关系。
真实世界的反馈最终也是prompt,还有另一种模式self-refine型agent,也是prompt context。
agent根本不是技术的核心,核心还是llm,而llm就是根据prompt的context去猜的猜词机器。
推理和思维也都是prompt。
【 在 bluecase 的大作中提到: 】
: agent没说一定是cot,另外cot是cot,tot是tot,tot是拿到了真实世界反馈的。
: 一个大模型,面对你提的产品需求,它生成了10个方案,写了10份代码,并且调用沙箱把其中一个方案编译成功,实验结论存在自己的context里,并告诉你结果。
: 这个信息增量并不是来自于训练阶段,也不来自于prompt,而是在推理过程中通过现实反馈获得的信息熵啊,这玩意不能说就只是概率吧
: ...................
--
FROM 124.64.19.*
我不是说猜词机就不是智能哈,个人想法,现在ai的核心就是llm,llm毫无疑问就是概率猜词机,那换个角度思考,人类的智能到底是什么?如果人类智能的本质也是概率猜词机,那llm就是智能,反之就不是。
【 在 bluecase 的大作中提到: 】
: OK,第一句说的不对,真实世界反馈来自于是react,不是cot/tot。
: 关于本质,问下gemini3pro,贴它的:
--
FROM 124.64.19.*