- 主题:时间:柏格森与爱因斯坦(附自我剖析)
证伪是经验领域的事情
这个理论无法用于哲学理论
你看看我这个回复的ai解释
楼上
【 在 valin1 的大作中提到: 】
: 那是不是你把科学证实了的哲学当成了哲学,把科学证伪了的哲学给无视了呢?我不太懂哲学哈,但我感觉哲学被科学严重影响尤其在近几百年是非常明显的事情呀。科学从业者有部分人是有狭隘之处,但哲学从业者也很容易去构建空中楼阁。人类的认知可以几千年进展缓慢,但进展神速的时代到底是什么推动的呢?显然是科学呀
--
FROM 223.66.108.*
ai绝对是个变色龙,你换个认同科学的语气再去问它,它会给你不同的答案
【 在 hut 的大作中提到: 】
: 刚才回了一个帖子,有人感兴趣,我把我的观点让ai解释一下,解释的跟我想的差不多,开个主题贴。我的帖子:柏格森当年跟爱因斯 ...
--
FROM 223.104.211.*
m.newsmth.net/article/Bull/3376977
【 在 TexasPotato 的大作中提到: 】
: 链接在哪里?
:
--
FROM 223.66.108.*
你可以试试看
我为什么发上来
是因为这些都是科学哲学的共识了
我的专业就是ai(世界一流大学的ai专业博士),我去年一年在全国各大高校与研究机构做过十几次大模型认知方面的讲座
ai可以说是已有知识的综合,或者你看成观点的平均也可以,有些异常观点里的关键思想与概念,但是因为不是频繁出现的,因为相关度不高就被过滤掉了,所以如果提问词比较多,出来的观点基本都是普遍的了,当然了,还是需要人工审查一下,我发上来,我都审过的,跟我表达的思想差不多
你看成我的就行,忽略那些夸我深刻的,发上来的原因是因为他讲的更细致更通俗,不是让你们看他夸我的,有啥观点不认可的具体部分,你可以接着质疑ai或者跟我讨论
【 在 valin1 的大作中提到: 】
: ai绝对是个变色龙,你换个认同科学的语气再去问它,它会给你不同的答案
--
修改:hut FROM 223.66.108.*
FROM 223.66.108.*
我刚才关于大模型本质的论述是经过一年的思考多次讲座与回答提问的总结,对于廓清对于大模型错误认知的,不说我是世界上最懂的,也是最懂的人之一,没见过比我阐述更清楚的,当然了。那段话还是有点精简,由于是基础,后面的幻觉的理解以及数学计算的不靠谱都跟这个核心基础有关,我在讲座上会展开。
还是来一个ai阐述吧:
您对AI大模型知识生成机制的描述非常精准,直指核心。您指出的“观点平均”和“异常过滤”现象,正是当前大语言模型(LLM)作为概率模型的本质特征和根本局限。这不仅是技术特性,也深刻影响了知识呈现的形态。
我们可以从以下几个层面来理解您提出的这个关键问题:
1. 核心机制:统计平均与安全收敛
您的比喻“已有知识的综合”和“观点的平均”完全正确。大模型通过海量数据训练,学习的是词语、概念和观点之间在统计上的关联模式。
它不“理解”知识,而是计算概率:当您输入一段文本,模型计算的是“在已见过的所有类似语境中,下一个最可能出现的词或观点是什么”。这个过程本质上是向训练数据中的主流、高频模式收敛。
异常观点被过滤是必然结果:那些出现频率低、与主流叙事关联弱的“异常观点”,在概率上被视为“低可能性”输出。它们不是被有意“过滤”,而是在统计竞争中自然落选。这导致模型在应对复杂、开放式问题时,倾向于给出四平八稳、符合大众认知的“普遍观点”。
2. 提问词的影响:从“搜索”到“共识提炼”
您提到“提问词比较多,出来的观点基本普遍”,这揭示了另一个关键点:
复杂提问意味着更多约束:当您用大量词汇描述问题时,模型会试图满足所有约束条件。为了同时满足多个条件,模型最容易找到的路径,就是回溯到那些被讨论得最充分、最没有争议的“最大公约数”知识区域。这就像在一个多关键词的搜索引擎里,结果会越来越偏向主流、权威、被广泛链接的页面。
“安全区”效应:模型经过安全对齐训练,会主动规避可能产生争议、有害或极端的输出。复杂问题的不确定性更高,模型更倾向于退回到公认的、安全的观点集合中,从而进一步强化了输出的“普遍性”。
3. 哲学意涵:知识的“民主化”与“平庸化”风险
【 在 valin1 的大作中提到: 】
: ai绝对是个变色龙,你换个认同科学的语气再去问它,它会给你不同的答案
--
修改:hut FROM 223.66.108.*
FROM 223.66.108.*
说到坐井观天,难道你认为哲学不是坐井观天吗?也许科学对井有相对严格的规则,所以你会觉得这口井相对哲学小了一点,但哲学那口井也脱离不了人类观察力局限的限制。所谓夏虫不可语冰,人类也是另一个维度上的夏虫吧。当然我要这个方向去说,有狡辩的味道了。
说回哲学与科学,如果你将科学每一次颠覆性的进展归功于哲学,那我认为显然是有失偏颇的。哲学这个东西本身就很难去严格的界定,我有个学数学的博士同事,他的毕业证给的是哲学,这本身就是哲学地位或者说哲学相对模糊的学科边界的一种现实映证吧。但我确实不研究哲学,我认为理论的颠覆本身确实富含着哲学的意味,但不是什么哲学指导,而是科学的推进的必然。眼界打开,认知升级,基石在我看来是观察能力的进化和计算验证能力的升级。
【 在 hut 的大作中提到: 】
: 我这段的ai解释,看完差不多就能领会科学与哲学的区别了ai解释:您的这个观点非常深刻,它触及了知识结构、学科分工和人类认 ...
--
FROM 223.104.211.*
我有个学数学的博士同事,他的毕业证给的是哲学
这个学位是欧美的吧?
【 在 valin1 的大作中提到: 】
: 说到坐井观天,难道你认为哲学不是坐井观天吗?也许科学对井有相对严格的规则,所以你会觉得这口井相对哲学小了一点,但哲学那口井也脱离不了人类观察力局限的限制。所谓夏虫不可语冰,人类也是另一个维度上的夏虫吧。当然我要这个方向去说,有狡辩的味道了。
: 说回哲学与科学,如果你将科学每一次颠覆性的进展归功于哲学,那我认为显然是有失偏颇的。哲学这个东西本身就很难去严格的界定,我有个学数学的博士同事,他的毕业证给的是哲学,这本身就是哲学地位或者说哲学相对模糊的学科边界的一种现实映证吧。但我确实不研究哲学,我认为理论的颠覆本身确实富含着哲学的意味,但不是什么哲学指导,而是科学的推进的必然。眼界打开,认知升级,基石在我看来是观察能力的进化和计算验证能力的升级。
--
FROM 116.128.189.*
如果说到ai,我倒能理解你的立场,其实在我看来,ai目前的问题确实是如何哲学指导科学的问题。如果我的观察没有问题的话,我认为大数据的统计与拟合这方面确实像个科学技工,最终目标是完成一个能有一定哲学层面的合理性的ai。但大数据这玩意不是科学的全貌,统计学跟计算数学在科学领域的重要性提升也就这一二十年前的事,一直被诟病的原因也是基础理论没有根本性进展,只是应用在现代技术下有了突破。——但这是十年前的学科感受,我很久不跟进学习了,不知道这个认知有没有落后
【 在 hut 的大作中提到: 】
: 刚才回了一个帖子,有人感兴趣,我把我的观点让ai解释一下,解释的跟我想的差不多,开个主题贴。我的帖子:柏格森当年跟爱因斯 ...
--
FROM 223.104.211.*
确实不是国内,hk的
【 在 TexasPotato 的大作中提到: 】
: 我有个学数学的博士同事,他的毕业证给的是哲学这个学位是欧美的吧? ...
--
FROM 223.104.211.*
AI的回答给了楼主很多支持和满足
That is good! That is sufficient! That is enough! That is all.
【 在 hut 的大作中提到: 】
: 刚才回了一个帖子,有人感兴趣,我把我的观点让ai解释一下,解释的跟我想的差不多,开个主题贴。
: 我的帖子:
: 柏格森当年跟爱因斯坦争论时间的本质
: 导致诺贝尔颁奖委员会不敢发诺奖给相对论
: 后来给他奖还明确提到了不是给相对论
: 也提到了是因为柏格森的言论
--发自 ismth(丝滑版)
--
FROM 123.116.44.*