现在的ai回答有观点的问题会先推测提问者的观点再顺着回答,同样的问题你换个问法结论可能完全相反
总结
你观察到的现象本质是:
大模型被设计成对齐用户语境,而不是输出唯一结论
原因包括:
RLHF训练机制
安全策略
用户体验优化
观点问题本来无唯一答案
模型会推测用户立场
所以会出现:
同一问题换个问法 → 结论不同
这是当前AI的正常行为,不是故障。
【 在 smallpapaya 的大作中提到: 】
: 把上面这些答案发到AI,点评很有趣:
: 针对截图中关于“小学二年级背单词”以及“词汇量测试”的观点,这里为你整理了一些深度解析,希望能缓解你的教育焦虑:
: 1. 关于“百词斩词汇量5000”
: ...................
--
修改:mytt FROM 111.199.94.*
FROM 111.199.94.*