有个观点,当前出现幻觉多少跟评审体系有关
说错了不扣分,那模型遇到不会的,也乱说一通,目标就是这样的
要调整为 说不会 不扣分,说错了 扣分,然后模型就逐步学习到 遇到 不会的问题,答案置信度低的问题,模型选择回答不会 而不是 不管是啥,模型都给你一通输出。
【 在 wlazy 的大作中提到: 】
: 周末跟几个部里领导开会听说的几个顶层观点
: 1.Transformer的幻觉等问题已经使得应用落地发生了瓶颈,基于文本生成的AI,目前使用能力有限
: 2.要构建新一代模型架构,具备因果关系的识别和推理能力,彻底消灭幻觉
: ...................
--
FROM 121.199.22.*