- 主题:AI本质是一个不太稳定的专家错了不用担责
AI知道的多,但有时候喜欢信口开河。真人一般靠谱度数值比较稳定,而且有法律约束有惩罚制度撒谎信口开河要受道德或者法律制度的惩罚。
--
修改:letitbe321 FROM 223.104.41.*
FROM 223.104.41.*
ai输出的代码,确实可以按预期跑起来啊
【 在 letitbe321 的大作中提到: 】
: AI知道的多,但有时候喜欢信口开河。真人一般靠谱度数值比较稳定,而且有法律约束有惩罚制度撒谎信口开河要受道德或者法律制度的惩罚。
--
FROM 43.228.36.*
能跑起来,和能产品化地用,还是两个概念。而且,你不知道它未来什么时候出bug,关键是到时候找不到该负责的人,也就是楼主说的“不用担责”。这是个底线问题。
我不是AI专家,用的也很少,有限的使用体验不是太乐观。我就感觉AI有时候会揣测你的意图,并顺着你的意思去胡说八道,尤其是在一些训练素材比较少的专业领域,稍微有点深度的,它就表现不佳。我曾经就一个专业问题咨询AI,同一个问题,我换一种方式提问,它能给出完全相反的答案,虽然每个回答都是长篇大论。(当然,你也可以说我不会用。。。)上周,我领道飞给我一封邮件,讨论在产品中用低成本的A材料替代B材料的可能性,附上了AI的答案。其中,一个关键参数上,AI瞪眼说A和B都是0.002,然后说二者属于一个等级,完全等效。。。我翻了手册,明明是一个0.004几,一个0.002,我都不知道AI从哪里拽来的数据。。。
【 在 lzxy 的大作中提到: 】
: ai输出的代码,确实可以按预期跑起来啊
--
修改:whx83 FROM 120.246.29.*
FROM 120.246.29.*
现在的智驾、无人出租车都面临这种困境
有讨论但看不出任何能得到各方公认的出路
【 在 whx83 的大作中提到: 】
: 能跑起来,和能产品化地用,还是两个概念。而且,你不知道它未来什么时候出bug,关键是到时候找不到该负责的人,也就是楼主说的“不用担责”。这是个底线问题。
: 我不是AI专家,用的也很少,有限的使用体验不是太乐观。我就感觉AI有时候会揣测你的意图,并顺着你的意思去胡说八道,尤其是在一些训练素材比较少的专业领域,稍微有点深度的,它就表现不佳。我曾经就一个专业问题咨询AI,同一个问题,我换一种方式提问,它能给出完全相反的答案,虽然每个回答都是长篇大论。(当然,你也可以说我不会用。。。)上周,我领道飞给我一封邮件,讨论在产品中用低成本的A材料替代B材料的可能性,附上了AI的答案。其中,一个关键参数上,AI瞪眼说A和B都是0.002,然后说二者属于一个等级,完全等效。。。我翻了手册,明明是一个0.004几,一个0.002,我都不知道AI从哪里拽来的数据。。。
--
FROM 114.255.193.*
目前ai主要用于解决代替人干一些规律性脑力“体力活”,而不是思考
【 在 whx83 的大作中提到: 】
: 能跑起来,和能产品化地用,还是两个概念。而且,你不知道它未来什么时候出bug,关键是到时候找不到该负责的人,也就是楼主说的“不用担责”。这是个底线问题。
: 我不是AI专家,用的也很少,有限的使用体验不是太乐观。我就感觉AI有时候会揣测你的意图,并顺着你的意思去胡说八道,尤其是在一些训练素材比较少的专业领域,稍微有点深度的,它就表现不佳。我曾经就一个专业问题咨询AI,同一个问题,我换一种方式提问,它能给出完全相反的
: 鸢福淙幻扛龌卮鸲际浅て舐邸#ǖ比唬阋部梢运滴也换嵊谩!!#┥现埽伊斓婪筛乙环庥始,讨论在产品中用低成本的A材料替代B材料的可能性,附上了AI的答案。其中,一个关键参数上,AI瞪眼说A和B都是0.002,然后说二者属于一个等级,完全等效。。。我翻了手册,明明
: ...................
--
FROM 43.228.36.*
但是舆论宣传(吹牛掰)可不是这样的,不是替代这个就是让那个焦虑……一些资深的专业人士还好,他们对自己行业有较深理解,没那么容易被忽悠;关键是,一些浮在面上掌控大局(掌握方向和资源分配)的人信了,就很麻烦,会造成很多混乱。
【 在 lzxy 的大作中提到: 】
: 目前ai主要用于解决代替人干一些规律性脑力“体力活”,而不是思考
--
修改:whx83 FROM 120.246.29.*
FROM 120.246.29.*
这个理解偏见太深
人也不太稳定
人的仅剩的特点就是担责,因此应该庆幸ai现阶段不能担责
【 在 letitbe321 的大作中提到: 】
: AI知道的多,但有时候喜欢信口开河。真人一般靠谱度数值比较稳定,而且有法律约束有惩罚制度撒谎信口开河要受道德或者法律制度的惩罚。
--
FROM 114.246.239.*
人肯定也会犯错误,但是人的错误类型大部分都是可预期的,也可以通过相应的流程设计将负面效果降到最低。
AI的不稳当,至少我看到的(我见识短浅),很匪夷所思。比如我上边说的那个0.002数据,换个人是打死也不会出这种事情的,他起码会去乖乖查查手册。而且,两种材料成本有差距且长期有人买单,常识也得能判断二者不可能完全一样,哪怕数据查错了,人也会首先自我怀疑。可AI就敢理直气壮的说二者等效,还煞有介事地给你列张对照表。。。我以前还遇到过一个哏事儿:我想知道两个历史人物差了多少年,印象中只知道有个大几十年不到一百年的区间。结果AI第一遍跟我说差了十二年,,,又问了一遍,才好好说出正确的数。。。
我怀疑,AI训练的时候是不是并不是以准确率为优先指标?还要考虑训练时间、模型复杂度什么的?综合考虑?如果这样的话,从产品本身来说,尤其是产品上升期,本无可厚非。但,希望AI行业从业者在舆论宣传的时候最好实事求是一些,别夸张得太过了。别跟kb分子似的,一天天的,张口替代这个替代那个,闭口焦虑这个焦虑那个的……
【 在 sanqigong 的大作中提到: 】
: 这个理解偏见太深
: 人也不太稳定
: 人的仅剩的特点就是担责,因此应该庆幸ai现阶段不能担责
--
修改:whx83 FROM 120.246.29.*
FROM 120.246.29.*
那是公众接触到的ai能力有滞后。
前沿实验室接触到的ai能力确实惊人,很多具体任务上不仅超过人类,还稳定。你可以不管具体内容,你就去查查企业愿意在最前沿模型上花的钱,就可以理解了,真金白银不会骗人。
所以,替代这事,你们还是相信从业者为好。
说实话,上边押注机器人王,而不是deepseek梁,我是相当吃惊的。只能说小农思维害死人。
【 在 whx83 的大作中提到: 】
: 人肯定也会犯错误,但是人的错误类型大部分都是可预期的,也可以通过相应的流程设计将负面效果降到最低。
: AI的不稳当,至少我看到的(我见识短浅),很匪夷所思。比如我上边说的那个0.002数据,换个人是打死也不会出这种事情的,他起码会去乖乖查查手册。而且,两种材料成本有差距且长期有人买单,常识也得能判断二者不可能完全一样,哪怕数据查错了,人也会首先自我怀疑。可AI就敢理直气壮的说二者等效,还煞有介事地给你列张对照表。。。我以前还遇到过一个哏事儿:我想知道两个历史人物差了多少年,印象中只知道有个大几十年不到一百年的区间。结果AI第一遍跟我说差了十二年,,,又问了一遍,才好好说出正确的数。。。
: 我怀疑,AI训练的时候是不是并不是以准确率为优先指标?还要考虑训练时间、模型复杂度什么的?综合考虑?如果这样的话,从产品本身来说,尤其是产品上升期,本无可厚非。但,希望AI行业从业者在舆论宣传的时候最好实事求是一些,别夸张得太过了。别跟kb分子似的,一天天的,张口替代这个替代那个,闭口焦虑这个焦虑那个的……
--
修改:sanqigong FROM 114.246.239.*
FROM 114.246.239.*
这里所谓从业者,是说的码农吧?对于各种有专业壁垒的行业,是缺少训练素材的。码农自己都快把自己搞出局了,还指望去占领其他行业阵地?如果那些行业真这么容易被突破,那意味着这些行业本来专业壁垒就低,应该是随便一个人也可以想进入就进入的。
现在宣传AI的词儿,是那套“更高更快更强”的“奥运逻辑”,比如我这个大模型效率多高,多快,“上限”多牛掰。但,现实中,很多行业的最最重要的指标不是效率(不是说效率不重要,是说它不是最重要的那个),而是一些“底限”指标,比如安全性。而AI如果不定时且匪夷所思地抽风的话,在这些行业内,意味着那些底线指标不可控。谁敢放心用它?就像同样是跑步,奥运会和全民健身的指标是不一样的。某些大哥把自己跑死了(我不说是谁了),为啥?就是用奥运指标去要求自己本来是健身的目的,跟人一说就是我能跑多少多少公里,我跑马拉松……那是你身家过九位数的上有老下有小的中年人该追求的吗?什么事儿一旦目的和方法拧巴了,没好结果。
【 在 sanqigong 的大作中提到: 】
: 那是公众接触到的ai能力有滞后。
: 前沿实验室接触到的ai能力确实惊人,很多具体任务上不仅超过人类,还稳定。你可以不管具体内容,你就去查查企业愿意在最前沿模型上花的钱,就可以理解了,真金白银不会骗人。
: 所以,替代这事,你们还是相信从业者为好。
--
修改:whx83 FROM 120.246.29.*
FROM 120.246.29.*