- 主题:这类事故反复发生是否说明激光雷达只是安慰剂?
现在智驾开不好是因为摄像头看不见吗?华为带激光雷达的车在能见度很好的朗朗大白天一样撞大货又是为什么,你觉得是摄像头和激光雷达同时都失灵?
别瞎琢磨了,让我来告诉你吧,现在智驾不行的关键还是算法落后,看见了东西根本处理不过来,所以lz没说错,激光雷达就是头疼医脚的安慰剂
【 在 walkslowly 的大作中提到: 】
: 某家做不好推导不出来所有人都做不好,目前激光雷达仍然是非常重要的方案,距离数据也不是什么高深的数据,无非是把图像三维拓展到了四维
--
修改:kettle FROM 120.229.69.*
FROM 120.229.69.*
现在根本不是晚上摄像头看不清才出事故啊,激光雷达在大白天一样出事故你怎么解释?
【 在 walkslowly 的大作中提到: 】
: 摄像头也不是100%的,根本原因是现在智驾是概率模型,这个视频跟融合根本没什么关系,无论三维四维都是有概率判断不出来,你这么推倒是毫无逻辑的,现在的智驾四维大于三维是大概率事件,现在人脸识别为什么可用 是因为过去十年把99%的准确率提升到了99.999。但是你晚上怎么提升视觉,人本身就有局限性,你还要照人学.
--
FROM 120.229.69.*
苹果那是人脸3D,防止你拿平面照片来欺骗摄像头,
智驾的问题是路面运动物体太多动态规划不过来,这完全是两码事
【 在 walkslowly 的大作中提到: 】
: 即使是人脸识别,苹果手机上前置都有一个红外摄像头来感知距离
--
FROM 120.229.69.*
那也是算法问题,你装个激光雷达不是一样撞么,而且激光雷达多了大家的激光到处乱射干扰比摄像头还难搞
【 在 walkslowly 的大作中提到: 】
: 你找特斯拉白天出事的更一大堆,如果没有出事的现在就不是l2了。甚至光学图像给你一个光学注入干扰你就死翘翘了,对于现在基于深度学习的黑盒来说
--
FROM 120.229.69.*
算法连摄像头信息都处理不过来,你加上距离信息只会让算法更抓瞎,你想想大白天的那么大的货车停路口激光雷达为什么还要硬怼上去吧
【 在 walkslowly 的大作中提到: 】
: 你以为依赖摄像头的距离信息哪来的,根据图像算出来的啊,苹果都知道可能出错
--
修改:kettle FROM 120.229.69.*
FROM 120.229.69.*