- 主题:没人转?特斯拉自动驾驶在出车祸前1秒退出,
- 特斯拉陷入巨大质疑:车祸前1秒,Autopilot自动退出 仅在美国高速公路安全管理局调查中就有16起这种的事故 - 1、提醒人类司机接管到撞车平均1秒,即使有司机反应过来仍然不能避免事故。 - 2、如果退出到人类接管超过5秒,则事故不算在自动驾驶事故里.... 人类提前操作同理,比如汽车前面明明就要撞了,你踩一下刹车还是撞了,不好意思自动驾驶已退出,这是人类司机的错。  https://mp.weixin.qq.com/s/PUTaiUKF2jGiVLwIgd1qoA- -- - FROM 1.202.139.* 
- 这是意料之中的吧?所谓AP也好FSD也罢,从设计原理上就是很难预计自己何时应该把车辆控制权交还给人类斯基
 
 【 在 whistlingMe 的大作中提到: 】
 : 特斯拉陷入巨大质疑:车祸前1秒,Autopilot自动退出 仅在美国高速公路安全管理局调查中就有16起这种的事故
 : 1、提醒人类司机接管到撞车平均1秒,即使有司机反应过来仍然不能避免事故。
 : 2、如果退出到人类接管超过5秒,则事故不算在自动驾驶事故里.... 人类提前操作同理,比如汽车前面明明就要撞了,你踩一下刹车还是撞了,不好意思自动驾驶已退出,这是人类司机的错。
 : ...................
 --
 FROM 73.63.245.*
 
- 厉害,高科技自动甩锅……人家可能正车震呢,只给1秒……
 【 在 whistlingMe 的大作中提到: 】
 : 特斯拉陷入巨大质疑:车祸前1秒,Autopilot自动退出 仅在美国高速公路安全管理局调查中就有16起这种的事故
 : 1、提醒人类司机接管到撞车平均1秒,即使有司机反应过来仍然不能避免事故。
 : 2、如果退出到人类接管超过5秒,则事故不算在自动驾驶事故里.... 人类提前操作同理,比如汽车前面明明就要撞了,你踩一下刹车还是撞了,不好意思自动驾驶已退出,这是人类司机的错。
 : ...................
 --
 FROM 114.254.1.*
 
- 就算是自动驾驶出车祸,也是你全责。跟退不退出有啥关系??
 --
 FROM 219.143.189.*
 
- 自动驾驶程序如果预判到碰撞不可避免,作为机智的程序员的你该怎么处理这种状况? 
 【 在 whistlingMe 的大作中提到: 】
 : 特斯拉陷入巨大质疑:车祸前1秒,Autopilot自动退出 仅在美国高速公路安全管理局调查中就有16起这种的事故
 : 1、提醒人类司机接管到撞车平均1秒,即使有司机反应过来仍然不能避免事故。
 : 2、如果退出到人类接管超过5秒,则事故不算在自动驾驶事故里.... 人类提前操作同理,比如汽车前面明明就要撞了,你踩一下刹车还是撞了,不好意思自动驾驶已退出,这是人类司机的错。
 : ...................
 --
 FROM 90.187.77.*
 
- 有两个关系
 1、退出意味着提醒人类接管,只有1秒显然人类司机也反应不过来。
 2、统计起来就不是自动驾驶事故,然后某些公司就可以得到 自动驾驶安全性就是极高的结论。
 
 【 在 qian272 的大作中提到: 】
 : 就算是自动驾驶出车祸,也是你全责。跟退不退出有啥关系??
 --
 FROM 114.254.3.*
 
- 赶快退出,然后让人类接管。说:“看,这是人类司机的错。自动驾驶期间可没发生事故。”
 
 【 在 gemini 的大作中提到: 】
 : 自动驾驶程序如果预判到碰撞不可避免,作为机智的程序员的你该怎么处理这种状况?
 --
 FROM 114.254.3.*
 
- 玩手机的、打瞌睡的,请立即接管!
 【 在 whistlingMe 的大作中提到: 】
 : 特斯拉陷入巨大质疑:车祸前1秒,Autopilot自动退出 仅在美国高速公路安全管理局调查中就有16起这种的事故
 : 1、提醒人类司机接管到撞车平均1秒,即使有司机反应过来仍然不能避免事故。
 : 2、如果退出到人类接管超过5秒,则事故不算在自动驾驶事故里.... 人类提前操作同理,比如汽车前面明明就要撞了,你踩一下刹车还是撞了,不好意思自动驾驶已退出,这是人类司机的错。
 : ...................
 --
 FROM 123.125.216.*
 
- 自动驾驶也就是甩锅比人类厉害
 【 在 whistlingMe 的大作中提到: 】
 : 特斯拉陷入巨大质疑:车祸前1秒,Autopilot自动退出 仅在美国高速公路安全管理局调查中就有16起这种的事故
 : 1、提醒人类司机接管到撞车平均1秒,即使有司机反应过来仍然不能避免事故。
 : 2、如果退出到人类接管超过5秒,则事故不算在自动驾驶事故里.... 人类提前操作同理,比如汽车前
 : ..................
 
 发自「今日水木 on iPhone 8 Plus」
 --
 FROM 223.104.63.*
 
- 按照正常人类处理的方式啊,踩死刹车,可在大多数情况下使损失将至最低。
 【 在 gemini 的大作中提到: 】
 : 自动驾驶程序如果预判到碰撞不可避免,作为机智的程序员的你该怎么处理这种状况?
 --
 FROM 117.136.38.*