虽说过去特斯拉曾强调不会搜集车主的行车资料,但看来这次特斯拉是真的要硬起来解决 FSD 的问题了。最近特斯拉表示,若使用 FSD Beta 时发生行车意外,车主必须接受特斯拉可以取用相关行车资料、影像作为调查用途。

使用 FSD Beta 出意外特斯拉会取用行车资料

特斯拉的 Autopilot 一直以来都是利用车内外的许多镜头当作侦测媒介,特斯拉也不断强调,这些镜头捕捉到的资料,特斯拉不会取用,以维护车主的个人隐私。

但最近特斯拉貌似为了解决近期 FSD Beta 所产生的各种问题,将打破隐私限制,宣布:若在使用 FSD Beta 时发生行车意外,车主必须同意特斯拉可以取用当下相关的行车资料、影像作为调查用途。

同时也在车主下载新版本的 FSD Beta 前,会先跳出警告,徵求车主同意後才能够开放下载使用。

特斯拉:为了用来证明的确是 FSD Beta 出问题

特斯拉另外补充表示:该措施与安全风险、行车事故相关,希望可以透过这样的方式,来厘清与证明车祸发生的当下,的确是 FSD Beta 出问题,而不是车主本身的误操作。

不过也不能说特斯拉这次的政策太过强硬,毕竟前阵子真的发生许多 Autopilot 的行车事故。

8 月中,美国国家公路交通安全管理局(NHTSA)才针对特斯拉的自动辅助驾驶所发生的事故展开调查,自 2018 年来共发生 11 起涉及自动辅助驾驶或是道路侦侧巡航控制的相关事故,都撞上了停放在路边紧急服务车辆(消防车、救护车等等)。

而当时分调查结果出炉,发现其中几起事故案件并不是 Autopilot 的问题,而是驾驶本身操作不当或是有做出不当的驾驶行为,而导致事故发生。调查的 11 起事故中,有 2 起是酒驾、1 起是因为无照驾驶、4 起是 Autopilot 出错。其他的事故目前则都还正在调查中。

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论