最终,智能驾驶大跃进,很大一部分风险,需要让消费者来承担,以让车企能做出更好的系统。用户每一次开启智驾,每一次选择信任这套系统,都是在用自己的安全为这项技术的成熟和进化投票。
技术的迭代速度以月甚至周为单位,而法律、法规、保险和社会共识的演进速度,则以年为单位。这种「剪刀差」,导致了权责的模糊地带。
车企也不能去承担责任,正如同客服给我的回应里,说他们「没有相关流程」。
因为一旦主动承认某一次事故的责任主体是「系统」而非「驾驶员」,就等于亲手打开了一个后果不堪设想的「潘多拉魔盒」。
目前全球的法律框架,都将L2、L2 级别的智能驾驶定义为「辅助驾驶」,而非「自动驾驶」。这个「辅助」的定位,是车企至关重要的法律防火墙。它明确了无论系统能力多强,驾驶的最终监控和控制责任仍在人类驾驶员身上。车企在所有用户协议和宣传材料中,也都会反复强调这一点。
如果一家车企主动为某次事故承担了系统责任,就等于在事实上承认了,在某些时刻,车辆的控制权已经从「人」转移到了「系统」。这一行为会被无限放大,成为所有类似事故中,用户要求车企承担责任的法律先例。这会从根本上动摇整个「辅助驾驶」的法律根基,引发监管机构的重新审视,甚至可能导致产品被勒令下线整改。
而且,主动承担责任,可能带来保险体系的崩溃。
现有的汽车保险体系是围绕人类驾驶员的风险来设计的。保费的高低,取决于司机的年龄、驾龄、过往事故记录等个人因素。但在智能驾驶时代,一部分风险从不可预测的「人」转移到了软件和算法上。
传统的保险产品,如何为「算法」定价?当事故是由软件缺陷引发时,保险公司在赔付给受害者后,是否有清晰的法律路径向车企进行追偿?这些都是现有保险体系面临的巨大挑战。
如果保险公司将智驾的Bug定性为车辆固有的缺陷,那么他们会立即重新评估该品牌所有车辆的风险等级。保费可能会飙升到普通消费者无法承受的水平,或者保险公司干脆拒绝为该车型的智能驾驶功能提供保险。
而且,如果每一次由系统缺陷导致的事故,都需要车企承担全部责任,那么企业必然会因噎废食。为了规避风险,它们会极大地放慢OTA的迭代速度,甚至不敢推出任何未经百分之百验证的功能。
于是我们看到了一个微妙的平衡,车企在技术上高歌猛进,宣传上极力渲染系统的强大与智能,以吸引用户、获取数据;但在责任界定上,又必须坚守「辅助驾驶」的底线,将法律责任主体锚定在驾驶员身上。
于是我的那次差点发生的车祸,最终只能是不了了之,没有人会承担责任,毕竟,就如同客服所说,「幸亏我及时接管」。
回到开始的问题,我还能相信这辆车吗?
似乎也没有别的选择。
这辆车不便宜,我没办法不考虑经济因素,马上换车;即便换车,其他车企也未必没有这样的问题,毕竟这是算法的固有缺陷,而法律和制度的落后,也并不止针对小鹏一家。
我只能与这辆车达成一个脆弱共识,就好像所有依然还在使用智驾的用户一样:我去承担一些风险,来换取了体验前沿技术的机会和便利,让我能连续驾驶两个小时后呼吸放松一下;车企则在我的「陪练」下,用最快的速度推动技术的成熟,让它明天在所有类似的路口都表现得更好。
这个共识能维持多久,取决于技术进步的速度,也取决于下一个轰动性事故何时到来。