
领克语音误关大灯致撞车 高管回应
【领克语音误关大灯致撞车 高管回应】“嘿,领克,关掉阅读灯。”2026年2月25日凌晨1点,一条看似平常的语音指令,却让一辆领克Z20在黑暗的高速公路上瞬间“失明”。车机系统误将“阅读灯”识别为“所有灯光”,大灯应声关闭,车辆陷入伸手不见五指的绝境。驾驶员慌乱中连喊数次“开灯”,得到的却是机械的回应:“暂时还不会哟。”最终,车辆撞上护栏,所幸无人伤亡。这场“语音乌龙”不仅让车主惊魂未定,更将智能汽车的安全隐患推上风口浪尖。2月26日,领克汽车销售有限公司副总经理领克穆军发文:昨晚发生一起领克Z20车辆行驶中语音误操作控制关闭大灯的情况,今天我们第一时间完成了语音控制优化方案,现已通过云端推送更新,后续在行驶状态下只能通过手动控制大灯关闭,请大家放心。感谢用户的反馈与监督,对此带来的困扰我们深表歉意,领克始终守护您的安全。
2026年2月25日凌晨1时许,一名车主驾驶领克Z20在无路灯的高速路段行驶时,通过语音指令尝试关闭车内阅读灯,但车机系统错误识别指令,将包括车头大灯在内的所有灯光关闭。刹那间,车辆骤然被黑暗吞噬。驾驶员顿时慌了神,在极度紧张中,他多次急切地发出语音指令,迫切要求重新开启车灯。然而,或是因他语速太快,话语如连珠炮般倾泻而出;或是车机系统识别失误,对指令“充耳不闻”。车机始终毫无反应,只是机械地回复着“暂时还不会哟”。最终,车辆在一片漆黑中彻底失控,如脱缰野马般径直撞上了高速护栏。万幸的是,此次事故并未造成人员伤亡。
表面看,这是技术层面的“小失误”,实则暴露了智能汽车语音交互的致命漏洞——自然语言处理(NLP)的准确性不足,导致高风险指令被误触发。语音助手需通过语义分析区分“阅读灯”与“所有灯光”,但领克Z20的系统显然未能精准识别关键词边界。更危险的是,涉及行车安全的指令(如关闭大灯)未设置优先级限制,导致系统在行驶状态下仍执行高风险操作。
根据国家标准,涉及安全的指令应强制二次验证(如手势确认或物理按键),但领克Z20仅依赖语音交互,且在紧急情况下未提供备用方案(如强制手动介入)。当用户因慌乱语速加快时,系统直接“摆烂”拒绝响应,进一步加剧了风险。车企为追求“全语音控制”的科技感,将灯光、空调等高频功能全部纳入语音交互,却忽视了极端场景下的容错率。领克事件证明,过度依赖语音可能让用户陷入“操作失灵即失控”的绝境。
领克并非首个因语音识别缺陷引发事故的品牌。全球范围内,类似事件已多次敲响警钟:
案例1:特斯拉Model 3“语音加速”撞树。2024年,美国一名车主驾驶特斯拉时,试图用语音指令调节空调温度,但系统误将“22度”识别为“加速至22英里/小时”。车辆突然加速撞上路边树木,车主重伤。事后调查显示,特斯拉语音系统对数字指令的容错率极低,且未限制行驶状态下的加速权限。
案例2:小鹏P7“语音开窗”致儿童坠车。2025年,中国某车主在高速上用语音指令“打开车窗”,但系统误识别为“打开所有车窗”。后排儿童因强风被吹落车外,虽及时送医,但仍留下后遗症。小鹏事后紧急更新系统,限制行驶中后排车窗的开启幅度,但事故已无法挽回。
案例3:奔驰EQS“语音导航”驶入逆行车道。2025年,德国一名司机在语音输入导航地址时,因口音问题被系统误识别为相反方向。车辆自动驶入逆行车道,与对向车辆正面碰撞,造成2人死亡。奔驰因此被起诉“过度依赖自动化,忽视人工确认环节”。
这些案例的共同点在于:语音识别的微小误差,在高速、复杂路况下被无限放大,最终演变为致命灾难。
领克事件后,行业必须重新思考:语音交互的边界在哪里?如何平衡创新与安全?系统需结合车辆状态(如行驶/静止)、环境光线(如夜间/白天)等数据,动态调整指令优先级。例如,夜间行驶时自动屏蔽“关闭大灯”指令。当用户语速过快或口音模糊时,系统应主动询问确认(如“您是要关闭阅读灯还是所有灯光?”),而非直接执行或拒绝。高风险指令强制物理交互:涉及行车安全的功能(如灯光、加速、转向)必须保留物理按键或手势控制,语音仅作为辅助选项。
在技术完善前,车主需主动规避风险:夜间、高速、雨雪天气时,优先使用物理按键操作关键功能。车企的修复补丁可能隐藏重要安全升级,切勿忽视更新提醒。遇到语音识别错误时,及时向车企反馈,推动算法优化。
领克撞车事件,本质上是科技与人性的一场博弈。当车企沉迷于“全语音控制”的营销噱头时,是否想过:用户真正需要的,不是一台“听话”的机器,而是一辆“懂安全”的伙伴?
语音识别的进步,不应以生命为代价。唯有将安全基因植入每一行代码,让技术学会“拒绝”危险指令,智能汽车才能真正驶向未来。否则,下一次“听错话”的代价,可能远比一次撞车更沉重。