最近小米SU7车主手机弹出OTA提醒,说5月起分批推新功能。不是加个壁纸 or 改个音效那种小改,是整套“开车逻辑”悄悄换了。有人试过说,现在喊“找个能停车的安静地方喝咖啡”,车真绕开闹市,拐进巷子里一家没挂牌的店——它听懂了,不是靠关键词匹配。

这个“听懂”,背后其实是车里跑着一个叫XLA的系统框架,搭着世界模型当大脑。世界模型不联网,就在车机Orin-X芯片上自己造路况:暴雨夜逆行三轮车、施工围挡突然移位、外卖小哥从两车缝里斜插……全在虚拟世界里跑几百万遍。XLA不干别的,就负责把摄像头看到的、雷达扫到的、你刚说的那句含糊话,全塞进这个虚拟大脑里过一遍,再把最靠谱的那条路推给你。
萌宠交互看着像逗猫,其实是在测语音+人脸微表情+座舱摄像头画面能不能同步对齐;个性音效也不是换个铃声,是把AI实时生成的BGM压进车规级音频DSP里,连延迟都卡在20毫秒内;模糊导航听着玄,本质是端侧小模型扛住了“离我家近、人少、有插座、别太贵”这种一串条件叠在一起的指令——以前得拆成三四步,现在一步到底。
为啥不能全车一起升?因为SU7初代Pro和Ultra用的激光雷达数量不同,YU7的摄像头FOV角度又略窄,连毫米波雷达融合的参数都要重调。小米没搞“一刀切”,第一批只推给装了完整感知套件+实测过1000公里城区复杂路况的车。升级包里还塞了“能力提示条”:导航界面上小字写着“当前指令理解置信度83%”,侧方盲区图标旁闪着“模型可信度低,建议观察后并线”。
所有新功能界面右下角都印着一行小字:“辅助驾驶,驾驶员始终负责”。没说假话,也没画大饼。世界模型再能演,也演不出隔壁大爷突然抡着拖把冲上快车道——那玩意儿真没数据,也没法仿真。
这次更新,没加自动驾驶牌照,没提“无图”,没说“全国都能开”。就是把原来靠人设规则硬写的逻辑,换成能自己想、自己试、自己记的系统。车还是那辆车,但脑子里的东西,换过了。