就像我前些日子,将“现在的‘大模型上车’到底会给我们带来什么改变?”这个问题,抛给一位从业者时,他的第一反应却是带着一点无奈的笑。他不否认大模型的巨大价值,但他也说,大模型绝不是你说冷了它就能给你开空调,而是“车懂你”。
其实不难理解,“我觉得热”可以被人工设定为一个条件,去激活开空调这个决策,而你妈妈可以不等你说,只听到你打了个喷嚏,就给你递来了秋裤。
当然,AI大模型对于汽车行业的改变,不止如此。
近日,在腾讯云与北京大学光华管理学院联合举办的线下“AI+出行”产业沙龙上,来自北大光华管理学院、腾讯、理想汽车和梧桐车联的嘉宾,从产品、行业以及商业规律的视角,展示了AI大模型的可能。
而我们也尝试将这场论坛的核心观点,以对用户和企业两个维度,展示给读者。
用户端:“知你、懂你、疼你”
腾讯智慧出行副总裁钟学丹总结了当下智能座舱的困境,他说:“用户的需求与产品经理的设定总会存在差异,而很多时候座舱功能无法真正解决用户的问题,也就使得用户对智能座舱给出‘差评’。”
| 钟学丹 腾讯智慧出行副总裁
而本质上,“AI大模型”给用户带来的,会是一个更“拟人”的智能座舱体验。
它可以理解你“这个”、“那个”的具体指代,也可以明白你非常生活化的口语,完成从你发出需求到完成执行之间的所有路径。
聊未来之前,我们也可以回想一下自己在车内曾经发生过的痛点。
比如互联网热梗“车内有刺客”的指示灯,归根结底是你很难通过与车机的交互直接获得“未系安全带”指示灯的含义,但如果你问一个老司机“这是啥意思”他马上就可以回答你。
再比如最近北京严寒,不少人在车友群里问车门被冻住了怎么办?雨刷要不要立起来?这些问题,你无法指望大多数车机给你答案,而只能又拿起手机。
其实这些非常细节的痛点,若你未曾经历,你可能很难感知到一个“懂你”的座舱到底是什么样子?8295芯片、更大的屏幕、更窄的边框这些一眼便知,而连续对话、可见即可说这些也不难理解。
但当智能座舱领域继续“卷”下去的时候,该让用户怎样理解和认知?
| 王永亮 梧桐车联科技有限公司副总经理、CTO
论坛上,梧桐车联科技有限公司副总经理、CTO王永亮提出了参考自动驾驶L1-L5分级的“智能座舱代际”观点,将智能座舱演进按照“策略脑1.0”到“策略脑4.0”分级,分别对应的时间与功能为:
策略脑1.0(2020)——执行脑,业务特征:单一决策;
策略脑2.0(2021-2022)——规则脑,业务特征:基于规则的策略;
策略脑3.0(2022-2024)——学习脑,业务特征:因果推理、心理分析(大模型加持);
策略脑4.0(2025-2026)——智慧脑,业务特征:预测、拟人。
从最简单的“若A即B”条件任务执行,到多场景的联动与交互,再到大模型加入后具备智慧分析、识别、预测、执行的综合能力的演进。
| 勾晓菲 理想汽车智能空间副总裁
理想汽车智能空间副总裁勾晓菲则从更底层的原理,解释了汽车交互发展的规律以及为何当下用户对智能座舱的认知度有限的原因。
勾晓菲认为,汽车与消费类电子的人机交互进化史是一致的:
消费电子最初基于windows的鼠标、键盘与界面交互,到之后图形界面出现,配合按钮、滚轮,类似于模拟鼠标键盘的输入,再到如今的触控屏幕。而到了汽车,也历经相同的发展,如今触控成为了主交互方式。
“但理想汽车一直在探索一个问题,这样的交互到底适不适合汽车?答案当然是否定的。”勾晓菲说。
对于车内座舱的触控交互,会存在以下几个矛盾。
首先,相比电子终端一对一的交互,汽车是一对多的,因为汽车内坐着多个人而每个人都有可能需要服务;
其次,汽车是一个三维空间,相比手机、电脑的二维平面,其交互体系是不同的;
第三,触控是需要手眼配合的交互,而这与驾驶员在驾车过程中需要将注意力集中到路面情况存在天然矛盾。
这也就带来了一些问题,比如后排乘客因为距离限制而无法通过触控使用前排屏幕,以及驾驶员很难在驾车过程中实现触控盲操等等。
因此,对于车内空间来说,最合适的交互模式是语音对话,但语音对话交互之所以在汽车发展的百年历程里没能成为主交互模式,原因很简单——不好用。
AI的到来,可以解决这一问题,也让座舱交互开始向“以对话为主,以触控为辅”的未来趋势开始转变。
| 理想汽车OTA 5.0上车的大模型交互逻辑
理想汽车最近发布的OTA 5.0实现了Mind GPT上车,也让车机拥有了包括自动任务编程、语音+手势的多重理解、多模态可见即可说等等能力,能当老师、能做导游……
这将会从根本上改变座舱交互的逻辑与模式。
勾晓菲讲道,人类的语音、对话都是开放式的,而大模型上车后也会让车内的对话变成开放式。
当下我们看到的无论是车机屏幕,亦或是手机和电脑,其菜单、界面都是产品经理与设计师预先设计的。
在产品设计阶段,产品经理会经常提到“高频刚需”这个概念,乍听上去似乎没错,但事实上,对于用户个体而言,在“高频刚需”之外也会有很多“低频但刚需”的场景。
“很多特斯拉车主买了新车后第一次开车的时候不知道怎么调整后视镜,因为它的设计是需要屏幕界面和方向盘滚轮的共同配合,这对于车主来说不是一个高频场景,但一定是非常刚需,因为调不好后视镜可能就没法开车上路。”勾晓菲说。
这就导致,通常情况下产品经理设计的满足“高频刚需”的UI界面,在此时变得非常难用。
“当我想调屏幕亮度时,如果配合的是一个触控界面,可能调出的是显示屏设置菜单,除了亮度以外,还有屏幕开关、刷新率等等设置。但如果按照语音交互的方式,就应该呈现给我一个亮度调节,而非近似的页面。”勾晓菲列举了另一个例子。