深陷业绩泥潭的Mobileye为了反击公众对其技术路线的质疑,特别在2024年10月1日召开了投资者大会,会上详细解释了Mobileye技术路线的优越性,对特斯拉、端到端和英伟达Orin都提出了质疑和批判,甚至顺便批评了GPT4o。
Mobileye的CAIS就是Compound AI Systems 复合人工智能方案,实际还是人工定义规则方案,MTBF即Mean time between failures平均故障间隔时间,也就是多久出现一次故障 。Mobileye表示其与汽车制造商的合作中,MTBF 目标是 10的7次方小时的驾驶时间。而特斯拉MTBF是多少呢?
特斯拉最先进的FSD 12.5平均每300英里就要人工接管一次,MTBF顶多是10小时,跟Mobileye的10的7次方有天壤之别。
接下来Mobileye开始批判端到端路线,端到端要想成功,前提至少有两点,首先是没有glue code胶合代码,其次是训练数据必须都是正确的,没有错误示范,这意味着必须加入人工干预,也就是说真正的端到端完全不存在,端到端是将Glue code转变到线下,需要人类来挑选高质量正确的数据用于训练。
对端到端来说只有正确和不正确两种状况,但是加入人工因素,就复杂了,例如上面三种,1是轻微无视交通规则,2是加塞,3是鲁莽驾驶,3种都可以算正确也可以算不正确。RLHF即Reinforcement Learning from Human Feedback人类反馈的强化学习。
接下来Mobileye批评了GPT4o,这个看起来很牛的数千亿参数的大模型,能做好20*20的乘法表吗?当然不能,错误率超过60%。端到端学习通常会遗漏那些重要的抽象逻辑信息,端到端实际是记忆,而非学习,学习是可以获得抽象内涵逻辑的。
Mobileye继续diss端到端,毫米波雷达和激光雷达都是简单系统,但视觉系统很复杂,端到端的简单融合,根本就没有效果,远不如CAIS的高级融合。
Mobileye认为端到端没有抽象规则的注入,会产生Variance,会自行生成错误,而有人工定义的抽象规则注入,顶多是Bias偏差,偏差当然比错误要好,这就是说端到端数据少了容易过拟合,失去泛化能力,数据多了会因为错误示范数据产生错误。
接下来Mobileye开始diss端到端的核心:transformer架构。
没有用链条规则,那么维度是10的32次方,计算成本极高,如果加入链条规则,维度变为100,计算成本降低99%。
Mobileye认为FCN全连接具备更高的效率,比RNN类型的transformer好多了。
Mobileye说的transformers似乎是带有自注意力的稠密网络即Vanilla Transformer。
CNN骨干网简洁高效,而transformer对算力和存储的消耗惊人,即便是最低的10Hz帧率就要100TOPS算力,每个token高达100Mb,9600个tokens是9600*100/8=120GB。这个实际无需Mobileye提出,目前包括特斯拉都还是使用CNN骨干网,即便是用英伟达单张H100也无法实现全Transformer,存储的容量和带宽成本比算力还高。尽管没人承认自己还在用老旧的CNN,但目前任何一个量产项目都离不开CNN骨干网。
Mobileye继续抨击Transformer,指责其效率太低,自连接高达3170亿个,而FCN只需要10的4次方个。
最后Mobileye对端到端做了总结,第一条就指责transformer效率太低,完全是暴力拟合,拼的就是算力。
Mobileye提出稀疏型注意力而非连接众多的自注意力。
也就是并行自回归网络,将token分级,每一级与每一级之间才有连接,才有self attention,分级内部不再连接,大大减少了计算强度,不过transformer的核心就是self attention,这种人工规则将transformer的性能大打折扣,transformer的奠基论文正是《Attention is All You Need》
Mobileye总结,效率比传统transformer高100倍,所以不需要那么高的算力。
最后Mobileye力推自己的EyeQ6H,算力跟英伟达Orin差8倍,但ResNet50每秒帧率只差两倍,显然EyeQ6H性价比更高。
最后还是Mobileye对自己芯片的介绍,即五大计算资源,MIPS-通用CPU,用于标量和逻辑运算,MPC(Multithreaded Processing Cluster)-专门用于线程级并行的CPU,VMP(Vector Microcode Processor),使用超长指令宽度(VLIW)-单指令多数据(SIMD);专为定点算法的数据级并行性而设计(例如,将12位原始图像收敛为一组不同分辨率和色调图的8位图像);基本上,对整数向量执行操作PMA(Programmable Macro Array)-粗粒度可重构阵列(CGRA);为数据级并行设计,包括浮点运算;基本上,对浮点数向量执行操作。XNN-专注于深度学习的固定函数:卷积、矩阵乘法/完全连接和相关激活后处理计算:例如CNN、FCN。这些都是Mobileye在10年前就确定的计算资源,似乎Mobileye不愿做出改变,或者不能做出改变,这样的计算架构很难同时兼顾高算力和成本。
Mobileye的路线是模块化,或许是研发成本太高,亦或高价芯片不是Mobileye主要客户能接受的,Mobileye似乎不打算推出高算力芯片,EyeQ6H会一直沿用,算力不够就增加芯片数量,不过即使4个EyeQ6H算力能够叠加,也不过136TOPS,更何况低成本的以太网交换机是不可能让算力无损失叠加的。
Mobileye对特斯拉和端到端的指责当然是正确的,transformer当然也是纯粹靠蛮力拟合,缺乏技巧,但这就是目前AI的主流,transformer是一切大模型的源头,当今AI的主流就是拼算力,不讲效率和技巧,Mobileye想对抗AI主流,无疑是螳臂当车。特别是在中国,端到端,特斯拉(马斯克)都被追风,各厂家都在宣传自己的端到端能力如何强大,整个舆论风潮已经将端到端和特斯拉推上神坛,消费者迷信端到端和特斯拉。如此形势下Mobileye逆潮流而动,勇气可嘉,但恐怕要完全失去中国市场。中国市场除非是苹果、特斯拉和华为这样的超级巨头能够引领或教育消费者价值观,中小企业只能顺应消费者价值观,虽然Mobileye说的都是事实,但逆潮流而动,一样会被消费者抛弃,消费者要的是他认为的“真理”。
免责说明:本文观点和数据仅供参考,和实际情况可能存在偏差。本文不构成投资建议,文中所有观点、数据仅代表笔者立场,不具有任何指导、投资和决策意见。