来源:36氪
LeCun一直觉得LLM是条死胡同,
这才是矛盾的核心。
来源|APPSO(ID:appsolution)
封面来源|IC photo
那个站在LLM风口上唱反调的倔老头,可能离开Meta了。
硅谷大佬出走创业,三天两头就有一桩,但要出走的Yann LeCun不一样,他是能让扎克伯格亲自登门的重量级人物,是深度学习三巨头之一,图灵奖得主,Meta AI Research的开山祖师。
更重要的是,他这些年一直在干一件特别拧巴的事:站在全世界最热闹的LLM路线门口,举着牌子说「这帮人走错路了」。
现在《金融时报》传出他要离职,说他在筹备自己的初创公司,已经开始接触投资人了。注意,目前只是风声,言之凿凿地说LeCun已经离职创业,这显然是不严谨的。
只是,截至发稿前,面对铺天盖地的报道,Yann LeCun本人还没吭声,这沉默本身,就很说明问题。
从三顾茅庐到分道扬镳,这十二年到底发生了什么?
2013年那场豪赌,
扎克伯格赌对了吗?
Lecun与Meta故事得从2013年说起。
那段时间,正是深度学习蓬勃兴起的阶段。2012年,Geoffrey Hinton与其学生Alex Krizhevsky、Ilya Sutskever提交的Alex Net在ILSVRC-2012一骑绝尘,top-5错误率约15.3%,这个突破让整个学术界和工业界都看到了神经网络的潜力。
然后就是科技巨头们的抢人大战——谷歌花大价钱收购了Hinton所在的创业公司DNNresearch,顺带把老爷子本人也挖走了;微软研究院也在疯狂扩张AI团队。
扎克伯格坐不住了。
Facebook(现为Meta)当时正在从PC互联网往移动互联网转型,新闻推送算法、照片识别、内容审核,哪哪儿都需要技术。
但问题是,Facebook的AI能力跟谷歌、微软根本不在一个量级。扎克伯格需要一个能撑起门面的人物,最好是那种在学术界有足够分量、能吸引顶尖人才加盟的大牛。
他盯上了Yann LeCun。
LeCun当时在纽约大学当教授,已经干了十多年。那时的Lecun自然不是什么新人,早在1989年,他就在贝尔实验室搞出了卷积神经网络(CNN),用来识别手写数字,这后来也成了计算机视觉的基石。
但那个年代深度学习不受待见,LeCun就这么冷板凳坐了许久,眼睁睁看着自己的研究被边缘化。直到2012年,Hinton用深度学习拿下Image Net冠军,证明了神经网络这条路走得通。
LeCun憋了的那口气,终于能吐出来了。
后续,扎克伯格亲自登门拜访。具体谈了什么外人不知道,但最后开出的条件足够诱人:
第一,给钱,主打一个资源自由;第二,给自由,LeCun可以保留纽约大学的教授身份,继续教书搞研究;第三,给权,让他参与建立Facebook AI研究院,怎么招人、做什么方向,全由他说了算。
这对一个憋屈了多年的学者来说,简直是梦寐以求的机会。
2013年末,LeCun正式加入Facebook,出任新成立的Facebook AI Research(FAIR)实验室负责人。
他在纽约、门洛帕克和伦敦三地建起了FAIR实验室,自己常驻纽约办公室。
团队最初规模较小,但个个都是从顶尖高校和研究机构挖来的——LeCun的号召力在这时候体现出来了,但凡是做深度学习的,没人不知道「卷积神经网络之父」这个名号。
扎克伯格给了资源,LeCun也拿出了成果。
加入Facebook这些年,LeCun干的事情可以分成三条线:一是把深度学习塞进Facebook的产品里,二是推动学术界的前沿研究,三是培养下一代AI人才。
产品线上,2014年的Deep Face人脸识别系统达到97.35%准确率,深度学习优化的推送算法也提升了广告点击率。
与此同时,LeCun自己继续在学术圈刷存在感:发论文、顶会keynote、带学生办workshop。直到和Hinton、Bengio一起拿图灵奖,才算是熬出头了。
此外,在LeCun创建的FAIR实验室,Soumith Chintala主导开发了PyTorch框架并于2017年开源,这也是Meta至今为数不多的形象招牌。
PyTorch动态计算图、Python原生接口,调试方便,学术圈迅速倒戈。这一招等于把全球AI研究者都拉进了Facebook生态。
不过,或许是冥冥中自有天意,Soumith前几天也宣布离职Meta,表示「不想一辈子做PyTorch」。
而更重要的是人才培养。FAIR有个规矩:研究员可以自由发表论文、跟学术界合作、指导外部学生。顶级资源加学术自由的组合,自然吸引了一批顶尖研究人员。
到2020年前后,FAIR已是全球顶尖AI研究机构之一,跟谷歌DeepMind并列第一梯队。扎克伯格的那场豪赌,至少在前七八年就已经得到了不小的回报。
猫比ChatGPT聪明?
这个图灵奖得主是认真的
在ChatGPT席卷世界初期,YannLecun和扎克伯格也有过一段甜蜜期。
2023年以来,Meta陆续开源LLaMA系列模型,引发业界震动。
OpenAI、谷歌走的是封闭路线,靠API赚钱;Meta却把模型权重直接扔出来,任人取用。这步棋背后的算盘其实挺清楚:与其让对手一家独大,不如用开源赢得开发者生态,让LLaMA成为AI界的Android。
至少在明面上,身居Meta首席AI科学家一职的LeCun,是这条路线最坚定的拥护者。
开源LLa MA让Meta在大模型竞赛中站稳了脚跟,也让LeCun的AI理想得到了一定程度的实现——尽管这个实现的方式,恰恰是通过他并不完全认同的LLM技术路线。
没错,LeCun一直觉得LLM是条死胡同。这才是矛盾的核心。
LeCun不止一次在公开场合炮轰LLM路线,在他看来,LLM只会根据统计相关性预测下一个词,根本不理解世界。你问它常识问题,它能给你编出一本正经的瞎话——这叫「幻觉」(hallucination),说白了就是不懂装懂。
熟悉LeCun的人都知道,他最喜欢举的例子是猫和机器人:
「我们有了会考试聊天的语言模型,但家务机器人在哪里?哪怕像猫那样灵巧的机器人都没有出现。」
「你的猫肯定有一个比任何AI系统都更复杂的模型。动物拥有持久记忆的系统,这是目前的LLM所不具备的;能够规划复杂动作序列的系统,这在今天的LLM中是不可能的。」
他算过一笔账:一个4岁小孩通过视觉获取的信息量,几年下来就有10的15次方字节,远超LLM读遍互联网文本。但小孩已经掌握了基本的物理直觉和语言,LLM耗费这么多数据,智能仍然很有限。
「光靠喂文本,不可能达到人类水平智能。这条路永远走不通。」他如此说道。
在当下最火的风口面前,这样唱反调的言论显然并不讨喜,有人批评他傲慢,有人说他故步自封。甚至Meta内部都有声音认为,正是LeCun对LLM路线的抵触,让公司在大模型竞赛中暂时落后。
但LeCun不在乎。
他有自己的路线图:世界模型(WorldModel)、联合嵌入预测架构(JEPA)等等。这些概念听起来学术味十足,核心思想其实很直观——
让AI通过观察世界来学习,而不是通过阅读文本来记忆。就像婴儿成长那样,先理解重力、因果关系这些物理常识,再逐步建立抽象认知。
他设想的AI架构是模块化的:感知模块、世界模型模块、记忆模块、行动模块,各司其职。不像LLM那样把所有知识和推理揉在一个巨型网络里,搞得像个什么都懂但其实什么都不懂的「书呆子」。
具体来说,世界模型就是让AI在内部学会一个对外部世界的预测模型。就像婴儿在成长过程中建立起对重力、物体恒存等常识那样,AI应该通过观察世界,形成对物理规律、因果关系的理解。
有了世界模型,AI就可以在脑海中模拟未来,从而具备计划行动的能力。
JEPA则是实现这个世界模型的具体架构。
它采用自监督学习的方法,给AI两个相关的输入(比如视频中相邻的两帧画面),模型将这两个输入分别编码到一个抽象的表示空间中,然后训练一个预测器,根据「上下文」表示去预测「目标」表示。
这种方式避免了直接生成所有细节,而是关注抽象的关键因素——更符合人类学习方式。LeCun曾预言,如果团队的路线顺利推进,三到五年内就会有更好的范式出现,使得现在基于LLM的方法过时。
问题是,三到五年,Meta等得起吗?
一场猝不及防的重组,
FAIR的黄金时代结束了
当初,LeCun建立FAIR时的承诺是「做长期的、基础性的AI研究」,扎克伯格也同意了。
但这个「长期」到底有多长?「基础研究」到底能给公司带来多少直接收益?这些问题在早期不是问题,因为深度学习本身就是风口,FAIR做什么都有望转化成产品优势。
可随着生成式AI开始爆发,竞争也日益激烈,形势开始发生了变化,尤其是Llama4的失败也给了扎克伯格当头一棒。扎克伯格要的是现在就能用的技术,不是五年后可能有用的理念。
于是,一场猝不及防的重组出现了。
就在今年,Meta搞了个大动作,成立「超级智能实验室」,把FAIR、基础模型团队和各应用AI团队统统塞进一个筐里。表面上是整合资源,实际上是一场彻底的权力重组。
这场重组的核心逻辑很明确:让研究直接服务产品,让科学家为商业目标让路。
FAIR团队原本「相对不受干扰地开展研究」,现在得跟着产品节奏走,研究方向要服务于个人AI助手。此外,Meta对FAIR的研究发表制定了更严格的内部审核机制。
研究员在对外发布论文、开源代码之前,需要经过额外的内部交叉审阅和管理层审批,原因在于Meta担心自己砸钱搞出来的成果被竞争对手白嫖。
LeCun对这些变化表现出强烈的抵触。
据多方报道,他在内部激烈反对新的论文审核制度,为维护研究自由据理力争。TheInformation援引知情者的话称,LeCun在今年9月一度「气到考虑辞职」以示抗议。
但或许更让他难以接受的是领导权的旁落。
扎克伯格在重组中做了一个大胆的人事任命:从外部挖来AlexandrWang,让他担任Meta的首席AI官,直接向CEO汇报。
AlexandrWang是谁?一个28岁的MIT辍学生,他创办的公司ScaleAI专门做数据标注业务,给各大科技公司的AI模型提供训练数据。
扎克伯格看中的,恰恰是Wang的产品思维和商业嗅觉。在生成式AI的竞赛中,Meta需要的不是象牙塔里的理想主义者,而是能快速把技术转化为产品的实干家。
这个任命的震撼在于:LeCun这个图灵奖得主、深度学习三巨头之一、在Meta干了十二年的首席AI科学家,在新架构下的话语权被大幅削弱,甚至要向Wang汇报。
同时,今年7月,扎克伯格还任命了年轻有为的赵晟佳为超级智能实验室的首席AI科学家,负责制定新实验室的研究方向。
有趣的是,LeCun当时发了个声明,说自己角色没变、使命没变,还期待跟新团队合作。这求生欲属实拉满。但他对于研究方向和领导层重组的分歧,显然是公开的秘密。
而真正可能成为压垮骆驼的最后一根稻草的,是最近的裁员。据报道,Meta近期对AI团队进行了裁员,波及到FAIR研究部门以及与产品相关的AI团队,甚至华人大佬田渊栋也因此受到了波及。
裁员的信号很明确:Meta不再愿意为「看不到短期回报」的基础研究买单了。那些不能直接转化为产品功能、不能立即提升用户增长或广告收入的研究方向,都成了被砍的对象。
MetaAI华人科学家田渊栋:「AI没有上限,现在只摸到了智能的边」
FAIR的黄金时代结束了。
种种因素之下,《金融时报》爆料他在筹备创业,倒也不算意外。
学术大佬出来单干,最近几年已经成了硅谷新常态。Hinton退休后到处演讲呼吁AI监管,Bengio也有自己的实验室和创业项目。LeCun若是真出去创业,没准反而是好事。说到底,这事儿没有谁对谁错。
LeCun能够在Meta之外继续他毕生的事业。
他带走了那个被Meta「搁置」的愿景,可以放开手脚搞自己的世界模型,用自己的方式证明它是正确的,再也不用跟产品经理扯皮,不用向28岁的小老弟汇报。
成了,那就是「我早说过LLM是死路」;败了,顶多被人嘲笑几句「你看那个老顽固」。
而对于Meta来说,扎克伯格要给股东讲故事,要把最实用的生成式AI塞进旗下产品的各个角落,这确实是CEO该干的事。
只是,尽管少了LeCun也不会伤筋动骨,但可能会少点不一样的声音。
等哪天大家发现LLM真的走到瓶颈了,回头看看当年那个举着反对牌子的倔老头说过什么,或许会觉得别有一番趣味。