首页 排行榜文章正文

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

排行榜 2025年10月25日 15:14 0 admin

2025年10月,ChatGPT的热度明显降下来了。

以前我朋友圈里做AI产品的朋友,天天晒LLM(大语言模型)的新功能,现在却开始聊“神经形态计算”“具身AI”这些新词。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

这不是他们跟风换话题,是行业真的变了计算社区联盟刚发的报告说,想实现通用人工智能(AGI),不能只靠把LLM的参数越做越大,得走六条全新的技术路径。

早几年OpenAI的萨姆・奥特曼说2025年能搞出AGI,我还挺信的。

结果GPT-5出来后,朋友跟我吐槽,“参数比GPT-4翻了倍,可让它纠正数学题步骤,还是错得离谱”。

这才发现,LLM就像只会背书的学生,背再多书,也学不会“讲道理”。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

下面就跟大家掰扯掰扯,LLM为啥走不通单一路,这六条新路径又能帮AI补上哪些短板。

LLM遇到“天花板”

LLM最大的问题,用AI科学家兰斯・艾略特的话说,是“范式局限性”。

简单讲,就是它的核心是“统计学习”靠读海量文本,学里面的文字搭配规律,可没真正理解内容。

我朋友做过个测试,让GPT-5分析“小明把杯子碰倒,水洒了”的因果,它能说“因为碰倒杯子所以洒水”,但问“如果杯子是铁的,水还会洒吗”,它就绕圈子,说不出“跟杯子材质没关系,关键是倒了”。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

这就是所谓的“扩展性悖论”,参数从1750亿加到万亿,某些任务性能是涨了,但到了逻辑推理、因果理解这些核心能力上,就像撞到了天花板。

更麻烦的是,以前行业把钱都砸在LLM上,2023年全球AI投资里70%都给了生成式AI和LLM。

我另一个做创投的朋友说,去年有不少公司就靠“LLM微调”讲故事融资,结果产品没竞争力,今年倒了一大批。

本来想觉得“参数再大点总能行”,后来发现根本不是规模的事。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

AI发展史早证明了,每次大突破都得换底层架构以前符号AI不行了,来了深度学习;现在深度学习里的LLM遇阻,自然得找新路径。

计算社区联盟的报告说得挺实在,当前LLM时代就是个“过渡阶段”,不是AGI的终点。

六条新路径“补短板”:有的让AI“懂逻辑”,有的让AI“会动手”

既然LLM有短板,那六条新路径就是给AI“补功课”的,每条都有针对性。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

先说说神经符号AI,这玩意儿有点像“给AI补逻辑课”。

它把深度学习的“看图识物”能力,和传统符号系统的“按规则推理”结合起来。

我朋友公司试过用它做法律文档分析,LLM能找出关键词,但分不清“条款A是前提,条款B是结果”,神经符号AI就能理顺这个逻辑链,出错率降了不少。

这对需要精准推理的领域太重要了,比如医疗诊断、法律分析,总不能让AI靠“猜文字搭配”下结论。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

再看神经形态计算,这是从硬件上“模仿大脑”。

传统芯片是冯・诺依曼架构,数据存和算分开,耗电大;神经形态芯片像大脑神经元一样,存和算放一起,能效比高得多。

英特尔的Loihi芯片,能效是普通GPU的100倍。

我朋友去中科院交流过,他们做的“天枢”芯片,在处理多模态数据(比如同时看图片、听声音)时,反应比进口芯片还快,这对需要实时处理的AI场景,比如自动驾驶,太关键了。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

具身AI则是让AI“接地气”,学会在物理世界动手。

LLM只靠文本学习,根本不知道“杯子拿太近会掉”“走路要避开台阶”。

具身AI就是让机器人在真实环境里练,比如波士顿动力的机器人,能通过触觉反馈调整抓东西的力度,特斯拉Optimus能自己绕开障碍物。

我看过一段测试视频,具身AI机器人整理房间,会先把易碎品放稳,再搬重东西,这要是只靠LLM,根本学不会。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

剩下三条路径也各有用:多智能体系统是让AI“分工合作”,比如一个AI管供应链数据分析,一个管决策建议,一个管执行反馈,比单个AI干所有事靠谱;

以人为本的AI是让AI“帮人不替代人”,比如微软Copilot,会根据人的习惯调整建议,不是硬塞答案;

量子AI则是“算得更快”,比如Google用它算蛋白质结构,比LLM快10倍,以后搞新药研发能省不少时间。

如此看来,这六条路径不是“互相抢饭碗”,反而能搭着用。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

我朋友公司就在试“具身AI+神经符号AI”,让机器人先在现实里收集数据,再用神经符号AI梳理逻辑,结果机器人解决复杂任务的能力提了40%。

原来AGI不是靠某一条路跑到底,是把六条路的优势凑起来。

全球都在抢新赛道

这六条路径一出来,行业投资立刻变了方向。

2024年,神经形态计算的风投涨了不少,具身AI的投资也涨得厉害。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

我创投的朋友说,以前找他聊LLM项目的人挤破头,现在都拿着神经形态、多智能体的方案来谈,“大家都怕错过下一波风口”。

科技巨头也在调整方向。

Meta本来重点做生成式AI,现在加了不少具身AI的投入,还搞了个平台,让不同公司的机器人共享数据;

Google把量子AI的研发团队扩了一倍,想在量子比特稳定性上突破;微软则在多智能体系统上发力,用在企业办公协同上,据说帮客户省了不少人力成本。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

中国在这波转向里表现挺亮眼。

中科院的神经形态芯片,核心指标跟英特尔的不相上下,还支持多模态数据处理;

百度、阿里在多智能体系统上也有布局,百度搞的工业多智能体平台,能帮汽车工厂调度产线、检测质量,效率提了不少。

我朋友说,以前国外总觉得中国AI只靠应用层,现在在底层技术上,咱们也有能打的东西了。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

不过有个问题得注意,这些新路径都需要跨学科人才。

比如神经形态计算,得懂计算机还得懂神经科学;具身AI,得懂机器人还得懂材料科学。

我朋友公司招这类人才,薪资比普通AI岗位高30%还难招。

好在国内高校开始搞“AI+基础学科”的实验班,比如清华的神经形态计算班,以后人才缺口慢慢能补上。

LLM遇“天花板”!参数再大也不会“讲道理”,新路径来救场

说到底,现在AI领域就像刚开完“路线调整会”,以前一条道走到黑的LLM,现在成了六条新路径里的“一员”,不是主角了。

未来想实现AGI,靠的不是某一个技术“单挑”,而是六条路径“组队”。

或许再过十年二十年,我们回头看会发现,2025年这次路线调整,就是AGI征程上的一个关键转折点。

毕竟,想让AI真正“通用”,光会读文本可不够,得懂逻辑、会动手、能合作,这六条新路径,正好帮AI慢慢学会这些本事。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap