首页 景点排名文章正文

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

景点排名 2025年10月31日 15:35 0 aa

硅谷藏着家特“叛逆”的AI公司,叫ThinkingMachinesLab。

别家巨头比如OpenAI、谷歌DeepMind,都在砸几十亿拼算力、扩模型规模,这家公司偏不。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

研究员拉斐尔・拉法洛夫在旧金山TEDAI大会上直接放话:“真正的超级智能,不是算力堆出来的,是会‘学习’学出来的。

这家公司背景也不简单,前OpenAI首席技术官米拉・穆拉蒂联合创的,一上来就拿了20亿种子轮,估值120亿。

敢跟行业主流对着干,没点底气还真不敢这么折腾。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

拉法洛夫最戳心的一句话是,现在的AI看着厉害,其实都是“表面功夫”比如那些编码助手,每天都跟“第一天上班”似的,昨天学的东西今天就忘,碰到不确定的代码,就用try/except块糊弄,跟贴胶带补漏洞似的,只顾眼前不管以后。

主流AI都在“死记硬背”,元学要教AI“怎么学”

拉法洛夫说,现在的AI叫“训练”,不叫“学习”。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

训练是给个数学题,答对了给奖励,然后就把解题过程里的思路全扔了;下次碰到类似的,还得重新来。

这就像学生做题只记答案,不记公式,换个数字就懵了。

他们搞的“元学习”,说白了就是教AI“怎么学习”。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

不是让AI刷一万道题,而是给它一本研究生教科书,让它像真学生那样,一章一章学。

先做基础练习,把概念吃透,再用前面的知识解后面的题。

比如学数学,先懂代数,再用代数算微积分,而不是每次算微积分都得重新学一遍代数。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

奖励机制也改了。

以前是答对一道题给一分,现在是“学会一个概念”给分。

比如AI学完一章,能自己用这章的知识解新题,就算进步,就给奖励。

更意外的是,拉法洛夫说不用造新的AI架构,“现在的架子够了,关键是数据和目标没找对”。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

这话挺颠覆的,行业里大多觉得得搞新架构才能突破,结果他说“换个方法用现有工具就行”。

我身边有个做AI开发的朋友,他说“以前堆算力,跟比谁电脑配置高似的,看着热闹,其实没解决根本问题。

现在这家公司说‘教AI怎么学’,反而像从‘填鸭式’改成‘启发式’,更靠谱”。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

我也觉得是这理,毕竟再强的算力,没会学习的脑子,也只是个“解题机器”,成不了“聪明人”。

超级智能不是“上帝模型”,但这条路不好走

拉法洛夫眼里的超级智能,跟电影里不一样。

不是那种无所不能的“上帝模型”,能解所有数学题、能推理一切。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

而是一个“会探索的学习者”能自己提理论,设计实验,跟环境互动验证想法,还能不断改进。

比如想研究一个新问题,AI能自己查资料,用电脑跑模拟,甚至控制机器人做实验,而不是等着人喂数据。

但这条路难走。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

首先是人留不住,联合创始人安德鲁・塔洛克10月初就走了,回了Meta。

之前《华尔街日报》还说,谷歌、OpenAI这些巨头用高薪挖他们的人,30人的团队本来就小,再走几个就更难了。

10月他们出了首款产品Tinker,只是个微调开源模型的API,跟“元学习造超级智能”的目标比,差得有点远。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

拉法洛夫自己也承认“这事儿很难,得在内存、工程、数据上都突破”,而且他没说啥时候能成,不像有的公司动不动就说“几年内搞出AGI”。

不过这也挺好,至少没画大饼。

现在行业里要么拼算力比参数,要么吹牛皮说快成AGI了,这家公司能沉下心搞“怎么让AI学习”,就算慢,也算是另一条路。

拉法洛夫掀桌子!AI不用拼参数,会“学怎么学”才顶用

毕竟AI最终要帮人解决问题,光会解题不够,得会自己找问题、学方法,才算真有用。

最后也没啥结论,就是觉得AI发展不一定只有一条路。

巨头堆算力可能快,但说不定元学这条路,最后能走得更稳、走得更远。

你们觉得呢?是觉得堆算力靠谱,还是教AI学习更实在?

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap