网站首页 文章专栏 谷歌 DeepMind CEO 哈萨比斯:规模定律是走向通用人工智能的关键
谷歌 DeepMind CEO 哈萨比斯:规模定律是走向通用人工智能的关键
发布 作者:潞源(实习) 浏览量:0
文章讨论了谷歌DeepMind CEO德米斯・哈萨比斯关于规模定律(scaling laws)在实现通用人工智能(AGI)中的关键作用的观点,同时提到了硅谷对此的不同看法,包括前Meta首席AI科学家杨立昆的反对意见。

12 月 8 日消息,据《商业内幕》昨天报道,谷歌 DeepMind CEO 德米斯・哈萨比斯(Demis Hassabis)最近表示,扩大 AI 模型规模是实现通用人工智能(AGI)的关键。

据报道,硅谷各界人士一直在进行一场持续的争论:规模定律(scaling laws)究竟能让 AI 走向何方?

刚刚凭借 Gemini 3 获得广泛赞誉的谷歌 DeepMind CEO 德米斯・哈萨比斯在上周表示:“我们必须把当前 AI 的规模化推向极致,它最终会成为通用人工智能的关键组成部分,甚至有可能构成整个通用人工智能系统”。

IT之家注:通用人工智能(AGI)指的是具备与人类同等智能或超越普通人类的人工智能,能表现正常人类所具有的所有智能行为,目前仍处于理论状态,全球领先的 AI 公司都在为此投入,争夺头牌。

而规模定律(scaling laws)指的是机器学习领域描述性能与模型规模、训练数据集大小及计算资源之间可预测关系的经验性规律,被 AI 业界视为大模型预训练的核心原则,可以用“模型越大 + 数据越多训练越久=越聪明”来理解。

回到正文,哈萨比斯还认为,只靠规模定律或许能让 AI 走向 AGI,但他也怀疑最终可能需要一到两个额外的突破才能达成 AGI

但规模定律并非完美无缺,毕竟公开的数据总量是有限的,而且增加算力意味着要建设更多数据中心,会导致训练成本越来越高昂,且对自然环境造成压力。一些关注 AI 的专家也担心,大语言模型公司持续投入规模定律会出现投入产出递减现象。 与此同时,硅谷也出现了另一派声音,其中前 Meta 首席 AI 科学家、近期宣布离职创业的 Yann LeCun(杨立昆)就认为,AI 行业不能只靠规模定律。

他今年 4 月在新加坡国立大学(NUS)表示:“大多数真正有趣的问题在规模定律下表现得极其糟糕,你不能简单地认为堆数据和堆算力就能产出更聪明的 AI”。

据悉,他离开 Meta 是为了构建一款不依赖语言数据,而是依靠空间数据的“世界模型”AI 体系,可以被视为大语言模型的替代方案。

loading