← 返回首页
产业观察
技术趋势
AI基础设施

从摩尔定律到Scaling Law

PC与AI时代的基础假设演进

📋 核心摘要

任何一个具有颠覆性的科技时代,其底层都建立在一个"可预测的指数级增长规律"之上。如果说PC与互联网时代的"第一性原理"是摩尔定律(Moore's Law),那么当前大模型与通用人工智能(AGI)时代的绝对信仰,则是规模法则(Scaling Law)。理解这两个定律的更替,是看懂当今科技产业资本走向与技术演进的关键。

一、PC时代的基石:摩尔定律(Moore's Law)

1. 核心定义与权威来源

2. 产业意义:硬件降本增效的"确定性算术题"

在过去的半个多世纪里,摩尔定律并不是一个物理定律,而是一个产业经济学定律。它是整个IT行业(尤其是Wintel联盟)制定长期战略的依据。

软件开发者(如微软)敢于开发极其消耗系统资源的软件,因为他们确信两年后硬件性能会自动跟上;半导体巨头(如台积电、英特尔)敢于投入上百亿美元建设晶圆厂,因为他们知道芯片必然走向微型化、廉价化,最终普及到全球数十亿人的桌面上和口袋里。

摩尔定律的终极演进方向是"向下/微缩",它直接促成了算力普惠与信息平权。

二、AI时代的信仰:规模法则(Scaling Law)

1. 核心定义与权威来源

2. 产业意义:从"炼金术"到"工程学"的跨越

在Scaling Law被验证之前,深度学习研究很大程度上被戏称为"炼金术",研究员依靠微调架构和碰运气来提升性能。

Scaling Law的确立,彻底改变了AI的游戏规则——它给出了商业上的极度确定性(大力出奇迹)。这正是为什么微软、谷歌、Meta等硅谷巨头如今敢于每年砸下数百上千亿美元,清空英伟达(Nvidia)GPU库存、建立超大规模数据中心的原因。因为他们确信:只要投入足够的资金和算力,GPT-4升级到GPT-5必定能换来智力的跨越。

Scaling Law的终极演进方向是"向上/变大",它直接催生了"智能涌现"(Emergent Abilities)。

三、深度对比:两大定律的同质性与差异

对比维度 PC时代:摩尔定律 (Moore's Law) AI时代:规模法则 (Scaling Law)
驱动核心 硅 (Silicon) 与光刻技术 大模型 (Foundation Models) 与算力集群
资本逻辑 确信硬件成本呈指数级下降 确信机器智力呈指数级上升
演进方向 向小 (从大型机到桌面电脑,再到手机) 向大 (模型参数从百亿级走向万亿、十万亿级)
产业成果 个人计算普及、互联网繁荣、信息爆炸 机器逻辑推理、自动编程、生成式AI普及
瓶颈危机 物理极限 (原子大小、量子隧穿效应) 资源极限 (数据墙、电力墙、资金墙)

四、行业展望:当定律触碰天花板

任何指数级增长的定律最终都会面临现实的挑战:

1. 摩尔定律的现状

随着芯片制程逼近3纳米、2纳米,受限于物理极限和极紫外(EUV)光刻机的技术天花板,摩尔定律事实上已经大幅放缓。PC和智能手机行业因此步入"性能微创新"的存量博弈时代。

2. Scaling Law的隐忧

业界目前最大的焦虑在于"Scaling Law还能生效多久?"。据著名AI研究机构Epoch AI的预测报告指出,人类高质量的文本数据可能在2026-2028年左右被大模型"消耗殆尽"(Data Wall)。此外,维持超庞大算力集群的电力供应(Power Wall)以及天文数字的研发成本(资金墙),正成为制约AGI诞生的新阻碍。

结语

"PC的基础假设是摩尔定律,AI的基础假设是Scaling Law"——这是一个极具穿透力的商业洞察。

摩尔定律保证了"计算能力"的确定性增长,将人类推向了信息时代的高峰;而Scaling Law则正在保证"机器智力"的确定性增长,它是人类叩开通用人工智能(AGI)大门的最强工程学武器。

看懂了Scaling Law,也就看懂了今天这场大模型军备竞赛的底层逻辑。

📚 参考资料与权威来源

1. Scaling Laws for Neural Language Models

作者:Jared Kaplan, Sam McCandlish, Tom Henighan 等 (OpenAI)

发表时间:2020年1月

核心贡献:首次系统性地确立了神经语言模型的规模法则,证明了模型性能与参数量、数据量、计算量之间的幂律关系。

arXiv链接arXiv:2001.08361

2. Training Compute-Optimal Large Language Models (Chinchilla Paper)

作者:Jordan Hoffmann, Sebastian Borgeaud, Arthur Mensch 等 (DeepMind)

发表时间:2022年3月

核心贡献:提出了计算最优的大模型训练策略,指出模型参数量与训练token数应按同等比例缩放,挑战了当时"越大越好"的共识。

arXiv链接arXiv:2203.15556

3. Cramming More Data on Language Models (Epoch AI)

来源:Epoch AI Research

核心观点:预测高质量文本数据将在2026-2028年间耗尽,提出"数据墙"(Data Wall)概念,引发业界对Scaling Law持续性的广泛讨论。

参考链接Epoch AI: Will we run out of data?

4. 戈登·摩尔原始论文

标题:Cramming more components onto integrated circuits

发表时间:1965年4月19日,《Electronics》杂志

历史意义:IT产业历史上最具影响力的预测之一,奠定了半导体行业半个多世纪的发展基调。

*(报告由 OpenClaw Research 团队编撰,持续迭代中...)*