算力丨计算机芯片的演变:从DeepSeek崛起,英伟达暴跌谈起
过去几十年,计算能力的增长如同一列高速行驶的列车,不断突破人类想象的极限。然而,DeepSeek 低成本、高效率 AI 模型的崛起,正引发市场对科技巨头巨额投入的深刻质疑。AI浪潮中当前最大的赢家——英伟达市值一夜蒸发 5890 亿美元的暴跌,更像是一场提前到来的“技术地震”,让整个投资行业和芯片行业重新审视AI算力现实。
在过去的半个世纪里,摩尔定律——“每 18-24 个月,芯片的晶体管数量翻倍,计算能力大幅提升,同时成本下降”——一直是科技行业的黄金法则。然而,物理极限与制造成本的飙升,让这一增长模式愈发难以维持。英伟达 CEO 黄仁勋的直言:“芯片价格下降的时代已结束。” 这不仅宣告了过去廉价计算能力红利的终结,也预示着一个新的计算架构与芯片设计的时代即将到来。
随着 AI 模型的快速进化,算力需求指数级增长,传统芯片架构正在面临空前挑战。英伟达、AMD 和英特尔等传统巨头,正竞相探索自研 AI 专用芯片,而谷歌、苹果、微软等科技公司也在押注自研 ASIC(专用集成电路)与 RISC-V 架构,以降低对 GPU 的依赖。计算架构的变革,不仅关乎 AI 发展,更决定了未来科技霸主的更替。
计算能力不再是简单的硬件竞赛,而是架构、能效与生态系统的全方位竞争。在这个关键的技术拐点,我们将回顾计算机芯片技术的发展历程,探讨从摩尔定律时代到 AI 计算时代的重大变革,并展望谁将在这场科技战争中主导未来。 文末阅读原文,访问硅谷科技评论AI创投库(SVTR.AI),查看全球176家AI算力企业详情。
📷 图片包含在完整版文章中,点击文末按钮查看
一、电流的流动:计算机革命的起点
电流在计算机中扮演着至关重要的角色,它是信息的物理载体。为了能够操控信息,人类首先需要学会如何操控电流的流动。在 20 世纪初,电子工程领域面临的最大挑战之一,就是如何利用电信号来控制电信号的开关。1911 年,来自帕洛阿尔托(Palo Alto)的李·德福雷斯特(Lee DeForest)取得突破,他发明了真空管,这是最早能够实现这一功能的电子元件之一。
真空管是一种玻璃管,其中包含两个主要部件:阴极(cathode)和阳极(anode)。阴极在加热后会释放电子,而阳极则可以通过施加电压来控制这些电子是否能够通过真空到达另一端,从而决定是否导通电流。这一基本原理成为早期电子设备的基础,使更复杂的电子系统成为可能。
早期的电子电路是由焊接在一起的真空管、铜线以及其他基础元件构成的。这些电路可以执行基本的逻辑运算,若足够多的逻辑单元被组合在一起,便可以构建出一台原始的计算机,能够进行加法、减法、乘法和除法运算。1946 年,宾夕法尼亚大学研制的ENIAC(电子数值积分计算机)就是第一批尝试大规模电子计算的设备之一。然而,它包含18,000 个真空管,连接着数英里长的铜线,并且需要消耗 150,000 瓦特的电力才能运行。据传,每当 ENIAC 启动时,整个费城的灯光都会微微变暗。
由于真空管在工作时会发热,机器内部必须配备风扇进行冷却。而真空管的发光还会吸引飞蛾,导致短路,因此工程师们不得不经常“去虫(debug)”——这个术语后来也演变成程序调试的代名词。
尽管真空管为电子计算机的诞生铺平了道路,但它们的体积大、功耗高且易损坏。对此,贝尔实验室(Bell Labs)的研究人员开始探索新的材料——半导体。半导体的特性介于金属导体和绝缘体(如玻璃)之间,它能够在特定条件下选择性地让电流通过。关键问题在于如何精准控制电流的流动,以替代脆弱而耗能的真空管。
1947 年,约翰·巴丁(John Bardeen)和沃尔特·布拉顿(Walter Brattain)在威廉·肖克利(William Shockley)的指导下,成功制造出了第一个晶体管(transistor)——一种全新的固态电子开关。晶体管能够在固体材料内部实现电流开关,而不再需要通过玻璃真空管。这意味着电子电路可以变得更小,开关速度更快,能耗更低。
两年后,肖克利在接受采访时表示:
“关于电子大脑(即计算机)的设想已经被研究了很久。在这些机器人般的‘大脑’中,晶体管无疑是最理想的‘神经元’。”
晶体管的出现,彻底改变了计算机的发展轨迹。相较于笨重、易损坏的真空管,晶体管不仅体积小、能耗低,还极大地提升了计算机的计算速度和可靠性。随着半导体技术的进一步发展,晶体管的集成度不断提高,最终催生了集成电路(IC),并最终演变为我们今天所熟知的微处理器。这一切,奠定了现代计算机的基础。
电流的流动,是信息处理的核心。正是人类对电流开关技术的不断探索,才让计算机从庞大的电路堆积物,发展成为如今强大而便捷的智能设备。
📷 图片包含在完整版文章中,点击文末按钮查看
二、集成电路(IC):微型化革命的开端
威廉·肖克利(William Shockley)很快意识到,晶体管将取代真空管,成为未来电子设备的核心。他成立了自己的公司——肖克利半导体(Shockley Semiconductors),试图大规模生产这些新型器件,并招募美国最顶尖的科学家加入他的团队。其中就包括来自麻省理工学院(MIT)的罗伯特·诺伊斯(Robert Noyce)和加州理工学院(Caltech)的戈登·摩尔(Gordon Moore)。尽管肖克利的想法极具前瞻性,但他本人却是一个令人难以忍受的领导者。短短一年内,所有工程师都愤然离开,另起炉灶,成立了自己的公司,同时也成就了硅谷一批VC投资的传奇。
这家新公司就是仙童半导体(Fairchild Semiconductors),它得名于主要投资方仙童公司(Fairchild Corporation),并被认为是硅谷历史上第一家真正的“初创企业”。在这里,工程师们迎来了半导体行业的巨大机遇——大规模制造晶体管。然而,早期制造晶体管的过程却异常艰难。尽管晶体管已经足够微小,但仍然需要手工焊接到其他电子元件上,这不仅耗时耗力,而且极易出错,让工程师们苦不堪言。
面对繁琐的焊接工作,罗伯特·诺伊斯灵机一动:“何不直接将电路、晶体管和导线蚀刻在一整片半导体材料上?” 于是,集成电路(Integrated Circuit, IC) 诞生了!回忆起这次发明时,诺伊斯笑着说:“我是个懒人,总觉得让人们一颗一颗地焊接晶体管实在太不合理了。”
制造集成电路的核心技术是光刻(Photolithography)。在这一工艺中,硅片表面涂上一层感光材料,然后通过光照使硅氧化物层固化,形成数字电路的凹槽和路径。随着光刻技术的不断改进,仙童半导体的电路变得越来越复杂,集成度也逐步提高。
仙童制造的第一块集成电路仅包含一个晶体管,只能执行最基本的逻辑运算。然而,到了 1968 年,他们生产的集成电路上已经可以容纳超过一千个晶体管。
📷 图片包含在完整版文章中,点击文末按钮查看
随着集成电路的尺寸越来越小,它们逐渐被称为“芯片(Chip)”。但这个看似简单的名称背后,却隐藏着一场科技革命。晶体管越小,所需的电流就越少,而单个芯片上的晶体管数量则可以更多。 这种微缩化带来的经济效益堪称历史上最惊人的规模经济(Economies of Scale):如果将晶体管的尺寸缩小一半,计算能力竟然可以提高 8 倍!
如此惊人的进步引发了一个问题:晶体管究竟可以缩小到什么程度? 早在 1965 年,戈登·摩尔(Gordon Moore)就作出了一个预测——芯片上的元件数量每两年翻一番。这个预测后来被称为摩尔定律(Moore’s Law),它准确地描述了半导体行业接下来的发展趋势。
然而,摩尔的同事、工程师兼物理学家卡弗·米德(Carver Mead)却想要一个更具体的答案。他认为,晶体管本质上就是一个微小的电子开关,理论上可以做到极其微小的尺寸。尽管当时的制造技术远远达不到这一目标,米德仍然大胆推测,未来芯片的晶体管密度可能达到 10⁷ 到 10⁸ 个晶体管/平方厘米。
在 1971 年,米德的预测看起来几乎是天方夜谭。当时,最先进的集成电路上只有约1000 个晶体管,而米德的预测意味着计算能力将提高5 到 6 个数量级!学术界和计算机行业的许多人都对他的说法嗤之以鼻,认为这是毫无根据的幻想。
然而,戈登·摩尔却没有停下脚步。他坚信微缩化的潜力,并开始不懈努力,推动半导体制造工艺的发展,使得米德的预测最终成为现实。事实证明,摩尔和米德的远见是正确的。几十年后,现代微处理器的晶体管数量已经达到了数百亿级别,而半导体行业也依靠着这种持续的技术进步,推动计算机技术迈向一个又一个新高度。
三、中央处理器(CPU):个人计算机时代
到了 1968 年,仙童半导体(Fairchild Semiconductor) 已不再是当初那家灵活的小型初创公司,而是发展成了一家拥有3 万名员工的庞大企业。罗伯特·诺伊斯(Robert Noyce)将其比喻为一艘“超级油轮”——行动缓慢,难以迅速适应电子行业的快速变化。因此,他与戈登·摩尔(Gordon Moore)决定另起炉灶,创办了一家更加敏捷的公司。他们将这家公司命名为“集成电子(Integrated Electronics)”,后简化为英特尔(Intel)。
到了 1970 年代,集成电路(IC) 在计算能力方面已经取得了长足进步,但它们的存储能力仍然非常有限。诺伊斯和摩尔设想,如果晶体管可以提高逻辑运算的速度和能效,那么它们或许也可以用来存储数据。
英特尔的第一款产品是 1103 存储芯片,这是一款基于半导体的计算机存储器。它的核心原理是利用晶体管的开闭来存储或释放电荷,从而存储或释放数据。这款芯片不仅提高��存储效率,也为后来的计算机架构奠定了基础。
英特尔的下一个重大突破来自工程师泰德·霍夫(Ted Hoff) 的一个设想:如果可以把 1103 存储芯片和处理单元全部集成到同一块芯片上,会发生什么? 这一想法催生了 1971 年发布的 4004 计算机芯片。
4004 不只是一个普通芯片,而是一整台计算机集成到一块芯片上! 它的主要规格包括:
4004 的问世,标志着第一款通用可编程的中央处理器(CPU) 的诞生,成为计算行业的分水岭。霍夫后来回忆道:“这个产品改变了人们对计算机的认知,也改变了计算行业的发展方向。我们让计算机变得更加民主化。”
4004 处理器发布一年后,英特尔推出了8008 处理器,随后又在两年后推出了8080 处理器。与 4004 相比,8080 的速度提升了 10 倍,但价格仍保持在360 美元,展现了计算能力与成本效益的惊人增长。
随着通用 CPU 的出现,计算机的应用场景发生了根本性变化。计算机不再仅仅是大型企业和科研机构的专属工具,而是开始走向更广阔的市场。
1975 年,世界上第一款真正意义上的“个人计算机(PC)” 诞生——Altair 8800。这款电脑采用了 Intel 8080 处理器,配备 250 字节(不是 KB!)的内存,用户需要通过拨动机械开关来编程。尽管它的操作方式相当原始,但仍然取得了不俗的销量——25,000 台,每台售价 1,000 美元。虽然 Altair 8800 本身没有一直火爆,但它点燃了个人计算机革命的导火索。
Altair 8800 的推出催生了新的软件需求。比尔·盖茨(Bill Gates) 和 保罗·艾伦(Paul Allen) 看到机会,创立了 微软(Microsoft),并开发了一款BASIC 解释器,帮助用户更方便地为 Altair 8800 编写程序。这款软件的成功为微软日后的发展奠定了基础。
与此同时,史蒂夫·乔布斯(Steve Jobs) 和 史蒂夫·沃兹尼亚克(Steve Wozniak) 也在 1977 年推出了 Apple II。这台个人计算机拥有:
Apple II 的问世,不仅让个人计算机变得更加易用,也标志着 PC 进入了一个新的时代。
尽管 Apple II 取得了成功,但真正奠定英特尔(Intel) 在计算行业霸主地位的,是IBM(国际商业机器公司) 的决定。
当时,IBM 作为全球最大的计算机公司,正在开发自己的个人计算机(IBM PC)。他们需要一款强大的处理器作为核心,并最终选择了英特尔的 CPU 作为 IBM PC 的核心计算单元。这一决定使得英特尔的 CPU 成为了行业标准,并确立了它在计算行业中的主导地位。
随着 IBM PC 的广泛采用,搭载英特尔处理器的个人计算机迅速普及,而微软的操作系统(如 MS-DOS 和后来的 Windows)也成为市场上的主流。这种“英特尔 + 微软” 的黄金组合(俗称 Wintel 体系),主导了整个 PC 时代,直到今天仍然影响深远。然而,进入今天的AI时代,昔日的芯片霸主英特尔困难重重,不得不令人唏嘘。这个话题暂且不表,有兴趣的小伙伴欢迎留言。
四、通用芯片(GP Chips ):计算硬件的标准化
IBM 对英特尔(Intel)的 CPU 需求巨大,导致英特尔不得不授权其指令集架构(Instruction Set Architecture, ISA) 给其他半导体代工厂,以满足市场需求。
指令集架构(ISA) 是计算机芯片的核心规格,它决定了:
英特尔所有的计算机芯片都遵循x86 指令集架构,而由于市场对英特尔芯片的需求庞大,全球大部分半导体代工厂也纷纷按照 x86 规格 制造芯片。这种统一标准极大地简化了芯片制造和软件开发:
然而,这种高度标准化也意味着市场容不下多种 CPU 体系。英特尔 x86 的胜出,直接导致许多竞争对手的芯片设计被市场淘汰。
面对这种行业格局,半导体公司必须做出抉择:
到了 2000 年,主流 CPU 的晶体管数量已接近1000 万个,而晶体管的栅极长度(Gate Length)已经小于光的波长,肉眼不可见。芯片制造进入了极端精细的尺度,推动晶体管小型化的成本也在不断上升。
在这一背景下,台积电(TSMC) 成为行业的技术引领者。1999 年,台积电率先制造出180 纳米晶体管,展示了在先进工艺上的突破。随着半导体制造的难度加大,更多公司因无力承担高昂的研发和生产成本而退出市场,行业开始进入大规模整合与并购的阶段。
晶体管微缩化的经济可行性受到质疑,摩尔定律的终结预测开始出现。 这一预测的发起者之一,正是摩尔定律的提出者戈登·摩尔(Gordon Moore) 本人。他认为,继续推动晶体管微缩将变得越来越昂贵,甚至可能走到尽头。
📷 图片包含在完整版文章中,点击文末按钮查看
面对晶体管缩小的挑战,计算机架构师们想到了新的方法:增加 CPU 核心数量。既然单个处理器的速度难以再提高,为何不让多颗 CPU 并行工作,同时处理多个任务?
于是,多核处理器(Multi-Core Processor) 诞生了:
这种架构使得计算机能够同时执行多个任务,例如:
并行计算(Parallel Processing) 的发展,不仅提升了个人计算机的性能,还在多个领域掀起了一场革命。其中包括:
五、专用芯片(ASIC):计算硬件的未来方向
数字革命的核心秘密,在于晶体管的持续微缩,让计算机的计算能力不断提升。然而,今天的半导体制造已经接近3 纳米(nm) 的极限,相当于 15 个硅原子 的长度。在如此微观的尺度下,电子的行为变得不再可预测。例如,电子会隧穿效应(Electron Tunneling),直接跳跃到相邻电路中,导致计算错误,使计算机无法正常工作。
为了应对这些问题,半导体公司开发了多种修正措施,但这些方案往往增加了生产成本。同时,由于制造过程的缺陷增加,可用芯片的良率降低。2015 年,单个晶体管的制造成本开始上升,这标志着摩尔定律经济学的逆转。与此同时,生产芯片所需的超高纯度硅提取和加工工艺,也变得越来越昂贵,进一步推高了芯片生产的成本。
尽管 1971 年,卡弗·米德(Carver Mead)曾预测,未来芯片上每平方厘米可容纳10⁸ 个晶体管,但到了 21 世纪,这一数字早已超越,甚至达到了 6×10⁹ 颗晶体管。然而,米德清楚地知道,指数增长无法无限持续,并且过度关注晶体管密度,会让半导体行业忽视其他提升计算能力的关键因素。
📷 图片包含在完整版文章中,点击文末按钮查看
米德曾批评半导体行业对标准化通用计算架构的过度依赖。他指出:
“半导体工程师对计算机体系结构并不了解,所以他们只是复制了一些陈旧的架构。因此,今天的个人计算机仍然在使用古老的计算架构,即便它们采用了最先进的半导体技术。”
换句话说,当前计算机的核心瓶颈,并不只是晶体管密度,而是通用计算架构本身的局限性。
计算的本质是电子如何从 A 点移动到 B 点,但现有的通用架构(如 x86)仍然采用统一的指令集来运行所有任务,导致大量计算能力被浪费。如果希望实现更快的计算,就不能再依赖 x86 指令集的转换过程。米德提出了硅编译(Silicon Compilation) 的概念,即:
直接将应用程序映射到芯片的硬件电路上,而不是通过通用 CPU 执行指令。
这意味着,我们可以打造专门用于执行特定任务的芯片,从而极大提升计算效率。
米德的预测最终成为现实,这类专门设计用于特定应用的集成电路(Application-Specific Integrated Circuit, ASIC) 逐渐成为主流。
最知名的 ASIC 之一便是比特币挖矿芯片:
然而,ASIC 远不止于比特币挖矿。如今,几乎所有依赖计算的科技公司,都开始意识到需要设计 专用芯片,而不再依赖通用 CPU。
2020 年,苹果(Apple) 宣布放弃英特尔芯片,为 MacBook 设计了自研 M1 芯片。
苹果的成功证明了通用 CPU 已无法满足现代计算需求,未来的硬件竞争将是专用芯片的较量。
随着云计算的爆发,全球数据中心对高效计算需求激增。
这些企业的逻辑很简单:如果你需要高性能计算,最好自己设计芯片,而不是依赖英特尔或 AMD 的通用处理器。
人工智能(AI)的计算需求极为特殊,特别是深度学习(Deep Learning),需要大量矩阵计算。
这些芯片比通用 GPU 更强大,因为它们的硬件电路直接匹配 AI 算法的计算模式,无需多余的指令转换,大幅提升速度和能效。
六、计算硬件的“狂野西部”:摩尔定律后的新时代
摩尔定律的终结,标志着计算行业进入了一个充满机遇和挑战的新时代。随着晶体管尺寸接近物理极限,计算速度的提升将不再依赖于简单的微缩工艺,而需要探索全新的计算架构、材料科学以及芯片设计方法。计算机科学和微电子设计的界限将变得越来越模糊,未来的计算机科学家不仅需要编写高效的软件,还必须深入理解底层硬件架构。
在今天热闹的AI浪潮中,OpenAI一再显示出自建芯片的野心,而中国人工智能公司DeepSeek的重大突破,被爆出可能是从底层绕过了英伟达CUDA的限制。正如著名计算机科学家 艾伦·凯(Alan Kay) 所说:
“真正认真对待软件的人,应该自己制造硬件。”
这句话在今天显得尤为重要。随着芯片设计的壁垒被逐步打破,硬件开发正在变得比以往更加开放和可行。
传统芯片设计的障碍
新技术正在改变这一现状:
这些变革意味着,未来的计算机科学家或企业家,甚至个人开发者,都有可能设计自己的专属芯片,而不再依赖传统半导体巨头。
随着市场需求的变化,芯片制造厂(fabs)正在适应更广泛的应用场景:
这意味着,未来芯片工厂不会只生产标准的 CPU,而是将根据不同的行业需求,制造高度定制化的专用芯片(ASIC)。
尽管当前的半导体工艺已经接近3 纳米极限,但科学家们仍在寻找新的材料,以继续缩小电路尺寸,提高计算效率。
1. 碳纳米管芯片(Carbon Nanotube Circuits)
2. 光子计算(Photonic Computing)
这些突破仍在研究阶段,但一旦商业化,将为计算机行业带来彻底的变革。
摩尔定律的终结不会停止计算的发展,相反,它将促使计算产业从单一架构向多元计算架构演进:
今天,我们正站在计算行业的一个新起点,从单一的摩尔定律时代,迈向一个更加多元化、创新驱动的计算新时代。未来的计算机科学家可能将不仅是软件开发者,更需要理解和设计适配自己应用的硬件,开创计算的新时代!