
1993 年 4 月,加州圣何塞一家 Denny’s 餐厅里,三位工程师把一张餐巾纸涂得密密麻麻--那是他们对 PC 上“实时 3D 图形”的狂野想象。30 年后,这家名叫 NVIDIA(英伟达)的小公司,市值一度冲破 4 万亿美元,成为地球上最值钱的科技巨头之一。它的芯片不再只是让游戏更酷,而是成为现代人工智能的“电力系统”。本文用 10 个关键节点,拆解英伟达如何一步步把一张显卡生意,做成横跨游戏、数据中心、自动驾驶、元宇宙的超级商业帝国。
-
1995:NV1 的“生死一跳”--先活下去
背景 90 年代初,3D 图形标准混战:3dfx 的 Glide、SGI 的 OpenGL、微软的 Direct3D 各自为政。 动作 黄仁勋押注“二次方纹理贴图”非主流技术,推出 NV1,并捆绑世嘉 Saturn 手柄接口,想“通吃”PC 与游戏主机。 结果 NV1 销量惨淡,公司现金只剩 6 个月,世嘉 700 万美元救命款让英伟达喘口气。 启示 第一次踩坑让英伟达学会:技术领先≠商业成功,必须绑定生态标准。
-
1997:RIVA 128--“光速”翻盘
背景 Intel 推出 AGP 总线,3D 游戏《雷神之锤》引爆玩家市场。 动作 砍掉 NV2,全力做 128 位、100 MHz 的 RIVA 128,性能是对手 3 倍,价格却低 20%。 结果 上市 4 个月出货 100 万片,现金流转正,1998 年营收破 5 亿美元,为 IPO 铺平道路。
-
1999:GeForce 256--GPU 概念出世
技术 首次集成 T&L(坐标变换与光照)硬件,解放 CPU;提出“GPU”品牌,注册专利 30 项。 商业 与台积电建立“虚拟晶圆厂”模式:英伟达专注设计,台积电专注工艺,资本开支骤降 40%,毛利率冲上 45%。 股价 上市首日 12 美元,市值 11 亿,为后续并购与研发备足“弹药”。
-
2001-2003:Xbox 绑定+SLI 复活--游戏帝国成型
微软合作 为 Xbox 定制 233 MHz GPU,一次性拿走 5000 万颗订单,规模效应让英伟达晶圆采购价下降 18%。 技术卡位 2002 年收购 3dfx 专利,复活 SLI(多卡并联),把“发烧友”变“印钞机”:高端卡单价 599 美元,毛利率 65%。 渠道下沉 与戴尔、惠普、联想签订整机预装协议,OEM 收入占比从 15% 提升到 42%,奠定 PC 游戏霸主地位。
-
2004-2006:CUDA“十年赌局”--把显卡变成超级计算机
战略 黄仁勋在内部会议提出“GPU Everywhere”,决定每年投入 5 亿美元做通用计算生态。 技术 2006 年发布 CUDA 1.0,C 语言即可调用 GPU 并行核心,峰值算力达 CPU 的 20 倍。 质疑 华尔街批评“不务正业”,2008 年股价一度跌回 6 美元;但黄仁勋坚持“把利润全部再投进去”,累计 70 亿美元。 伏笔 CUDA 注册开发者从 2007 年的 7 000 人飙升到 2012 年的 100 万,为 AI 爆发埋下“人才操作系统”。
-
2012:ImageNet 时刻--AI 红利第一次兑现
事件 多伦多大学 AlexNet 用 2 块 GTX 580 GPU,10 天完成训练,错误率比 Intel CPU 方案低 9%。 数据 亚马逊、谷歌、百度开始批量采购 Tesla 系列,2013 财年数据中心收入 3 亿美元,同比翻 3 倍。 壁垒 CUDA + cuDNN 形成“算法-库-硬件”闭环,对手 AMD 无同等生态,英伟达拿到 90% 的 AI 训练卡订单。
-
2016-2018:Pascal + Volta--数据中心现金奶牛
产品 2016 年 P100 首次用 16 nm FinFET,能效比 Maxwell 提升 3 倍;2017 年 V100 加入 Tensor Core,专为深度学习做 4×4 矩阵乘,FP16 算力 120 TFLOPS。 定价 V100 售价 8 999 美元,毛利率高达 75%,当年数据中心营收 19 亿美元,首次超过游戏业务增速。 生态 推出 DGX-1 整机“AI 服务器”,打包 8 块 V100,售价 129 000 美元;特斯拉、Facebook 各买 100 台,形成“灯塔效应”。
-
2019-2020:Mellanox 并购--把“算力”变成“网络”
逻辑 AI 训练从单机 8 卡走向千卡集群,网络延迟成为瓶颈。 并购 70 亿美元收购 InfiniBand 龙头 Mellanox,拿下 36% 的市场份额;整合后推出 HDR 200 Gbps 交换机,集群训练效率提升 20%。 财务 数据中心 2020 财年营收 100 亿美元,占总收入 40%,英伟达正式从“显卡公司”升级为“AI 基础设施公司”。
-
2020-2023:Ampere → Hopper → Ada--软件定义硬件
硬件 2020 年 A100 采用台积电 7 nm,晶体管 540 亿;2022 年 H100 升级 4 nm,加入 Transformer Engine,训练 GPT 速度比 A100 快 9 倍,售价涨到 25 000 美元仍供不应求。 软件 推出 DGX Cloud,按 GPU 小时计费,开发者无需买卡即可调用 8 卡或 256 卡集群;软件订阅毛利率 90%,打开 SaaS 第二曲线。 平台 Omniverse 把游戏渲染、AI、仿真合并,宝马用其建“数字工厂”,缩短产线规划时间 30%,英伟达从中抽取软件授权+云算力双重费用。
-
2024-未来:生成式 AI + 边缘计算--帝国再扩张
需求 ChatGPT 类大模型参数奔向 100 万亿,训练端需要 10 万卡集群,推理端需要把 1750 亿模型塞进手机、汽车。 产品 2024 年发布 GH200 Grace Hopper 超级芯片,CPU+GPU 统一内存 600 GB,比 PCIe 5.0 快 7 倍;同时推出 250 W 的 L40S 推理卡,单卡可跑 700 亿参数模型,瞄准“边缘云”。 汽车 Orin SoC 已上车比亚迪、理想,单颗算力 254 TOPS;下一代 Thor 直接把 2000 TOPS 做成“单片方案”,把激光雷达、座舱、自动驾驶整合,ASP 从 500 美元提到 1500 美元。 元宇宙 Omniverse Cloud 与苹果 Vision Pro 打通,实时渲染+AI 生成内容,英伟达按每秒浮点运算量收费,打开“数字孪生”订阅市场。
结语:帝国护城河的三把钥匙
- 硬件架构:每代 GPU 保持 2×性能/2×能效提升,台积电先进封装+虚拟晶圆厂模式让资本效率最高。
- 软件栈:CUDA 20 年积累 3000 万行代码、250 个库,形成“开发者迁移成本”黑洞。
- 网络效应:越多开发者→越多应用→越多数据→越需要更大算力→越买英伟达,正向循环一旦滚动,对手只能捡边缘市场。
从“让游戏更快”到“让 AI 发生”,英伟达用 30 年把一张显卡做成 4 万亿美元的数字石油。历史不会简单重复,但英伟达已经写好新剧本:谁掌握算力,谁就定义下一个十年。
微信扫描下方的二维码阅读更多精彩内容

声明:本站所有文章,如无特殊说明或标注,均为橙市播客原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
