[游戏资讯] 当游戏玩家还在讨论新显卡的种种遗憾时,NVIDIA 已经在 Ai 上赚麻了!

[复制链接]
查看901 | 回复0 | 2023-5-29 03:24:10 | 显示全部楼层 |阅读模式
在游戏爱好者仍在对 NVIDIA 的新显卡RTX 4060 Ti 细挑疵点时,这家硅谷巨头已经开始在人工智能领域实现巨额盈利。显然,我们正在目睹一个科技巨头成功转型的历程。



图片源自于网络
最近 NVIDIA 推出了 RTX 4060 Ti,作为 RTX 3060 Ti 的名义继任者,游戏玩家们对其抱有了较高的期待,而 RTX 4060 Ti 的发布却给了玩家们清醒一拳,除了性能提升并不理想外,显存位宽的降低也是诸多玩家所诟病的,但 NVIDIA 已给出了令人信服的解释。新架构的 L2 缓存大小增加了 16 倍,这大幅提高了缓存命中率,进而提升了性能和效率。为了平衡成本和售价,RTX 4060 Ti 只提供了 128 位的显存位宽。



来自 NVIDIA 官网
尽管一些游戏玩家对新显卡的性能持怀疑态度,但这并未阻碍 NVIDIA 的财务增长。根据其最新财报,NVIDIA 在数据中心和游戏业务方面均展现出强劲的增长,推动了公司股价在盘后交易中大涨近 30%,一度接近 390 美元 / 股,公司市值从 7500 亿美元跃升至 9600 亿美元。预计今天开盘后,它将成为美国股市值超过 1 万亿美元的第七大公司。



2000 — 2023 年英伟达股价一览



NVIDIA 目前在世界 100 强的市值排名



皮衣侠 - 黄仁勋
NVIDIA 这一财报背后的奥秘,其实是其过去一年的稳健业务表现。今年以来,NVIDIA 的股价已经翻倍。去年,由于芯片短缺导致的库存挤压和销量下滑等问题,已经被今年的强劲增长所完全抵消。



不到一年时间,已经涨幅高达 3 倍,创造了股市中的现象级表现
据财报数据显示,英伟达 2024 财年第一季度的营收为 71.92 亿美元,尽管这比去年同期下滑了 13%,但是环比增长了 19%,远超过了预期的 63.7 亿到 66.3 亿美元。其中,数据中心业务的营收为 42.8 亿美元,同比增长 14%,环比增长 18%,体现出英伟达在此领域的强劲增长。更令人惊喜的是,英伟达的游戏业务也远好于市场预期。虽然 22.4 亿美元的游戏业务营收同比下降了 38%,但环比增长了 22%,超过了市场预期的 19.8 亿美元,增长了 13.1%。



NVIDIA 短期内财务收入结构表,数据中心(含 Ai 算力 GPU)在持续上涨,已经占据了收入的主力部分。
可见虽然玩家们表面上对新显卡有点意见,但是钱包却是诚实的,也要归功于 RTX40 系显卡在笔记本电脑领域的出色表现,英伟达表示,游戏业务的营收下滑主要是由于宏观经济放缓的影响。尽管如此,英伟达的 RTX 40 系列显卡在台式机和笔记本市场上的销售却推动了业务的增长。上个季度,尽管 RTX 4070 显卡的定价(4799 元)受到了一些玩家的质疑,但高昂的价格并未阻挡其在市场上的热销。



而真正推动英伟达冲击万亿美金大关的却不是游戏显卡。2007 年,英伟达首次提出了 CUDA(Compute Unified Device Architecture)架构,此举可以说是 GPU 计算历史上的一次革命。CUDA 的出现让研究者和开发者得以将 GPU 用于通用计算,将计算密集型任务的执行效率提高了数十倍。



此后,英伟达在 AI 硬件领域的地位日益坚固,尤其是在深度学习领域,英伟达的硬件平台受到了广泛欢迎。特别是英伟达的 "Tesla" 系列,这些显卡专门设计用来处理机器学习和其他科学计算任务,其中,如 Tesla V100,发布于 2017 年,以其高效的性能和能耗比,被广泛应用于 AI 研究和商业应用,标志着英伟达在 AI 算力显卡迎来了爆发时刻。



这玩意的二手竟然还要 1199 美金



V100 内部构造,可见密密麻麻的电容与显存颗粒
如今,Google 的 PaLM 2 和 OpenAI 的 GPT4 等前沿 AI 程序,都依赖于英伟达的 GPU 芯片来处理训练这些模型所需的大量数据。英伟达的算力卡,尤其是其高显存的版本,比如 A100、H100 被视为目前最适合训练 AI 模型的硬件。



在美国二手平台上,一张 H100 计算卡的售价为 39100 美金(22.5 万人民币)



在美国二手平台上,一张 A100 算卡的售价为 14200 美金(10 万人民币)
其中,H100 是基于最新的 Hopper 架构的 Tensor Core GPU,为每个工作负载提供前所未有的性能、可扩展性和安全性。H100 可以通过 NVIDIA NVLink Switch System 连接多达 256 个 H100 GPUs,以加速超级计算工作负载,同时还包含一个专门的 Transformer Engine,用于解决万亿参数的语言模型。H100 的技术创新组合可以将大型语言模型(LLMs)的速度提高 30 倍,其还具有第四代 Tensor Cores 和一个提供 FP8 精度的 Transformer Engine,这可以为 GPT-3(175B)模型的训练提供比前一代快 4 倍。



H100 内部构造



通过 H100 打造的 H100 集群服务器
全世界最新超级计算机排名,排名第八的 Perlmutter 拥有 6144 张 A100 显卡,对比上次的排名很多超算的算力都在疯狂增长,上面的很多都在部署 5000 到一万张的 H100 显卡。



可以说,H100 是当今世界上商用领域内最合适 Ai 计算的高性能 GPU,高昂的售价与源源不断的订单,促使了英伟达在该领域的 " 暴富 "。



Ai 眼中的未来集群计算服务器 - Mijourney Ai 绘画
英伟达在 AI 领域的成功并非偶然。这家公司一直在稳步发展其以 AI 为核心的业务,最近几年的投资和 Ai 爆发更是助推了其销售增长。未来,英伟达将继续在 AI 领域占据主导地位。虽然一些大型科技公司,如谷歌、微软和亚马逊,都在努力开发自己的 AI 芯片,但这些替代品仍然难以满足市场的需求。因此,我们可以期待英伟达在 AI 硬件制造领域的主导地位将继续稳固。




上一篇:《最终幻想16》GI前瞻访谈要点汇总 为讲好故事放弃开放世界
下一篇:暗黑武侠动作《影之刃零》实机首曝,武打动作帅爆了!
一键回复支持楼主吧 【海贼迷社区haizeimi.com】
您需要登录后才可以回帖 登录 | 中文注册

本版积分规则