快捷导航
科技信息

微软Copilot发布!剑指英伟达,老黄的AI芯片王座要丢了?

在刚已往不久的 Microsoft Ignite 2023 大会上,微软一口气扔出了多颗「炸弹」。起首是两款新芯片,一款是基于 arm 的 CPU,一款是自研 AI 芯片;其次是将 Bing Chat 更名为 Microsoft Copilot,至此完成了 AI 产物

在刚已往不久的 Microsoft Ignite 2023 大会上,微软一口气扔出了多颗「炸弹」。

起首是两款新芯片,一款是基于 arm 的 CPU,一款是自研 AI 芯片;其次是将 Bing Chat 更名为 Microsoft Copilot,至此完成了 AI 产物的全面 Copilot 化;末了是推出了允许任何人自界说 AI 对话呆板人的 Copilot Studio。

绝不浮夸地说,这场大会让微软再一次登上了神坛。究竟在已往几个月间,OpenAI 推出了一系列的更新和筹划,重新捉住了全天下的眼光。

但假如说天生式 AI,乃至 AI 的未来就会合在了微软和 OpenAI 两家公司上,英伟达的大概是第一个不平的。就在Ignite 大会上,微软 CEO 纳德拉约请英伟达首创人兼 CEO 黄仁勋上台,并问了一个题目:

AI 的未来会走向何方?

老黄表现,天生式 AI 是已往 40 多年盘算汗青中最紧张的一次范式转换,比 PC、移动装备以致互联网都要来得更大。以 OpenAI GPT 引发的大模子「发作」可以视为天生式 AI 的第一波海潮;第二波则是微软当下正在实践的 Copilot 模式。

图/ YouTube@微软

而第三波也是最大的一波,将是英伟达的 Omniverse 与天生式 AI 相联合资助重工业实现数字化,「天下上绝大多数工业都依赖于重工业,」老黄表明。

这不是英伟达第一次夸大 Omniverse 与天生式 AI 的联合。

本年 8 月的图形技能顶会 SIGGRAPH 上,英伟达就大谈特谈天生式 AI 与 Omniverse 的联合,并展示了一个「从 PDF 到工厂」的 demo。简单来讲,英伟达把「建工厂」——一个复杂的工程「搬到」了数字天下,使用天生式 AI 与图形技能将 2D 平面图转为 3D 模子,再加入光照、纹理以及大量的信息,终极打造出工厂的「数字孪生」版本。

「捏造工厂」,图/英伟达

而另一方面,只管微软新发布的自研 AI 芯片表现出了不俗的竞争力,再加上 AMD 带来的威胁,让不少人和公司看到了冲破英伟达算力霸权的渴望。但究竟上,英伟达 GPU 依然占据很大的上风,不管是客岁发布 H100,照旧前几天刚推出的 H200。

微软自研 AI 芯片,离英伟达 GPU 尚有显着差距

微软发布自研 AI 芯片 Maia 100,估计没有人会感到不测。一是早前就有消息透露了这一点,二是地球上最大的几家云盘算公司——谷歌、亚马逊都已经推出了自研 AI 芯片。固然,另一个直接因素还出在英伟达身上。

众所周知,英伟达 GPU 在究竟上成为了大模子「硬件尺度」,H100 成为了全部科技巨头都在囤积的战略资源,即便是远在 2020 年发布的 A100 依然可以大概引发「哄抢」。但一方面受限于产能,英伟达 GPU 始终供不应求;另一方面,英伟达 GPU 巨额的利润与大模子的烧钱战役,也引发了「只有英伟达在赢利」的广泛讨论。

题目是,科技巨头没能在英伟达之外找到太好的选择,自研 AI 芯片反而大概是更好的选择。但以微软的 Maia 100 为例,自研 AI 芯片可以大概更换英伟达 GPU 了吗?

Maia 100,图/微软

按照纳德拉的说法,微软的自研 AI 芯片 Maia 100 基于英伟达 H100 同版本的台积电 5nm 工艺打造,晶体管数量到达了惊人的 1050 亿个。从公开数据来看,这颗芯片也是迄今为止最大的 AI 芯片。

半导体研究机构 SemiAnalysis 透露,Maia 100 在 MXInt8 下的性能为 1600 TFLOPS,在 MXFP4 下则到达了 3200 TFLOPS 的运算速率。同时据分析,自研 Maia 100 每年的本钱大概也就在 1 亿美元左右。

假如单从数字来看,Maia 100 的算力完全碾压了谷歌的 TPUv5 以及亚马逊的 Trainium/Inferentia2 芯片,就算与英伟达 H100 相比,差距也不大了。

但必要指出的是,MXInt8、MXFP4 都是最新的数据格式,MXInt8 预期将更换 FP16/BF16,MXFP4 预期将更换 FP8。然而现实上,还没有任何公司基于这些新的数据格式训练过大模子,以是至少在训练环节上,Maia 100 的算力着实并不恰当与其他 GPU 大概 AI 芯片举行直接比力。

别的值得一提的是,微软 Maia 100 拥有 1.6TB/s 的内存带宽,仍然碾压亚马逊的 Trainium/Inferentia2,但却逊于谷歌的 TPUv5,更不消说是英伟达 H100。

究竟上,微软也明确「一口吃不成胖子」,Maia 100 间隔更换英伟达 H100 以致更新的型号尚有很远的间隔。据报道,Maia 100 接纳直接液体冷却,现在仅为 GitHub Copilot 运行 GPT-3.5,来岁也执偾扩展到为 Azure 云的部门负载提供支持。

而就在几天前,英伟达刚刚发布了 H200 GPU,仅依赖大幅升级内存带宽和容量,就将大模子的训练和推理性能提拔了 60%到 90%。

这大概也是为什么,在发布自研 AI 芯片 Maia 100 的同时,微软在 Ignite 大会依然公布将与英伟达继承打造下一代 AI 超等盘算机和工厂了。

Omniverse 与天生式 AI 的联合,比 Copilot 更紧张

作为绝对的领先者,拥有最深的护城河,英伟达大概并没有太过器重微软自研 AI 芯片这件事。但显然,英伟达更在意照旧 Copilot 之后,Omniverse 要怎样联合天生式 AI 成为新期间「最大的一波海潮」。

对于英伟达大力大举鼓吹的 Omniverse,大概很多人早已淡忘了,但肯定忘不了两年前的「真假黄仁勋」。

图/英伟达

2021 年 4 月,英伟达再次举行了一场线上「厨房」发布会,惯例由「黄仁勋」主讲。今后的三个多月,谁也没有发现这场发布会真正的神奇之处,直到英伟达在当年 8 月的 SIGGRAPH 大会上自动揭秘:

那场「厨房」发布会画面中的厨房、皮衣、烤箱……以致「黄仁勋」本人以及他的动作、心情等等统统都是「假的」,大概更确切地说,是现实的「数字孪生」。

Omniverse 平台也是这个时间开始浮出水面,彼时「元宇宙」概念大热,也有人将其视为英伟达版本的元宇宙。但有一点是 Omniverse 和元宇宙大相径庭的,英伟达想要创造一个数字孪生天下,焦点目的在于影响现实天下。

捏造铁路,图/英伟达

就像英伟达客岁 GTC 大会提到的,德国铁路已经在 Omniverse 上构建、运营铁路轨道的「数字孪生」,包罗了 5700 个站,全长 3 万多公里。而在这个「捏造铁路」里,德国铁路能举行训练、验证 AI 模子,连续监控铁路、火车的运行环境,制造各种不测状态来发现题目对运营造成的影响。

最直接现实的代价是,基于在 Omniverse 上的测试和验证,可以大概在不必要造新轨道的同时,增长铁路运载容量和运行服从,低沉碳排量。

通过「数字孪生」的测试验证,数字天下的效果可以大概引导现实天下,这就是黄仁勋对 Omniverse 始终推许备至的焦点缘故因由之一。也是为什么,就算「元宇宙」概念已经被全天下扬弃,英伟达每一届 GTC 和 SIGGRAPH 大会都还在「倾销」自己 Omniverse,包罗这次在微软 Ignite 大会上也不破例。

固然,数字孪生技能也并非美满,现在最大的寻衅大概照旧本钱。

两年前英伟达那场以假乱真的发布会上,数字孪生版本的「黄仁勋」现实只出场了 14 秒,但背后却是一系列的复杂工作,必要不小的人力、物力。与之相对的是,本年 SIGGRAPH 大会上展示的「从 PDF 到工厂」demo,现实就大量应用了天生式 AI 举行到场。

先将 2D 转成 3D,图/英伟达

基于 Omniverse 平台,通过与各种天生式 AI 的对话,就能将 2D 平面图转成完备的「数字孪生」。放在两年前,我们根本无法想象,但现实是,天生式 AI 已经向全天下证实白自身的气力和潜力。

而从这个角度来看,站在微软 CEO 纳德拉的旁边,老黄说出了「Copilot 很紧张,但 Omniverse+天生式 AI 更紧张」,就不难明白了。

题图来自微软 Ignite 大会

收藏 邀请
上一篇:拆解阿里财报,国际业务高增长的本相藏在供应链里下一篇:小步调短剧爆火的底层商业逻辑
我有任务需求要发布
专业服务商主动承接
快速解决你的需求

专注IT众包服务

平台只专注IT众包,服务数 十万用户,快速解决需求

资金安全

交易资金托管平台,保障资 金安全,确认完成再付款

实力商家

优秀软件人才汇集,实力服务商入驻,高效解决需求

全程监管

交易过程中产生纠纷,官方100%介入受理,交易无忧

  • 微信访问
  • 手机APP