快捷导航
科技信息

超5800亿美元!微软谷歌神仙打架,让英伟达市值飙升,约为5个英特尔

新智元报道编辑:桃子【新智元导读】微软、谷歌、Meta等大型科技公司为抢占市场先机你追我赶。这场AI角逐却让英伟达市值飙升,市值约为5个英特尔。ChatGPT在手,有问必答。你可知,与它每次对话的盘算资本简直让人泪

新智元报道

编辑:桃子

【新智元导读】微软、谷歌、Meta等大型科技公司为抢占市场先机你追我赶。这场AI角逐却让英伟达市值飙升,市值约为5个英特尔。

ChatGPT在手,有问必答。

你可知,与它每次对话的盘算资本简直让人泪目。

此前,分析师称ChatGPT复兴一次,必要2美分。

要知道,人工智能谈天呆板人所需的算力背后烧的但是GPU。

这恰好让像英伟达如许的芯片公司豪赚了一把。

2月23日,英伟达股价飙升,使其市值增长了700多亿美元,总市值超5800亿美元,约莫是英特尔的5倍。

在英伟达之外,AMD可以称得上是图形处置惩罚器行业的第二大厂商,市场份额约为20%。

而英特尔持有不到1%的市场份额。

ChatGPT在跑,英伟达在赚

随着ChatGPT解锁匿伏的应用案例,这大概迎来人工智能应用的另一个拐点。

为什么这么说?

谷歌母公司Alphabet董事长John Hennessy在继承路透的采访时表现,大型语言模子等人工智能的对话资本大概是传统搜索引擎的10倍以上。

Morgan Stanley分析表现,谷歌客岁共计3.3万亿次搜索,每次搜索的资本仅为0.2美分。

据估计,若将谷歌旗下谈天呆板人Bard引入搜索引擎,并用其处置惩罚谷歌一半的搜索和提问,按照每次答案50词盘算,公司在2024年的资本大概会增长60亿美元。

同样,专注于芯片技能的咨询公司SemiAnalysis称,受到谷歌内部芯片Tensor Processing Units等的影响,将谈天呆板人添加至搜索引擎中,大概会让谷歌额外耗费30亿美元。

他以为谷歌必须低沉此类人工智能的运营资本,但这一过程并不容易,最坏的环境也得必要几年时间。

正是云云,通过AI语言模子举行搜索比传统搜索必要斲丧更多的算力。

分析师表现,将来几年的额外资本大概高达数十亿美元。

Gartner预计,到2026年,用于数据中心的GPU等专业芯片的份额预计将从2020年的不到3%上升15%以上。

固然很难确切地指出现在人工智能在英伟达收入中所占的比例有多大,但随着大型科技公司竞相开辟雷同的AI应用步伐,人工智能有成倍增长的潜力。

周三,英伟达还公布了人工智能云服务,并致力于甲骨文、微软和谷歌互助,为其提供利用Nvidia GTX,通过简朴的欣赏器访问举行人工智能处置惩罚的本领。

这个新平台将由其他云服务商提供,将资助那些不具备构建本身的底子办法的技能公司。

黄仁勋称,「人们对ChatGPT的热情让商界首脑们看到了人工智能的力气。但是现在,它告急是一个通用软件。其真正代价的实现,还必要根据公司自身的需求量身定做,如许就可以改进自家的服务和产物。」

英伟达夺GPU市场霸主

New Street Research称,英伟达占据了95%图形处置惩罚器的市场份额。

在费城证券生意业务所半导体指数中,英伟达股票本年已经上涨42%,表现最好。

投资者纷纷投向英伟达,押注在对ChatGPT等人工智能体系的需求将推高该公司产物的订单,使其再次成为举世市值最高的芯片制造商。

不停以来,不管是成为顶流的ChatGPT,照旧Bard、Stable Diffusion等模子,背后都是由一个约莫代价1万美元的芯片Nvidia A100提供算力。

英伟达A100可以或许同时举行很多简朴的盘算,对训练和利用神经网络模子非常告急。

A100背后的技能最初用在游戏中渲染复杂的3D图形。而现在,其目标是处置惩罚呆板学习使命和在数据中心运行。

投资者Nathan Benaich表现,A100现在已成为人工智能专业人士的「主力」。他的陈诉还列出了利用 A100超等盘算机部门公司的名单。

呆板学习使命大概会占用整台盘算机的处置惩罚本领,偶然会连续数小时或数天。

这意味着,那些拥有一款脱销AI产物的公司通常必要购买更多的GPU来应对访问高峰期,或改进其模子。

除了卡上可以插入现有服务器的单个A100之外,很多数据中心还利用一个包罗8个A100图形处置惩罚器的体系。

这个体系,便是Nvidia DGX A100,单套体系售价高达20万美元。

英伟达周三表现,将直接出售DGX体系的云访问权限,这大概会低沉研究职员的入门资本。

那么运行新版必应必要付出怎样的资本?

New Street Research的一项评估发现,必应搜索中基于OpenAI的ChatGPT模子大概必要8个GPU才华在不到一秒钟的时间内给出一个标题的答案。

按照这个速率,微软必要高出2万台8个GPU服务器才华将这个模子摆设到每个人手中。

那么微软大概会耗费40亿美元的底子办法开支。

这仅是微软,如果想要到达谷歌逐日查询规模,即天天提供80亿-90亿个查询,就必要耗费800亿美元。

再比如,最新版本的Stable Diffusion,在256个A100图形处置惩罚器,或32台DGX A100举行盘算200,000小时。

Stability AI的首席实验官Mostaque表现,按照市场代价盘算,仅训练该模子就必要耗费60万美元。与竞争对手相比,这个代价非常自制。这还不包罗推断或摆设模子的资本。

黄仁勋在继承采访时表现,

就这类模子所需的盘算量而言,Stability AI的产物现实上并不昂贵。

我们采取了本来必要10亿美元才华运行CPU的数据中心,然后将其缩小为1亿美元的数据中心。现在,这1亿美元数据中心放在云端由100家公司共同分担,都不算什么。

英伟达GPU可以让初创企业以较资本训练模子。现在你可以构建一个大型语言模子,比如GPT,大概必要1000万到2000万美元。这真的,真的很实惠。

2022人工智能现状陈诉称,停止2022年12月,高出2.1万份开源AI论文利用了英伟达芯片。

国家人工智能盘算指数 (State of AI Compute Index) 中的大多数研究职员利用的是2017年推出的英伟达芯片V100,但A100在2022年快速增长,成为利用频率排在第三的芯片。

A100最剧烈的竞争大概是它的继任者H100,2022年推出并已开始量产。究竟上,英伟达周三表现,在停止1月份的季度,H100的收入高出了A100。

现在来看,英伟达正在乘坐着AI的快车向「钱」冲刺了。

参考资料:

https://www.reuters.com/technology/tech-giants-ai-like-bing-bard-poses-billion-dollar-search-problem-2023-02-22/

https://www.businessinsider.com/ai-expensive-google-chatbot-bard-may-cost-company-billions-dollars-2023-2

https://www.bloomberg.com/news/articles/2023-02-22/nvidia-gives-strong-forecast-as-ai-helps-fuel-computing-demand?srnd=technology-vp

https://www.reuters.com/technology/nvidia-results-show-its-growing-lead-ai-chip-race-2023-02-23/

https://www.cnbc.com/2023/02/23/nvidias-a100-is-the-10000-chip-powering-the-race-for-ai-.html

收藏 邀请
上一篇:代替和硕?立讯精密或将主导苹果一代AR/MR装备开辟与量产下一篇:【芯视野】引领仪器装备财产“突围”,国产半导体责无旁贷
我有任务需求要发布
专业服务商主动承接
快速解决你的需求

专注IT众包服务

平台只专注IT众包,服务数 十万用户,快速解决需求

资金安全

交易资金托管平台,保障资 金安全,确认完成再付款

实力商家

优秀软件人才汇集,实力服务商入驻,高效解决需求

全程监管

交易过程中产生纠纷,官方100%介入受理,交易无忧

  • 微信访问
  • 手机APP