“为了盘算和人类的将来,我捐出天下上第一台 DGX-1 。 ” 2016 年 8 月,英伟达首创人黄仁勋,带着一台装载了 8 块 P100 芯片的超等盘算机 DGX-1 ,来到了 OpenAI 的办公大楼。 在现场职员到齐后,老黄拿出暗号笔,在 DGX-1 的机箱上写下这句话。 与其一同前往的尚有特斯拉和 OpenAI 的首创人,埃隆马斯克。 这次 OpenAI 之行,老黄不为别的,就是为了把这台刚出炉的超算送给 OpenAI ,给他们的人工智能项目研究加一波速。 这台 DGX-1 代价凌驾百万,是英伟达凌驾 3000 名员工,泯灭三年时间打造。 这台 DGX-1 ,能把 OpenAI 一年的训练时间,压缩到短短一个月。而这,是他对人工智能将来的豪赌,加的一波注。七年之后,在前不久的 GTC 大会上,老黄穿着皮衣,拿着芯片,整个宣讲不离 AI 。 似乎是在告诉各位, AI 的期间,我英伟达,就要称王了,当年的豪赌,他赢了! 这么说吧,在客岁履历一波矿难之后,不少人都以为曾靠着矿潮狂赚一笔的英伟达,会在矿难之下市值暴跌,屁滚尿流。 但现实情况却有点玄妙。。。英伟达的股价在跌了泰半年之后,从十月份开始,一起上涨,到如今,整个英伟达市值已经涨回到了 6500 亿美元,是 AMD 的 4 倍,英特尔的 6 倍。 瞧瞧,这还是当年谁人求着各位买显卡的老黄嘛? 而让英伟达的股价疯涨的,那便是他们从十多年前就开始押注的 AI 盘算。 给各人一个数据,从 15 年后,英伟达的 GPU 在超算中心的市场份额就一起上涨,这几年稳居 90% 左右。 在独立 GPU 市场上,英伟达的市场占据率也一度凌驾 80% 。 别的,包罗 YouTube 、Cat Finder 、 AlphaGo 、 GPT-3 、 GPT-4 在内, AI 汗青上那些叫得着名的玩意,险些都是在英伟达的硬件上整出来的。 英伟达的硬件,仿佛就是新期间的内燃机,载着 AI 期间不绝进步。 差友们大概会有点疑问,为什么在 AI 发作的期间,似乎就只有老黄有利益,别的的显卡生产商们的显卡不能训练 AI 嘛?能训练,但只能训练一点点。 为啥?这就不得不提到英伟达从 2006 年就开始动手开发一个东西—— CUDA ( 同一盘算装备架构 )。 差评君简朴表明一下它是干嘛的,当你想要盘算一些比力巨大的运算题目时,通过 CUDA 编程,你就能充实使用 GPU 的并行处理处罚本事,从而大幅提升盘算性能。 差评君说一个听来的比喻。 CPU 就好比是个数学传授, GPU 就是 100 个小门生,放一道高数题下来那 100 个小门生大概会懵逼;但是放 100 道四则口算题下来,那 100 个小门生同时做肯定比数学传授快多了。 深度学习就是上面的例子中那 100 道口算题,谁人让 GPU 处理处罚器并行运算的 “ 工具 ” 就叫 CUDA 。 一样平常来说,使用 CUDA 和不使用 CUDA ,两者在盘算速率上每每有数倍到数十倍的差距。 既然 CUDA 这么有效,为什么别的的 GPU 厂商不去搞个竞品呢?不是不去搞啊,而是他们真的没想到! 在早期, GPU 的作用只是为了加快图形渲染,各大厂商们以为它就是一个图形专用盘算芯片,并没有想到把 GPU 用在别的通用盘算方面。至于拿来做深度学习?以谁人年代的 AI 本事,一是没有太大的须要,二是也没有人以为它有效。 英伟达深度学习团队的布莱恩在聊到 CUDA 时这么说道: “ 在 CUDA 推出十年以来,整个华尔街不停在问英伟达,为什么你们做了这项投入,却没有人使用它?他们对我们的市值估值为 0 美元。 ” 不外说没人用也是过于严峻了。 着实早在 2012 年,多伦多大学的 Alex Krizhevsky 就在 ImageNet 盘算机视觉挑衅赛中,使用 GPU 驱动的深度学习击败了别的对手,其时他们使用的显卡是 GTX580 。 在这之后又颠末了 4 年,那些搞深度学习的人才忽然意识到, GPU 的这种筹划结构方式,在训练 AI 的速率上,真的是 CPU 不能比的。而拥有了 CUDA 原生支持的英伟达 GPU ,更是重要之选。 到如今,资源们已经看到了 AI 的紧张之处,为什么各人都还在卷 AI 模子,而不去卷老黄的市场呢? 缘故起因在于,它们已经很难再拿到 AI 加快芯片的入场券了。在人工智能财产上,整个深度学习的框架已经是老黄的形状了。 AI 发展的数十年间,英伟达通过对 CUDA 开发和社区的连续投入, CUDA 和各类 AI 框架深度绑定。 当今使用排行靠前的各类 AI 框架,就没有不支持 CUDA 的,也就是说你想要让你的深度学习跑的快?买张支持 CUDA 的高性能卡是最好的选择,说人话就是——买 N 卡吧。 固然,在 CUDA 大力放肆发展期间,也有别的公司在实验着冲破英伟达这种靠近把持的局面。 2008 苹果就提过出 OpenCL 规范,这是一个同一的开放 API ,旨在为各种差异的 GPU 型号提供一个规范,用以开发类似 CUDA 的通用盘算软件框架。 但是,通用就意味着不愿定好用。 由于各大厂商 GPU 的型号繁而复杂,为了顺应各种硬件,驱动版本也多如牛毛,质量乱七八糟。而且缺少对应的厂商举行针对性的优化,以是,无论是哪一个版本的 OpenCL ,在划一算力下,都比不外使用 CUDA 的速率。 而且恰恰是由于 OpenCL 的通用性,想要开发支持 OpenCL 的框架,要比开发CUDA 的复杂不少。缘故起因还是同一个,缺少官方的支持,看看英伟达对CUDA开发的工具支持吧,CUDA Toolkit,NVIDIA GPU Computing SDK以及NSight等等。 OpenCL这边,就略显寒酸了。。。 这就导致如今能支持 OpenCL 的深度学习框架寥若晨星。 举个很简朴的例子,当下最火的框架 PyTorch ,就连官方都没有专门对OpenCL举行支持,还得靠着第三方开源项目才华用。 那同为显卡供应商的 AMD ,在面临老黄方兴未艾的 CUDA 时,除了 OpenCL ,有没有本身的办理办法呢? 方法确实是有,但结果也确实不咋的。2016 年 AMD 发布了全新的开放盘算平台—— ROCm ,对标的就是英伟达的 CUDA ,最关键的一点是,它还在源码级别上对 CUDA 步伐举行支持。 你看,就算是老黄的死对头 AMD ,想的也不是重新努力别辟门户,而是低沉本身适配 CUDA 的门槛。。。 但是,时至本日, ROCm 依然还是只支持 Linux 平台,大概也是用的人太少了,有点摆烂的味道,毕竟,既然你支持 CUDA ,那我为什么要费经心力去给你的 ROCm 专门编写一套支持框架呢? 同年,谷歌也有了举措,但毕竟不是芯片制造商,谷歌只是推出了本身的 TPU 平台,专门针对自家的 TensorFlow 框架举行优化,固然原生支持的最好的也只有 TensorFlow 了。 至于英特尔那边,也推出了一个 OneAPI ,对标老黄的 CUDA ,不外由于起步较晚,如今还处于发展生态的环节,将来会怎样还不太好说。 以是靠着先发上风尚有原生支持,导致如今的深度学习,根本上离不开英伟达的 GPU 和他的 CUDA 。 迩来大火的 ChatGPT ,就用了老黄的 HGX 主板和 A100 芯片,而老黄对此也是很有自尊的说道: “ 如今唯一可以现实处理处罚 ChatGPT 的 GPU ,那就只有我们家的 HGX A100 。 ” 没错,没有别的可用的了,这就是老黄的有恃无恐。 而随着 OpenAI 对大模子 AI 的乐成验证,各家巨头对大模子 AI 的纷纷入局,英伟达的卡已经立马成了抢手货。 以是如今的 AI 创业公司,出现了一件很故意思的征象,在他们的项目陈诉上,每每会搭上一句我们拥有多少块英伟达的 A100 。 当各人在 AI 行业纷纷投资淘金时,英伟达就如许靠着给各人卖水——提供 AI 加快卡,大赚特赚,关键还在于,只有它卖的水能解渴。 由于它的硬件以及工具集,已经能影响到整个 AI 财产的战局和发展速率了。 更可骇的是,英伟达的上风已经形成了一种壁垒,这壁垒厚到就连环球第二大 GPU 厂商 AMD 都没有办法击穿。 以是在 AI 大浪滔天的如今,能整出属于本身的 AI 大模子固然紧张,但差评君却以为,啥时间能有本身的英伟达和 CUDA 也同样不可小觑。 固然,这条路也更难。 末了,差评君以为在将来,我们须要抓紧突破的,绝对不光是对人工智能大模子干系的研究,更为紧张的是整个盘算芯片的筹划,制造,以及 AI 生态的建立。 新的工业革命已经到来, AI 技能的发展不光加快了人类生产力的发展,也加快了那些落伍产能的镌汰,如今各行各业都处在厘革的前夕。 强者越强,弱者无用。固然这句话很暴虐,但在AI 范畴,如果不奋力追上,大概真的已经不须要 “ 弱者 ” 了。 |

专注IT众包服务
平台只专注IT众包,服务数 十万用户,快速解决需求

资金安全
交易资金托管平台,保障资 金安全,确认完成再付款

实力商家
优秀软件人才汇集,实力服务商入驻,高效解决需求

全程监管
交易过程中产生纠纷,官方100%介入受理,交易无忧

微信访问
手机APP
关于我们|广告合作|联系我们|隐私条款|免责声明| 时代威客网
( 闽ICP备20007337号 ) |网站地图
Copyright 2019-2024 www.eravik.com 版权所有 All rights reserved.


