谷歌TPU是什么意思 专为人工智能打造的算力神器

谷歌TPU是什么意思 专为人工智能打造的算力神器,第1张

说起人工智能,大家一定都会有所耳闻,其实各个企业或者国家之前关于人工智能的竞争,归根到底是算法和算力的竞争,这篇文章就跟大家聊聊谷歌专为人工智能开发的TPU!

TPU项目开始于2014年,简单来说两个原因: 1 计算任务不同了, 深度神经网络开始兴起,矩阵乘加成为重要的计算loading。 2 CPU和GPU太贵了,Google需要找便宜的方法,要降低TCO。所以要自己搞芯片的想法就出来了。

简单地说,它是谷歌在2015年6月的I/O开发者大会上推出的计算神经网络专用芯片,为优化自身的TensorFlow机器学习框架而打造,主要用于AlphaGo系统,以及谷歌地图、谷歌相册和谷歌翻译等应用中,进行搜索、图像、语音等模型和技术的处理。

区别于GPU,谷歌TPU是一种ASIC芯片方案。ASIC全称为Application-Specific Integrated Circuit(应用型专用集成电路),是一种专为某种特定应用需求而定制的芯片。但一般来说,ASIC芯片的开发不仅需要花费数年的时间,且研发成本也极高。

对于数据中心机房中AI工作负载的高算力需求,许多厂商更愿意继续采用现有的GPU集群或GPU+CPU异构计算解决方案,也甚少在ASIC领域冒险。

实际上,谷歌在2006年起就产生了要为神经网络研发一款专用芯片的想法,而这一需求在2013年也开始变得愈发急迫。当时,谷歌提供的谷歌图像搜索、谷歌照片、谷歌云视觉API、谷歌翻译等多种产品和服务,都需要用到深度神经网络。

在庞大的应用规模下,谷歌内部意识到,这些夜以继日运行的数百万台服务器,它们内部快速增长的计算需求,使得数据中心的数量需要再翻一倍才能得到满足。然而,不管是从成本还是从算力上看,内部中心已不能简单地依靠GPU和CPU来维持。

神经网络算法一直在演变和发展,这套方法的理论还不成熟,应用场景也会在未来几年发生巨大的变化。大家可以想象一下安防、无人机、智慧大楼、无人驾驶,等等等等。每一个子领域都有 系统/功耗/性能 一系列问题和各种权衡。一方面,是算法多变的情况下,如何发掘计算的内在并行性,又给上层程序员提供一个高效的编程接口,是一个很重要很实际的问题。

综合以上信息,TPU是谷歌搞出来的一个专用芯片,国内的芯片公司在搞ASIC挖矿,谷歌在搞ASIC训练人工智能,如果之后人工智能在各个领域发力,tpu也表现良好的话,以后的电脑上说不定就得加上这个硬件!

  中国云计算市场近年发展迅猛,报告显示,2015至2018年期间,中国云计算市场将会达到149%的年复合增长率。而阿里云的表现尤为突出:仅2015年第四季度,阿里云营收约128亿美元,营收增长达126%,年度净收入预估高于谷歌云服务,并达到了全球第二名微软云计算平台体量的1/3。

  云计算兴起的主要原因在于它能有效节约企业的时间成本以及其他开支,报告称,云计算被引入之前,企业有大约70%-80%的IT预算耗费在了如基础设施的维护、升级和集成等低附加值领域。阿里巴巴研究院表示,70%以上的计算机支出都是可以被省去的。在德意志银行对50多位CIO、CTO、总监和IT部门的VP进行调研后发现,超过50%的受访者表示得益于云计算服务,企业的IT支出能够最多减少4成。另外这些企业也表示,2016-2017年预计将在云计算服务方面增加27%-30%的支出,这也与2015年20%的数据形成了明显对比。

  报告中提到,在中国市场上云计算能够快速发展的最大契机在于企业的发展需要更深度的成本节约,以及通过云计算服务来释放更多的资源以专注核心业务体系。另外政府方面也起到了至关重要的作用,“互联网+”战略的提出让更多国有企业,大型私企和政府部门本身更加重视IT部门,并着手改造。

  在中国本土市场上阿里巴巴占有明显优势,德意志银行针对CIO的调查中有65%的受访者表示使用阿里云作为独家服务提供商。在阿里巴巴集团体系中,云计算服务正在成为不可或缺的组成部分,报告显示,阿里云目前占到集团估值的6%,相比之下,蚂蚁金服贡献了7%的估值,而菜鸟网络仅占1%。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 谷歌TPU是什么意思 专为人工智能打造的算力神器

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情