目前“新基建”七大领域的发展现状与前景是什么样子?

目前“新基建”七大领域的发展现状与前景是什么样子?,第1张

新型基础设施建设概念提出

2018年年底的中央经济工作会议提出“加快5G商用步伐,加强人工智能、工业互联网、物联网等新型基础设施建设”,新基建的概念由此产生,并被列入2019年政府工作报告;2019年两会期间提出除了传统基建外,新型基建将承担更为重要的角色;2019年7月中央政治局会议提出要加快推进新型基础设施建设;2020是全面建成小康社会和“十三五”规划收官之年,原本处于经济结构转型和贸易战压力下的中国经济又遭受新型冠状病毒疫情的冲击,新基建作为重要的逆周期调节手段,在多次会议汇中被频繁提及。

新型基础设施建设内涵-新基建七大领域

根据中央系列重要会议和文献的相关表述,结合当前中国科技和经济社会发展状况,业内人士和媒体机构将新基建涉及的主要领域归纳为7个方面,即5G基建、人工智能、大数据中心、工业互联网、城际高速铁路和城际轨道交通、特高压、新能源汽车充电桩。

1、5G基建

5G 作为移动通信领域的重大变革点,是当前 “新基建” 的领衔领域,此前 5G

也已经被高层定调为“经济发展的新动能”。不管是从未来承接的产业规模,还是对新兴产业所起的技术作用来看,5G

都是最值得期待的。实际上,我国重点发展的各大新兴产业,如工业互联网、车联网、企业上云、人工智能、远程医疗等,均需要以 5G 作为产业支撑;而 5G

本身的上下游产业链也非常广泛,甚至直接延伸到了消费领域。

(1)建设步伐

整体看,5G网络设备投资将成为5G直接经济产出的主要来源,电信运营商在5G网络设备上的投资将超过2200亿元;预计2030年,互联网信息服务收入达到26万亿元,各领域在5G设备上的支出将超过5200亿元。

(2)产业链及代表企业

5G产业链条非常之广,含零部件、主设备、运营商和下游应用等环节。前期投入主要包括无线设备、传输设备、基站设备、小基站、光通信设备、网络规划实施等。从应用方向上看,5G应用包括产业数字化、智慧化生活、数字化治理三大方向;5G通用应用(即未来可能应用于各行业各种5G场景的应用)包括4K/8K超高清视频、VR/AR、无人机/车/船、机器人四大类;5G应用到工业、医疗、教育、安防等领域,还将产生X类创新型行业应用。

2、特高压、电力物联网

特高压,指的是 ±800 千伏及以上的直流电和 1000

千伏及以上交流电的电压等级,它能大大提升我国电网的输送能力。我国是世界上唯一一个将特高压输电项目投入商业运营的国家,早在 1986

年就开始特高压建设。我国特高压建设潜力依然庞大,截至 2019 年 1 月,国家已经规划的各类特高压项目大概在 50-60条之间。

另外,国家电网早已经启动混改并首次向社会资本开放特高压投资,通过解决资金问题进一步增加特高压持续建设的确定性。

2020年电网投资有望超预期,特高压建设加速,同时在电力物联网、芯片/IGBT、配电网等方面仍有结构性增长,稳基建背景下电网加大投资推动龙头公司业绩好转。

(1) 产业链

特高压相关产业链可以分为上游的电源控制端、中游的特高压传输线路与设备、下游的配电设备。其中特高压线路与设备是特高压建设的主体,可进一步分为交/直流特高压设备、缆线和铁塔、绝缘器件、智能电网等。

(2) 代表企业

随着我国“一带一路”倡议的持续推进,以特高压为核心的国际能源合作有望发展成为我国高新技术海外输出的典型代表。据国家电网统计,国家电网已与周边国家建成10余条互联互通输电线路,并在此基础上进一步推进与俄罗斯、蒙古、巴基斯坦等周边国家的电网互联互通,计划到2030年建成9项以特高压技术为核心的跨国输电工程。

3、高铁、轨道交通

高铁是中国技术面向世界的名片,也是中国交通的大动脉;与此同时,在城市化进程中,轨道交通是关键一环。当下,不少重大高铁项目的正在紧锣密鼓的建设之中;与此同时,许多城市正式大力推进城市轨道交通建设,即使是轨道交通相对发达的北上广深,仍有非常大的缺口。

就产业方向而言,城际高速铁路和城际轨道交通的产业链条也非常长,从原材料、机械到电气设备再到公用事业和运输服务,它将在推动整个社会发展和交通数字化、智能化方面起到基础性作用。

(1) 产业链

轨道交通产业链环节较长,机械设备聚焦中游。经过数十年发展,轨道交通自身产业结构完整,主要包括设计咨询、建设施工、装备制造、运营和增值服务四个环节。

设计咨询是工程开工前期的设计和可行性咨询环节,包括咨询、规划、勘察、测量和设计等域;工程建设指轨道交通项目施工环节,可分为工程建设总承包、土建施工和机电安装,安装机电包括通信、信号、牵引供电和电力供电系统,即“四电集成”工程;装备制造主要指轨道交通的车辆系统和机电系统的制造,涉及机械制造、电子信息、高分子材料等多个领域:运营维护及增值服务,包括轨道交通传统的运营管理和物业、广告、媒体商业、资源开发等行业。

(2) 代表企业

4、新能源汽车、充电桩

《智能汽车创新发展战略》提出,推动有条件的地方开展城市级智能汽车大规模、综合性应用试点,支持优势地区创建国家车联网先导区。在培育新型市场主体方面,提出鼓励整车企业逐步成为新能源智能汽车产品提供商,鼓励零部件企业逐步成为智能汽车关键系统集成供应商。

(1)充电桩保有量

其中充电桩可以说是新能源汽车的 “加油站”。截至 2019 年 10 月,全国公共充电桩和私人充电桩总计保有量为 1144万个,同比增长

667%——尽管增长看似非常迅猛,但充电桩的缺口依然很大。

目前根据国家四部委联合印发的《电动汽车充电基础设施发展指南(2015-2020 年)》,到 2020年,新增集中式充换电站超过 12

万座,分散式充电桩超过 480 万个,以满足全国 500 万辆电动汽车充电需求——显然,整个领域还有很大的增长空间。

(2)产业链

充电桩全产业链涉及到上游充电桩及充电站建设及运营所需设备的生产商,包括充电桩和充电站的额壳体、底座、线缆等主要材料供应企业和充电设备生产商;充电桩产业链的中游为充电运营商,负责新时期充电桩的运营,充电桩下游的整体解决方案商,能够统筹上下游及客户需求,合理布提供整体的运营方案。

(3) 代表企业

充电桩市场产业链涉及到的主体包括充电桩设备生产商、充电运营商、下游整体方案解决商等;整体看,其产业链构成相对简单。

其中充电桩设备供应商主要有奥特迅、特锐德、科陆电子、许继电器等代表企业;而新能源电动充电桩运营商则主要有国家电网、特来电、普天新能源等企业布局;另产业链下游整体方案解决商主要有东方电子、电享、施耐德等代表企业,其三家市场份额较高;而其网络平台则主要有e充网、爱充网以及充电帮等代表企业,这一领域尚未形成稳定的竞争梯队格局。

5、大数据中心

大数据中心,可以说是海量信息时代的诺亚方舟。新兴产业的未来发展将大量依赖于数据资源,因此从国家政务到各大行业,建立数据中心将有助于促进行业转型和实现企业上云。

(1)建设步伐

在当今的技术浪潮中,互联网数据中心是最重要的趋势。 根据市场研究机构 Synergy Research

的调查数据,全球顶级云计算服务提供商要想在市场竞争中获得成功,每家公司在基础设施方面的支出至少达到每季度 10 亿美元的投资水平。 而全球数据总量每 18

个月翻番,数据中心建设会跟不上大数据爆发的步伐。

大数据中心:观察中国IDC市场,2017年的在用数据中心达1844个较上年增长124%,其中超大型数据中心36个较上年增长125%,大型166个较上年增长52%。与此同时,中国超大型数据中心数量占全球比由2017年的8%提升至2019年的10%。中国IDC数量增长速度明显快于全球。

(2)产业链

大数据中心产业链包括:上游基础设施及硬件设备商、中游为运营服务及解决方案提供商、下游为数据流量用户,温控设备是底层设施的保障。大数据中心是新基建的能量,汇聚了所有行业的数据、存储和分析,其重要性可见一斑,而大数据中心背景下,IDC和服务器是枢纽,也是行业最先受益的重要领域。

(4) 代表企业

6、人工智能

2020年1月21日五部门发布《加强“从0到1”基础研究工作方案》,人工智能被作为第一个重大科学问题给予重点支持;2020年3月3日三部门联合印发《关于“双一流”建设高校促进学科融合

加快人工智能领域研究生培养的若干意见》。

(1)市场规模

目前就市场判断看,2016年全球人工智能市场规模64亿美元,权威机构预测其到2025年市场规模将达到369亿美元,年均复合增速达57%,2015年国内人工智能市场为12亿元,到2020市场规模将达到91亿元,年复合增长率约50%。

(2)产业链

人工智能产业链包括三层:基础层、技术层和应用层。其中,基础层是人工智能产业的基础,为人工智能提供数据及算力支撑;技术层是人工智能产业的核心;应用层是人工智能产业的延伸,面向特定应用场景需求而形成软硬件产品或解决方案。

从产业链角度观察,基础层、应用层——目前摩尔定律助力,服务器强大的计算能力尤其是并行计算单元的引入使人工智能训练效果显著提速,除原有 CPU

外,GPU、FPGA、ASIC(包括 TPU、NPU 等 AI

专属架构芯片)各种硬件被用于算法加速,提速人工智能在云端服务器和终端产品中的应用和发展;技术层——已有数学模型被重新发掘,新兴合适算法被发明,重要成果包括图模型、图优化、神经网络深度学习、增强学习等。

故从技术的研发速度判断,目前国内人工智能行业处于爆发期。

(2)代表企业

赛迪研究院发布了《2019赛迪人工智能企业百强榜研究报告》。报告从基础指标、企业成长性、创新能力、团队能力四个维度进行定量评比,对700余家中国人工智能主流企业进行定量评估,分别评选出2019人工智能企业综合实力百强、成长能力百强和创新能力百强企业。榜单如下,希望能提供参考意见。

7、工业互联网

工业互联网是智能制造发展的基础,可以提供共性的基础设施和能力;我国已经将工业互联网作为重要基础设施,为工业智能化提供支撑。2012 年,“工业互联网”

被提出,2017 年年底,国家出台工业互联网顶层规划,2019 年,“工业互联网” 被写入《政府工作报告》,工业互联网逐渐进入实质性落地阶段。

工业互联网:到2025年,工业互联网产值将达到3710亿元,占世界GDP的034%。在工业互联网上的应用是吸引各国在5G技术角逐的动力,工业互联网所体现的价值将逐步提升,自动化工厂、智慧工厂等一系列的应用将成为未来工业领域发展的趋势之一。

(1) 产业链

整体看,工业互联网具有很长的产业链,且工业互联网的产业链协同性很强,上游通过智能设备实现工业大数据的收集,在通过中游工业互联网平台进行数据处理,才能在下游企业中进行应用。任何一个环节缺失都会导致产业链的效用丧失。

工业互联网产业链上游主要是硬件设备,提供平台所需要的智能硬件设备和软件,主要有传感器、控制器;工业级芯片;智能机床;工业机器人等。

行业中游为互联网平台,从架构上可以分为边缘层、平台层和应用层。边缘层是工业互联网应用的基础,主要负责工业大数据的采集;平台层主要解决的是数据存储和云计算,涉及到的设备如服务器、存储器等。应用层主要是各种场景应用型方案,如工业APP等。

而下游应用场景是工业互联网典型应用场景的工业企业,如高耗能设备、通用动力设备、新能源设备、高价值设备和仪器仪表专用设备等。

(2) 代表企业

平台作为工业互联网核心,市场相对集中的平台厂商具有较好投资价值:鉴于物联网产业呈现出非常明显的碎片化特征,市场集中度有限,龙头效应不明显,平台层不仅是产业链上下游非常关键的一个环节,同时连接管理平台(CMP)因为直接和运营商、云计算厂商对接,市场集中度相对较高,投资价值更佳。相关受益标的包括制造类企业海尔智家、三一重工(树根互联)、工业富联;软件企业用友、东方国信等。

网络层则分为内网、外网,尤其内网其产业链代表企业所占市场份额已较为稳定,主要代表企业有东土科技、中国软件、紫光软件等;生产设备层看,其主要包括变频器、伺服电机、减速器以及前端信息采集系统,整体看,该领域分布企业格局较不稳定,市场有待进一步竞争已达成较为稳定的梯队格局。

1GPU:计算机图显核心

11 GPU:计算机图形显示核心

GPU基本概念:图形处理器(graphics processing unit,缩写GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。

GPU是显卡的处理器:显卡全称显示适配卡,又称显示适配器,用于协助CPU进行图像处理,作用是将CPU送来的图像信号经过处理再输送到显示器上,由主板连接设备、监视器连接设备、处理器和内存组成,GPU即是显卡处理器。

12 GPU擅长大规模并发计算

GPU工作原理:GPU的工作通俗的来说就是完成3D图形的生成,将图形映射到相应的像素点上,对每个像素进行计算确定最终颜色并完成输出,一般分为顶点处理、光栅化计算、纹理贴图、像素处理、输出五个步骤。GPU采用流式并行计算模式,可对每个数据行独立的并行计算。

GPU与CPU区别:CPU基于低延时设计,由运算器(ALU)和控制器(CU),以及若干个寄存器和高速缓冲存储器组成,功能模块较多,擅长逻辑控制,串行运算。GPU基于大吞吐量设计,拥有更多的ALU用于数据处理,适合对密集数据进行并行处理,擅长大规模并发计算,因此GPU也被应用于AI训练等需要大规模并发计算场景。

13 GPU可分为独立GPU和集成GPU

独立GPU:独立GPU一般封装在独立的显卡电路板上,使用专用的显示存储器,独立显卡性能由GPU性能与显存带宽共同决定。一般来讲,独立GPU的性能更高,但因此系统功耗、发热量较大。

集成GPU:集成GPU常和CPU共用一个Die,共享系统内存。集成GPU的制作由CPU厂家完成,因此兼容性较强,并且功耗低、发热量小。但如果显卡运行需要占用大量内存,整个系统运行会受限,此外系统内存的频率通常比独立显卡的显存低很多,因此一般集成GPU的性能比独立GPU更低。

14 GPU广泛运用在图显和并行计算场景

GPU拥有单一的强大并行计算能力,所以用途往往是需要大规模并行计算的场景。早期GPU多被用于2D和3D图形的计算和处理,因为图形数据的处理往往涉及到大量的大型矩阵运算,计算量大但易于并行化。近年由于大数据、人工智能发展,GPU也常常被用于需要大量重复计算的数据挖掘领域,如机器学习,深度学习等。

GPU使用场景:GPU被广泛地运用于PC、服务器、移动等领域。其中服务器GPU可做专业图形处理、计算加速、深度学习等应用,以独立GPU为主;移动端GPU主要采用集成GPU;PC根据使用用途不同,既可以搭载独立GPU,也可以使用集成GPU。

15 全球GPU巨头:NVIDIA、AMD

NVIDIA(英伟达):创立于1993年,1999年发明了GPU,最初专注PC图形,后来拓展到密集计算领域,Nvidia利用GPU创建了科学计算、人工智能、数据科学、自动驾驶汽车、机器人技术、AR和VR的平台。 Nvidia是目前全球最大的独立GPU供应商,2020年营收1668亿美元,2021Q2 Nvidia全球独立GPU市场份额达到83%。

AMD(超威半导体):成立于1969年,目前业内稀缺的可以提供高性能CPU、高性能独立显卡GPU、主板芯片组三大组件的半导体公司。2020年AMD营收976亿美元,其中计算和图形(包括CPU、GPU、APU等)业务营收643亿美元,2021Q2 AMD全球独立GPU市场份额达到17%。

2GPU两大应用场景:图显、计算

21 2020全球GPU市场规模接近千亿美元

2020年全球GPU市场规模达到9991亿美元。3D图像显示、人工智能深度学习的需求支撑GPU市场持续增长,根据Verified Market Research数据,2020年全球GPU市场规模达到9991亿美元,预计2028年达到15816亿美元,CAGR为59%。

测算2020年中国大陆独立GPU市场规模约235亿美元。中国是全球GPU市场重要组成部分,2020年Nvidia、AMD在中国大陆收入占比分别为233%、239%,我们假设中国大陆独立GPU市场占全球235%,测算2020年中国大陆独立GPU市场规模约为235亿美元。

22 PC GPU:2020年全球出货394亿片

PC(个人电脑)是GPU重要应用场景,根据Jon Peddie Research(JPR)数据,2020年全球GPU出货394亿片,同比增长179%。

23 PC GPU:Nvidia和AMD占据独立GPU市场

Intel领导集成GPU市场。Intel(英特尔)是全球最大的CPU制造商,2021Q2占据全球775%的x86 CPU市场,集成GPU集成在CPU中,Intel凭借CPU市场地位,占据全球PC GPU大部分市场。根据JPR数据,2021Q2 Intel占据全球683%的PC GPU市场份额,Nvidia和AMD市场份额分别为152%、165%。

Nvidia和AMD占据独立GPU市场。在独立GPU领域,Nvidia具备明显的份额领先,2021Q2市占率达到83%。2006年AMD收购ATI,2010年放弃ATI品牌后推出AMD Radeon(镭龙)独立显卡系列,2021Q2 AMD独立PC GPU市场份额17%。

24 AI服务器与加速芯片

AI服务器:通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求,为自然语言处理、计算机视觉、机器学习等AI应用场景提供强大的算力支持,支撑AI算法训练和推理过程。

AI加速芯片:由于CPU并不适合大规模并行计算,因此需要加速芯片执行AI算法,目前AI加速芯片主要包括图形处理器(graphics processing unit,GPU)、现场可编程门阵列(field-programmable gate array,FPGA)、专用集成电路(application specific integrated circuits,ASIC)、神经拟态芯片等。

25 GPU是AI服务器首选加速方案

服务器是AI核心基础设施。根据IDC数据,2020年中国AI基础设施市场规模为393亿美元,同比增长268%,并将在2024年达到780亿美元,其中2020年服务器市场规模占AI基础设施的87%以上,承担着最为重要的角色。

互联网行业是AI服务器最大采购行业。根据IDC数据,2020年上半年,互联网占整体加速计算服务器市场近60%的份额,同比增持超过100%;政府行业和服务业分别依次位居第二位和第三位。

GPU服务器是AI加速方案首选。IDC预计2021年中国GPU服务器占比919%左右的市场份额,是数据中心AI加速方案首选。根据IDC数据,2019年中国GPU服务器市场规模达到20亿美元,预计2024年将达到64亿美元。

26 AI服务器通常配置多个GPU芯片

GPU加速服务器能够提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景,例如深度学习、科学计算、3D动画渲染、CAE等应用场景。

3NVIDIA:全球GPU巨头

31 全球GPU巨头

Nvidia成立于1993年,1999年上市,市值近10年增长超过83倍,近6年增长超过49倍。截至2021年11月5日,Nvidia总市值7438亿美元,总市值美股排名第七,是目前全球市值最大的半导体公司。(报告来源:未来智库)

32 三大因素推动地位提升

技术革新、场景拓展、外延并购,Nvidia引领全球GPU发展。

GPU架构:Nvidia坚持每2-3年推出一代新的GPU架构,持续保持技术领先,新的Ampere已经采用7nm工艺;应用场景:从最初图形处理到通用计算,再到AI深度学习和自动驾驶,Nvidia不断推动GPU应用场景的突破;外延并购:2000-2008年Nvidia密集收购额多家公司,涵盖显卡、图形处理、半导体等多个领域,2020年宣布计划收购ARM。

33 近年业绩高速增长

Nvidia产品主要分为两大类:图形处理、计算&网络。下游市场包括游戏、专业可视化、数据中心、汽车四大类。

2020年Nvidia营收1668亿美元(yoy+527%),净利润433亿美元(yoy+549%),其中图形处理业务营收983亿美元,计算&网络业务营收684亿美元。除去2019年游戏市场需求波动造成业绩下滑外,Nvidia近5年营收、利润均保持较快增长。

得益于基于Ampere架构新GPU产品带动游戏业务高增,以及数据中心对算力需求旺盛,2021上半年Nvidia营收、净利润快速增长。

34 游戏是最大市场,数据中心市场增速较快

Nvidia下游市场分为四类:游戏、专业可视化、数据中心、汽车,各市场重点产品如下:

游戏:GeForce RTX/GTX系列GPU(PCs)、GeForce NOW(云游戏)、SHIELD(游戏主机);专业可视化:Quadro/RTX GPU(企业工作站);数据中心:基于GPU的计算平台和系统,包括DGX(AI服务器)、HGX(超算)、EGX(边缘计算)、AGX(自动设备);汽车:NVIDIA DRIVE计算平台,包括AGX Xavier(SoC芯片)、DRIVE AV(自动驾驶)、DRIVE IX(驾驶舱软件)、Constellation(仿真软件)。

35 计算业务驱动高成长

计算业务是Nvidia成长的主要驱动力:数据中心已成规模,智能汽车将进入收获期。

在数据中心市场,Nvidia拥有芯片、硬件、硬件的全栈布局。得益于全球AI应用场景的快速增加,对算力的需求飙升。是Nvidia成长最快的市场,2020年营收达到约6696亿美元,近4年CAGR达到685%,远高于游戏市场的176%。2020年Nvidia数据中心市场营收占比已经超过40%,预计未来仍将继续提升。

在智能汽车市场, Nvidia形成了全栈式自动驾驶解决方案。AGX Xavier芯片于2018年开始出货,下一代自动驾驶芯片Orin计划用于2022年量产,算力将达到254TOPS,目前已经获得蔚来、理想、沃尔沃、奔驰等多个整车厂定点项目。我们认为2022年高阶自动驾驶汽车或将集中落地,Nvidia自动驾驶将进入收获期。

36 中国大陆收入贡献提升

Nvidia中国大陆收入快速增长。2020年Nvidia来自中国大陆收入3886亿美元,同比增长423%,近4年CAGR达到314%,同期Nvidia整体营收CAGR为246%。

Nvidia中国大陆收入占比呈上升趋势。2020年Nvidia中国大陆收入占比达到233%,相比于2016年的189%提升44pct,2021上半年Nvidia中国大陆收入占比256%,上升趋势明显。

我们预计中国大陆占比仍将提升。图显业务层面,人均收入提升将带动PC需求增加;计算业务层面,目前中国大陆在AI算法、应用层面具有领先优势,自动驾驶场景也将率先得到释放。

4景嘉微:国产GPU领军

41 国内唯一商用GPU公司

景嘉微成立于2006年,公司主营业务分为图形显控、小型专用化雷达、GPU芯片三类。其中图显、雷达产品主要面向军用市场,GPU芯片产品包括JM5400、JM7200,其中JM5400主要应用于公司图显模块中,JM7200成功拓展了民用和信创市场。2021年9月,公司第三代GPU芯片JM9成功流片,目前正在进行性能测试。

42 两个系列、三款GPU量产应用

景嘉微已完成两个系列、三款GPU芯片量产应用。第一代GPU产品JM5400于2014年流片成功,主要支撑军用装备,已在国产军用飞机上实现了对ATI M9、M54、M72等芯片的替代;第二代产品JM7200于2018年8月流片成功,性能与 Nvidia的GT640显卡相近。在JM7200基础上,公司又推出

GPS授时服务器是一款支持NTP和SNTP网络时间同步协议

授时系统框架图

,高精度、大容量、高品质的高科技时钟产品。设备采用冗余架构设计,高精度时钟直接来源于北斗、GPS系统中各个卫星的原子钟,通过信号解析驯服本地时钟源,实现卫星信号丢失后本地时钟精准保持功能。独特的嵌入式硬件设计、高效Linux操作系统,可灵活扩展多种时钟信号输出。全面支持最新NTP对时协议、MD5安全加密协议及证书加密协议,时间精度优于2毫秒。同时支持TOD、10MHz、 1PPS、日志记录、USB端口升级下载和干接点告警功能,配合全网时间统一监控软件,轻松实现网络时间同步及有效监控。

  京准电子科技HR-901GB型GPS授时服务器可以广泛应用于医疗、安防、金融保险、移动通信、 云计算、电子商务、能源电力、石油石化、工业自动化、智能交通、智慧城市、物联网等领域。

系统结构

  京准电子科技HR-901GB型GPS授时服务器创新性的融合了参考源无缝切换技术、高精度时间间隔测量TIC技术和自适应精密频率测控技术。采用模块化设计,由北斗接收机、GPS接收机、高性能工业级主板、人机界面及监控管理单元、本地时钟驯服单元、输出接口模块和电源模块组成。

  京准电子科技HR-901GB型GPS授时服务器核心由64位高性能CPU、高速FPGA及高稳振荡器(铷原子钟或OCXO)构成,采用Linux进行多任务实时并行处理及调度。 

系统可同时接收北斗、GPS发送的秒同步和时间信息及满足NTP/SNTP协议的网络时间报文,按优先级自动选择外部时间基准信号作为同步源并将其引控 到锁定状态(LOCKED)具有输入传输延时补偿算法,采用卡尔曼数字滤波技术滤除外部时间基准信号的抖动后,对铷原子钟或OCXO进行控制和驯服, 由内部振荡器分频得到1PPS信号,这样输出的1PPS信号同步于外部时间基准 输出的1PPS信号的长期稳定值,克服了由外部时间基准的秒脉冲信号跳变所 带来的影响,使输出的时间信号不但与外部时间基准信号保持同步而且更加稳定。当失去外部时间基准信号后,进入守时保持状态(HOLD-OVER),当外部 时间基准信号恢复时,自动结束守时保持状态并牵引跟踪到锁定状态。从而不间断的输出与UTC保持同步的时间信息。

重要特点

+ 超高带宽NTP服务器 

+ GPS/北斗双参考源一级时钟服务器

+ 高性能工业级主板、嵌入式Linux操作系统

+ 提供六路独立10/100/1000Mbs网络接口

+ 可连接另一台NTP服务器,构成2级时钟

+ 可选内部精密时钟OCXO或铷原子钟

+ 安全高效的Web的用户界面

+ 支持SSH,SSL,SCP,SNMP,CustomMIB,HTTPS,Telnet等更多协议

+ 兼容IPv6和IPv4协议

+ 相对UTC时间准确度达到毫微秒级

+ 支持IBM主机需要的SysPlex时间信息输出

+ 支持固定位置模式下单星授时功能

+ VFD高清真空荧光显示屏

+ 可靠性MTBF达80000小时

+ 支持4000条日志记录功能

+ 支持远程唤醒和定时开关

+ 支持MD5加密协议

+ 支持证书加密协议

+ 支持干接点告警功能

费良宏:程序员为什么要学深度学习?

深度学习本身是一个非常庞大的知识体系。本文更多想从程序员的视角出发,让大家观察一下深度学习对程序员意味着什么,以及我们如何利用这样一个高速发展的学科,来帮助程序员提升软件开发的能力。

本文根据费良宏在2016QCon全球软件开发大会(上海)上的演讲整理而成。

前言

1973年,美国上映了一部热门的科幻**《WestWorld》,三年之后又有一个续集叫做《FutureWorld》。这部**在80年代初被引进到中国叫《未来世界》。那部**对我来讲简直可以说得上是震撼。影片中出现了很多机器人,表情丰富的面部下面都是集成电路板。这让那时候的我觉得未来世界都是那么遥远、那么神秘。

时间到了2016年,很多朋友可能都在追看HBO斥巨资拍摄的同一题材的系列剧《WestWorld》。如果前两部**还是局限在机器人、人工智能这样的话题,2016年的新剧则在剧情和人工智能的思考方面有了很大的突破。不再渲染机器人是否会威胁到人类,而是在探讨“Dreamsaremainlymemories”这一类更具哲理的问题。

“记忆究竟如何影响了智能”这个话题非常值得我们去思考,也给我们一个很好的启示——今天,人工智能领域究竟有了怎样的发展和进步。

今天我们探讨的话题不仅仅是简单的人工智能。如果大家对深度学习感兴趣,我相信各位一定会在搜索引擎上搜索过类似相关的关键字。我在Google上以deeplearning作为关键字得到了2,630万个搜索的结果。这个数字比一周之前足足多出了300多万的结果。这个数字足以看得出来深度学习相关的内容发展的速度,人们对深度学习的关注也越来越高。

从另外的一个角度,我想让大家看看深度学习在市场上究竟有多么热门。从2011年到现在一共有140多家专注人工智能、深度学习相关的创业公司被收购。仅仅在2016年这种并购就发生了40多起。

其中最疯狂的是就是Google,已经收购了 11 家人工智能创业公司,其中最有名的就是击败了李世石九段的 DeepMind。排名之后的就要数 Apple、Intel以及Twitter。以Intel 公司为例,仅在今年就已经收购了 3 家创业公司,Itseez、Nervana 和 Movidius。这一系列大手笔的并购为了布局人工智能以及深度学习的领域。

当我们去搜索深度学习话题的时候,经常会看到这样的一些晦涩难懂的术语:Gradient descent(梯度下降算法)、Backpropagation(反向传播算法)、Convolutional Neural Network(卷积神经网络)、受限玻耳兹曼机(Restricted Boltzmann Machine)等。

如打开任何一篇技术文章,你看到的通篇都是各种数学公式。大家看到如下左边的图,其实并不是一篇高水准的学术论文,而仅仅是维基百科关于玻耳兹曼机的介绍。维基百科是科普层面的内容,内容复杂程度就超过了大多数数学知识的能力。

在这样的背景之下,我今天的的话题可以归纳成三点:第一,我们为什么要学习深度学习;第二,深度学习最核心的关键概念就是神经网络,那么究竟什么是神经网络;第三,作为程序员,当我们想要成为深度学习开发者的时候,我们需要具备怎样的工具箱,以及从哪里着手进行开发。

为什么要学习深度学习

首先,我们谈谈为什么要学习深度学习。在这个市场当中,最不缺乏的就是各种概念以及各种时髦新技术的词汇。深度学习有什么不一样的地方?我非常喜欢AndrewNg(吴恩达)曾经用过的一个比喻。

他把深度学习比喻成一个火箭。这个火箭有一个最重要的部分,就是它的引擎,目前来看在这个领域里面,引擎的核心就是神经网络。大家都知道,火箭除了引擎之外还需要有燃料,那么大数据其实就构成了整个火箭另外的重要组成部分——燃料。以往我们谈到大数据的时候,更多是强调存储和管理数据的能力,但是这些方法和工具更多是对于以往历史数据的统计、汇总。

而对于今后未知的东西,这些传统的方法并不能够帮助我们可以从大数据中得出预测的结论。如果考虑到神经网络和大数据结合,我们才可能看清楚大数据真正的价值和意义。AndrewNg就曾经说过“我们相信(神经网络代表的深度学习)是让我们获得最接近于人工智能的捷径”。这就是我们要学习深度学习的一个最重要的原因。

其次,随着我们进行数据处理以及运算能力的不断提升,深度学习所代表的人工智能技术和传统意义上人工智能技术比较起来,在性能上有了突飞猛进的发展。这主要得益于在过去几十间计算机和相关产业不断发展带来的成果。在人工智能的领域,性能是我们选择深度学习另一个重要的原因。

这是一段Nvidia在今年公布的关于深度学习在无人驾驶领域应用的视频。我们可以看到,将深度学习应用在自动驾驶方面,仅仅经历了3千英里的训练,就可以达到什么样的程度。在今年年初进行的实验上,这个系统还不具备真正智能能力,经常会出现各种各样的让人提心吊胆的状况,甚至在某些情况下还需要人工干预。

但经过了3千英里的训练之后,我们看到在山路、公路、泥地等各种复杂的路况下面,无人驾驶已经有了一个非常惊人的表现。请大家注意,这个深度学习的模型只经过了短短几个月、3千英里的训练。

如果我们不断完善这种模型的话,这种处理能力将会变得何等的强大。这个场景里面最重要的技术无疑就是深度学习。我们可以得出一个结论:深度学习可以为我们提供强大的能力,如果程序员拥有了这个技术的话,无异于会让每个程序员如虎添翼。

神经网络快速入门

如果我们对于学习深度学习没有任何疑虑的话,接下来就一定会关心我需要掌握什么样的知识才能让我进入到这个领域。这里面最重要的关键技术就是“神经网络”。说起“神经网络”,容易混淆是这样两个完全不同的概念。

一个是生物学神经网络,第二个才是我们今天要谈起的人工智能神经网络。可能在座的各位有朋友在从事人工智能方面的工作。当你向他请教神经网络的时候,他会抛出许多陌生的概念和术语让你听起来云里雾里,而你只能望而却步了。

对于人工智能神经网络这个概念,大多数的程序员都会觉得距离自己有很大的距离。因为很难有人愿意花时间跟你分享神经网络的本质究竟是什么。而你从书本上读的到的理论和概念,也很让你找到一个清晰、简单的结论。

今天就我们来看一看,从程序员角度出发神经网络究竟是什么。我第一次知道神经网络这个概念是通过一部**——1991年上映的《终结者2》。男主角施瓦辛格有一句台词:

“MyCPUisaneural-netprocessor;alearningcomputer”(我的处理器是一个神经处理单元,它是一台可以学习的计算机)。从历史来看人类对自身智力的探索,远远早于对于神经网络的研究。

1852年,意大利学者因为一个偶然的失误,将人类的头颅掉到硝酸盐溶液中,从而获得第一次通过肉眼关注神经网络的机会。这个意外加速了对人类智力奥秘的探索,开启了人工智能、神经元这样概念的发展。

生物神经网络这个概念的发展,和今天我们谈的神经网络有什么关系吗?我们今天谈到的神经网络,除了在部分名词上借鉴了生物学神经网络之外,跟生物学神经网络已经没有任何关系,它已经完全是数学和计算机领域的概念,这也是人工智能发展成熟的标志。这点大家要区分开,不要把生物神经网络跟我们今天谈到的人工智能有任何的混淆。

90年代中期,由Vapnik等人提出了支持向量机算法(Support Vector Machines,支持向量机)。很快这个算法就在很多方面体现出了对比神经网络的巨大优势,例如:无需调参、高效率、全局最优解等。基于这些理由,SVM算法迅速打败了神经网络算法成为那个时期的主流。而神经网络的研究则再次陷入了冰河期。

在被人摒弃的十年里面,有几个学者仍然在坚持研究。其中很重要的一个人就是加拿大多伦多大学的Geoffery Hinton教授。2006年,他的在著名的《Science》杂志上发表了论文,首次提出了“深度信念网络”的概念。

与传统的训练方式不同,“深度信念网络”有一个“预训练”(pre-training)的过程,这可以方便的让神经网络中的权值找到一个接近最优解的值,之后再使用“微调”(fine-tuning)技术来对整个网络进行优化训练。这两个技术的运用大幅度减少了训练多层神经网络的时间。在他的论文里面,他给多层神经网络相关的学习方法赋予了一个新名词— “深度学习”。

很快,深度学习在语音识别领域崭露头角。接着在2012年,深度学习技术又在图像识别领域大展拳脚。Hinton与他的学生在ImageNet竞赛中,用多层的卷积神经网络成功地对包含一千个类别的一百万张进行了训练,取得了分类错误率15%的好成绩,这个成绩比第二名高了将近11个百分点。

这个结果充分证明了多层神经网络识别效果的优越性。从那时起,深度学习就开启了新的一段黄金时期。我们看到今天深度学习和神经网络的火热发展,就是从那个时候开始引爆的。

利用神经网络构建分类器,这个神经网络的结构是怎样的?

其实这个结构非常简单,我们看到这个图就是简单神经网络的示意图。神经网络本质上就是一种“有向图”。图上的每个节点借用了生物学的术语就有了一个新的名词 – “神经元”。连接神经元的具有指向性的连线(有向弧)则被看作是“神经”。这这个图上神经元并不是最重要的,最重要的是连接神经元的神经。每个神经部分有指向性,每一个神经元会指向下一层的节点。

节点是分层的,每个节点指向上一层节点。同层节点没有连接,并且不能越过上一层节点。每个弧上有一个值,我们通常称之为”权重“。通过权重就可以有一个公式计算出它们所指的节点的值。这个权重值是多少?我们是通过训练得出结果。它们的初始赋值往往通过随机数开始,然后训练得到的最逼近真实值的结果作为模型,并可以被反复使用。这个结果就是我们说的训练过的分类器。

节点分成输入节点和输出节点,中间称为隐层。简单来说,我们有数据输入项,中间不同的多个层次的神经网络层次,就是我们说的隐层。之所以在这样称呼,因为对我们来讲这些层次是不可见的。输出结果也被称作输出节点,输出节点是有限的数量,输入节点也是有限数量,隐层是我们可以设计的模型部分,这就是最简单的神经网络概念。

如果简单做一个简单的类比,我想用四层神经网络做一个解释。左边是输入节点,我们看到有若干输入项,这可能代表不同苹果的RGB值、味道或者其它输入进来的数据项。中间隐层就是我们设计出来的神经网络,这个网络现在有不同的层次,层次之间权重是我们不断训练获得一个结果。

最后输出的结果,保存在输出节点里面,每一次像一个流向一样,神经是有一个指向的,通过不同层进行不同的计算。在隐层当中,每一个节点输入的结果计算之后作为下一层的输入项,最终结果会保存在输出节点上,输出值最接近我们的分类,得到某一个值,就被分成某一类。这就是使用神经网络的简单概述。

除了从左到右的形式表达的结构图,还有一种常见的表达形式是从下到上来表示一个神经网络。这时候,输入层在图的最下方,输出层则在图的最上方。从左到右的表达形式以AndrewNg和LeCun的文献使用较多。而在Caffe框架里则使用的则是从下到上的表达。

简单来说,神经网络并不神秘,它就是有像图,利用图的处理能力帮助我们对特征的提取和学习的过程。2006年Hinton的那篇著名的论文中,将深度学习总结成三个最重要的要素:计算、数据、模型。有了这三点,就可以实现一个深度学习的系统。

程序员需要的工具箱

对于程序员来说,掌握理论知识是为了更好的编程实践。那就让我们看看,对于程序员来说,着手深度学习的实践需要准备什么样的工具。

硬件

从硬件来讲,我们可能需要的计算能力,首先想到的就是CPU。除了通常的CPU架构以外,还出现了附加有乘法器的CPU,用以提升计算能力。此外在不同领域会有DSP的应用场景,比如手写体识别、语音识别、等使用的专用的信号处理器。还有一类就是GPU,这是一个目前深度学习应用比较热门的领域。最后一类就是FPGA(可编程逻辑门阵列)。

这四种方法各有其优缺点,每种产品会有很大的差异。相比较而言CPU虽然运算能力弱一些,但是擅长管理和调度,比如读取数据,管理文件,人机交互等,工具也丰富。DSP相比而言管理能力较弱,但是强化了特定的运算能力。

这两者都是靠高主频来解决运算量的问题,适合有大量递归操作以及不便拆分的算法。GPU的管理能力更弱一些,但是运算能力更强。但由于计算单元数量多,更适合整块数据进行流处理的算法。

FPGA在管理与运算处理方面都很强,但是开发周期长,复杂算法开发难度较大。就实时性来说,FPGA是最高的。单从目前的发展来看,对于普通程序员来说,现实中普遍采用的计算资源就还是是CPU以及GPU的模式,其中GPU是最热门的领域。

这是我前天为这次分享而准备的一个AWS 上p2的实例。仅仅通过几条命令就完成了实例的更新、驱动的安装和环境的设置,总共的资源创建、设置时间大概在10分钟以内。而之前,我安装调试前面提到的那台计算机,足足花了我两天时间。

另外,从成本上还可以做一个对比。p28xLarge 实例每小时的费用是72美元。而我自己那台计算机总共的花费了是¥16,904元。这个成本足够让我使用350多个小时的p28xLarge。在一年里使用AWS深度学习站就可以抵消掉我所有的付出。随着技术的不断的升级换代,我可以不断的升级我的实例,从而可以用有限的成本获得更大、更多的处理资源。这其实也是云计算的价值所在。

云计算和深度学习究竟有什么关系?今年的8月8号,在IDG网站上发表了一篇文章谈到了这个话题。文章中做了这样一个预言:如果深度学习的并行能力不断提高,云计算所提供的处理能力也不断发展,两者结合可能会产生新一代的深度学习,将带来更大影响和冲击。这是需要大家考虑和重视的一个方向!

软件

深度学习除了硬件的基础环境之外。程序员会更关心与开发相关的软件资源。这里我罗列了一些曾经使用过的软件框架和工具。

Scikit-learn是最为流行的一个Python机器学习库。它具有如下吸引人的特点:简单、高效且异常丰富的数据挖掘/数据分析算法实现; 基于NumPy、SciPy以及matplotlib,从数据探索性分析,数据可视化到算法实现,整个过程一体化实现;开源,有非常丰富的学习文档。

Caffe专注在卷及神经网络以及图像处理。不过Caffe已经很久没有更新过了。这个框架的一个主要的开发者贾扬清也在今年跳槽去了Google。也许曾经的霸主地位要让位给他人了。

Theano 是一个非常灵活的Python 机器学习的库。在研究领域非常流行,使用上非常方便易于定义复杂的模型。Tensorflow 的API 非常类似于Theano。我在今年北京的QCon 大会上也分享过关于Theano 的话题。

Jupyter notebook 是一个很强大的基于ipython的python代码编辑器,部署在网页上,可以非常方便的进行交互式的处理,很适合进行算法研究合数据处理。

Torch 是一个非常出色的机器学习的库。它是由一个比较小众的lua语言实现的。但是因为LuaJIT 的使用,程序的效率非常出色。Facebook在人工智能领域主打Torch,甚至现在推出了自己的升级版框架Torchnet。

深度学习的框架非常之多,是不是有一种乱花渐欲迷人眼的感觉?我今天向各位程序员重点介绍的是将是TensorFlow。这是2015年谷歌推出的开源的面向机器学习的开发框架,这也是Google第二代的深度学习的框架。很多公司都使用了TensorFlow开发了很多有意思的应用,效果很好。

用TensorFlow可以做什么?答案是它可以应用于回归模型、神经网络以深度学习这几个领域。在深度学习方面它集成了分布式表示、卷积神经网络(CNN)、递归神经网络(RNN) 以及长短期记忆人工神经网络(Long-Short Term Memory, LSTM)。

关于Tensorflow 首先要理解的概念就是Tensor。在辞典中对于这个词的定义是张量,是一个可用来表示在一些向量、标量和其他张量之间的线性关系的多线性函数。实际上这个表述很难理解,用我自己的语言解释Tensor 就是“N维数组”而已。

使用 TensorFlow, 作为程序员必须明白 TensorFlow这样几个基础概念:它使用图 (Graph) 来表示计算任务;在被称之为 会话 (Session) 的上下文 (context) 中执行图;使用 Tensor 表示数据;通过 变量 (Variable) 维护状态;使用 feed 和 fetch 可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据。

一句话总结就是,TensorFlow 就是有状态图的数据流图计算环境,每个节点就是在做数据操作,然后提供依赖性和指向性,提供完整数据流。

TensorFlow安装非常简单,但官网提供下载的安装包所支持的CUDA 的版本是75。考虑到CUDA 8 的让人心动的新特以及不久就要正式发布的现状。或许你想会考虑立即体验CUDA 8,那么就只能通过编译Tensorflow源代码而获得。目前TensorFlow已经支持了Python27、33+。

此外,对于使用Python 语言的程序员还需要安装所需要的一些库,例如:numpy、protobuf等等。对于卷积处理而言,cuDNN是公认的性能最好的开发库,请一定要安装上。常规的Tensorsorflow的安装很简单,一条命令足矣:

$ pip3 install —upgrade https://storage233wiki/tensorflow/linux/cpu/tensorflow-0110rc0-cp35-cp35m-linux_x86_64whl

如果想评估一下或者简单学习一下,还可以通过Docker进行安装,安装的命令如下:

$ docker run -it -p 8888:8888 gcrio/tensorflow/tensorflow

TensorFlow有很多优点。首先,目前为止,深度学习的开发框架里面TensorFlow的文档做的最好,对程序员学习而言是非常好的一点。第二,TensorFlow有丰富的参考实例,作为参考学习起来非常容易。

第三,开发者社区活跃,在任何一个深度学习的社区里,都有大量关于TensorFlow的讨论。第四,谷歌的支持力度非常大,从2015年到现在升级速度非常快,这是其他开源框架远远达不到的结果。

参考TensorFlow的白皮书,我们会看到未来TensorFlow还将会有巨大的发展潜力。让我特别感兴趣是这两个方向。第一,支持跨多台机器的 parallelisation。尽管在08版本中推出了并行化的能力,但是目前还不完善。随着未来不断发展,依托云计算的处理能力的提升这个特性将是非常让人振奋的。

第二,支持更多的开发语言,对于开发者来说这是一个绝大的利好,通过使用自己擅长的语言使用TensorFlow应用。这些开发语言将会扩展到Java、Lua以及R 等。

在这里我想给大家展示一个应用Tensorflow 的例子。这个例子的代码托管在这个网址上 https://githubcom/anishathalye/neural-style。白俄罗斯的现代印象派艺术家Leonid Afremov善于用浓墨重彩来表现都市和风景题材,尤其是其雨景系列作品。他习惯用大色块的铺陈来营造光影效果,对反光物体和环境色的把握非常精准。

于是我就找到了一张上海东方明珠电视塔的一张摄影作品,我希望通过Tensorflow 去学习一下Leonid Afremov 的绘画风格,并将这张东方明珠的照片处理成那种光影色彩丰富的作品风格。利用Tensorflow 以及上面提到的那个项目的代码,在一个AWS 的p2类型的实例上进行了一个一千次的迭代,于是就得到了下图这样的处理结果。

这个处理的代码只有350行里,模型使用了一个成名于2014年ImageNet比赛中的明星 VGG。这个模型非常好,特点就是“go depper”。

TensorFlow 做出这样的作品,并不仅仅作为娱乐供大家一笑,还可以做更多有意思的事情。将刚才的处理能力推广到视频当中,就可以看到下图这样的效果,用梵高著名的作品”星月夜“的风格就加工成了这样新的视频风格。

可以想象一下,如果这种处理能力在更多领域得以应用,它会产生什么样的神奇结果?前景是美好的,让我们有无限遐想。事实上我们目前所从事的很多领域的应用开发都可以通过使用神经网络和深度学习来加以改变。对于深度学习而言,掌握它并不是难事。每一个程序员都可以很容易的掌握这种技术,利用所具备的资源,让我们很快成为深度学习的程序开发人员。

结束语

未来究竟是什么样,我们没有办法预言。有位作家Ray Kurzweil在2005年写了《奇点临近》一书。在这本书里面他明确告诉我们,那个时代很快到来。作为那个时代曙光前的人群,我们是不是有能力加速这个过程,利用我们学习的能力实现这个梦想呢?

中国人工智能的发展

人工智能的时代无疑已经到来,这个时代需要的当然就是掌握了人工智能并将其解决具体问题的工程师。坦率的说,市场上这一类的工程师还属于凤毛麟角。职场上的薪酬待遇可以看得出来这样的工程师的抢手的程度。人工智能这门学科发展到今天,就学术自身而言已经具备了大规模产业化的能力。

所以说,对于工程师而言当务之急就是尽快的掌握应用人工智能的应用技术。当下在互联网上关于人工智能的学习资料可以说已经是“汗牛充栋”,那些具备了快速学习能力的工程师一定会在人工智能的大潮当中脱颖而出。

中国发展人工智能产业的环境已经具备。无论从创业环境、人员的素质乃至市场的机遇而言完全具备了产生产业变革的一切条件。与美国相比较,在人工智能的许多领域中国团队的表现也可以说是不逞多让。就人工智能的技术层面而言,中国的工程师与全球最好的技术团队正处于同一个起跑线上。

时不我待,中国的工程师是有机会在这个领域大展身手的。不过值得注意的是,要切忌两点:一是好高骛远,盲目与国外攀比。毕竟积累有长短,术业有专攻,我们要立足于已有的积累,寻求逐步的突破。二是一拥而上,盲目追求市场的风口。人工智能的工程化需要大量的基础性的积累,并非一蹴而就简单复制就可以成功。

中国的科研技术人员在人工智能领域的成就有目共睹。在王咏刚的一篇文章里面,他统计了从2013年到2015年SCI收录的“深度学习”论文,中国在2014年和2015年超已经超过了美国居于领跑者的位置。

另外一让我感到惊讶的事情,Google的JeffDean在2016年发表过一篇名为《TensorFlow:Asystemforlarge-scalemachinelearning》的论文。文章的22个作者里面,明显是中国名字的作者占已经到了1/5。如果要列举中国人/华人在人工智能领域里的大牛,吴恩达、孙剑、杨强、黄广斌、马毅、张大鹏……很容易就可以说出一大串。

对于中国来说目前的当务之急是人工智能技术的产业化,唯有如此我们才可以讲科研/智力领域的优势转化为整体的、全面的优势。在这一点上,中国是全球最大的消费市场以及制造业强国,我们完全有机会借助市场的优势成为这个领域的领先者。

硅谷创新企业

硅谷虽然去过许多回,但一直无缘在那里长期工作。在人工智能领域的市场我们听到的更多是围绕Google、Apple、Intel、Amazon这样的一些大型科技公司的一举一动。但是在美国市场上还有一大批小型的创业企业在人工智能这个领域有惊艳的表现。仅以硅谷区域的公司为例:

Captricity,提供了手写数据的信息提取;

VIVLab,针对语音识别开发了虚拟助手服务;

TERADEEP,利用FPGA提供了高效的卷积神经网络的方案;

还有提供无人驾驶解决方案的NetraDyne。

这个名单还可以很长,还有许许多多正在利用人工智能技术试图去创造历史的团队正在打造他们的梦想。这些团队以及他们正在专注的领域是值得我们去学习和体会的。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 目前“新基建”七大领域的发展现状与前景是什么样子?

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情