提升SQLServer数据库虚拟化效能的几点经验

提升SQLServer数据库虚拟化效能的几点经验,第1张

实现SQL Server数据库虚拟化所带来的好处是不言而喻的。就SQL Server 2008来说,Hyper-V无疑是其首选的虚拟化平台。不过,要充分发掘Hyper-V潜能将SQL Server虚拟化进行到底还有许多工作要做。本文和大家分享提升SQL Server数据库虚拟化效能的几点经验。 1、

实现SQL Server虚拟化所带来的好处是不言而喻的。就SQL Server 2008来说,Hyper-V无疑是其首选的虚拟化平台。不过,要充分发掘Hyper-V潜能将SQL Server虚拟化进行到底还有许多工作要做。本文和大家分享提升SQL Server虚拟化效能的几点经验。

1、合理分配虚拟处理器

虚拟处理器是影响虚拟机性能的重要因素,对于有四个或更少的CPU核的系统来说,为SQL Server虚拟机分配虚拟处理器的数量是一项相对简单易行的工作。Hyper-V对每个虚拟机支持多达四个虚拟CPU。

(1)分配虚拟处理器

要给虚拟机分配多个虚拟处理器可这样操作:打开Hyper-V Manager,在虚拟机上单击右键选择“Settinqs”,然后单击“Processor”。在“Number of logical processors”下拉列表框中,选择供虚拟机使用的虚拟处理器的数量。当然,我们最多只能为虚拟机分配与系统中的物理核一样多的虚拟处理器。

(图1)

(2)CPU的量化分配

在SQL Server虚拟环境中,保证虚拟化宿主机有足够的处理能力来为所有活动的虚拟机提供服务是特别重要的。要计算Hyper-V宿主机所需的处理能力,我们可以通过一个公式来计算:

CPU核×CPU速度×CPU利用率=CPU总数

这里的“CPU核” 是要虚拟化的物理内的CPU数量。“CPU速度”是CPU的速度,“CPU利用率”是该CPU的平均利用率。

我们需要针对所有要运行在Hyper-V宿主机上的服务器进行这一运算。然后,使用下列公式,把“CPU总数”的数值加在一起,得到所有虚拟机所需的全部CPU的估计值:

“CPU总数” 之和=全部CPU

尽管特定的需求会有变化,笔者的经验是应该保留25%的宿主机处理能力。所以,我们可以使用下列公式来确定宿主机的虚拟化性能:

全部CPU×25%

理想情况下,应该力争在虚拟CPU和物理CPU核之间保持1对1映射的关系。虽然大多数服务器虚拟环境的映射比例要高一些。需要注意的是:向虚拟机增加虚拟CPU不会带来性能方面的线性增长。也就是说,增加第二个虚拟CPU不会让虚拟机性能翻倍,一般会使虚拟CPU性能提升10%到15%。

fpga是一个可配置平台,其功能未定,就象一张白纸,写什么是什么,所以你可以把它编成一个处理器(CPU)。

随着科学发展和芯片集成度的不断提高,FPGA厂商就一直在将FPGA置于逻辑时序控制之外的领域,从数字信号处理,网络,数据中心甚至在服务器!

效能是指有效的、集体的效应,即人们在有目的、有组织的活动中所表现出来的效率和效果,它反映了所开展活动目标选择的正确性及其实现的程度。效能是衡量工作成果的尺度,效率、效果、效益是衡量效能的依据。

效能:随着药物剂量或浓度的增加,药物的效应也随之增加,当药物的效应增加到一定程度后,增加药物的剂量或浓度,药物的效应也不再增加,此时的药物效应称为药物的最大效应,在量反应中称为效能。

有人为效能做了个公式:效能=效率X目标,它是说一个人或组织不能片面的追求效率,效率高不代表目的就可以实现,有了目标再乘以效率才是达到目的的方法,真正达到此点才算是一个做事有章法的人才。

扩展资料:

效能理念基本内涵政府部门必须提高行政意识,把行政效能,而不再是效率,作为自己的目标追求,要牢固确立质量意识,以服务能力为保障,追求政府服务产品和服务效果的全面优化。

效率和效能两者是不相等的,效能是从战略(比较而言)角度考虑的,而效率则是从战术层面考虑的,也就是说,即大处着眼、小处着手的关系。在现实生活中,不管是企业还是个人,人们关注的重点都在前者,及效率和正确的做事。

比如,老板一有什么想法,就发动大家开动脑筋鼓足干劲的工作,同时提出各种提高工作效率的方式方法来指导大家,期望大家能尽快达成某个目标。

其实,如果先冷静下来,对问题进行认真分析,也许会发现,这是并不值得做的事情,甚至是对公司业务有害的事情(比如占用公司资源,而没有把资源投入到真正需要的地方),这就是个不考虑效能的例子。

参考资料:

——效能

当前,为推进IT支撑系统集约化建设和运营,进一步发挥集中化能力优势,IT云成为运营商IT支撑系统建设的基础架构。但在IT云资源池部署过程中,服务器技术面临多个新挑战,主要体现在以下3个方面。

在性能方面,人工智能(AI)应用快速扩张,要求IT云采用高性能GPU服务器。AI已在电信业网络覆盖优化、批量投诉定界、异常检测/诊断、业务识别、用户定位等场景规模化应用。AI应用需求的大量出现,要求数据中心部署的服务器具有更好的计算效能、吞吐能力和延迟性能,以传统通用x86服务器为核心的计算平台显得力不从心,GPU服务器因此登上运营商IT建设的历史舞台。

在效率成本方面,IT云部署通用服务器存在弊端,催生定制化整机柜服务器应用需求。在IT云建设过程中,由于业务需求增长快速,IT云资源池扩容压力较大,云资源池中的服务器数量快速递增,上线效率亟需提高。同时,传统通用服务器部署模式周期长、部署密度低的劣势,给数据中心空间、电力、建设成本和高效维护管理都带来了较大的挑战。整机柜服务器成为IT云建设的另一可选方案。

在节能方面,AI等高密度应用场景的快速发展,驱动液冷服务器成为热点。随着AI高密度业务应用的发展,未来数据中心服务器功率将从3kW~5kW向20kW甚至100kW以上规模发展,传统的风冷式服务器制冷系统解决方案已经无法满足制冷需求,液冷服务器成为AI应用场景下的有效解决方案。

GPU服务器技术发展态势及在电信业的应用

GPU服务器技术发展态势

GPU服务器是单指令、多数据处理架构,通过与CPU协同进行工作。从CPU和GPU之间的互联架构进行划分,GPU服务器又可分为基于传统PCIe架构的GPU服务器和基于NVLink架构的GPU服务器两类。GPU服务器具有通用性强、生态系统完善的显著优势,因此牢牢占据了AI基础架构市场的主导地位,国内外主流厂商均推出不同规格的GPU服务器。

GPU服务器在运营商IT云建设中的应用

当前,电信业开始推动GPU服务器在IT云资源池中的应用,省公司现网中已经部署了部分GPU服务器。同时,考虑到GPU成本较高,集团公司层面通过建设统一AI平台,集中化部署一批GPU服务器,形成AI资源优化配置。从技术选型来看,目前运营商IT云资源池采用英伟达、英特尔等厂商相关产品居多。

GPU服务器在IT云应用中取得了良好的效果。在现网部署的GPU服务器中,与训练和推理相关的深度学习应用占主要部分,占比超过70%,支撑的业务包括网络覆盖智能优化、用户智能定位、智能营销、智能稽核等,这些智能应用减少了人工投入成本,提升了工作效率。以智能稽核为例,以往无纸化业务单据的人工稽核平均耗时约48秒/单,而AI稽核平均耗时仅约5秒/单,稽核效率提升达 90%。同时,无纸化业务单据人工稽核成本约15元/单,采用GPU进行AI稽核成本约0048元/单,稽核成本降低达968%。

整机柜服务器发展态势及在电信业的应用

整机柜服务器技术发展态势

整机柜服务器是按照模块化设计思路打造的服务器解决方案,系统架构由机柜、网络、供电、服务器节点、集中散热、集中管理6个子系统组成,是对数据中心服务器设计技术的一次根本性变革。整机柜服务器将供电单元、散热单元池化,通过节约空间来提高部署密度,其部署密度通常可以翻倍。集中供电和散热的设计,使整机柜服务器仅需配置传统机柜式服务器10%的电源数量就可满足供电需要,电源效率可以提升10%以上,且单台服务器的能耗可降低5%。

整机柜服务器在运营商IT云建设中的应用

国内运营商在IT云建设中已经推进了整机柜服务器部署,经过实际应用检验,在如下方面优势明显。

一是工厂预制,交付工时大幅缩短。传统服务器交付效率低,采用整机柜服务器将原来在数据中心现场进行的服务器拆包、上架、布线等工作转移到工厂完成,部署的颗粒度从1台上升到几十台,交付效率大大提升。以一次性交付1500台服务器为例,交付工作量可减少170~210人天,按每天配10人计算,现场交付时间可节省约17~21天。

二是资源池化带来部件数量降低,故障率大幅下降。整机柜服务器通过将供电、制冷等部件资源池化,大幅减少了部件数量,带来故障率的大幅降低。图1比较了32节点整机柜服务器与传统1U、2U服务器机型各自的电源部件数量及在一年内的月度故障率情况。由于32节点整机柜服务器含10个电源部件,而32台1U通用服务器的电源部件为64个,相较而言,整机柜电源部件数减少844%。由于电源部件数量的降低,32节点整机柜服务器相对于32台1U通用服务器的月度故障率也大幅缩减。

三是运维效率提升60%以上。整机柜服务器在工厂预制机柜布线,网络线缆在工厂经过预处理,线缆长度精确匹配,理线简洁,接线方式统一规范,配合运维标签,在运维中可以更方便简洁地对节点实施维护操作,有效降低运维误操作,提升运维效率60%以上,并大幅减少发生故障后的故障恢复时间。

液冷服务器技术发展态势及在电信业的应用

液冷服务器技术发展态势

液冷服务器技术也称为服务器芯片液体冷却技术,采用特种或经特殊处理的液体,直接或近距离间接换热冷却芯片或者IT整体设备,具体包括冷板式冷却、浸没式冷却和喷淋式冷却3种形态。液冷服务器可以针对CPU热岛精确定点冷却,精确控制制冷分配,能真正将高密度部署带到前所未有的更高层级(例如20kW~100kW高密度数据中心),是数据中心节能技术的发展方向之一,3种液冷技术对比如表1所示。

液冷服务器在运营商IT建设中的应用

液冷服务器技术目前在我国仍处于应用初期,产业链尚不完备、设备采购成本偏高、采购渠道少、电子元器件的兼容性低、液冷服务器专用冷却液成本高等问题是液冷服务器尚未大规模推广的重要原因。从液冷服务器在运营商数据中心领域的具体应用案例来看,运营商在IT云资源池规划和建设过程中,通常会对液冷服务器的发展现状、技术成熟度等进行分析论证。

考虑到目前液冷服务器规模化应用尚处于起步阶段,需要3~5年的引入期,因此暂时未在IT云资源池建设中进行大规模落地部署,但在部分地区有小规模应用,如中国移动南方基地数据中心已经开展液冷服务器试点应用,中国联通研究院也在开展边缘数据中心服务器喷淋式液冷系统的开发。未来,随着IT云建设规模、建设密度的继续攀升,以及液冷产业生态体系的逐步成熟,液冷服务器在IT云建设中将有更大的应用空间。

总体来看,运营商IT云资源池建设对服务器计算性能、延迟、吞吐、制冷、定制化、分布式部署等方面都提出了更高要求。未来,GPU服务器、定制化整机柜服务器、液冷服务器等新兴服务器技术将快速迭代,为运营商数据中心服务器技术的发展和演进带来新的思路和路径。

云计算服务器有以下要求

1、高密度。高密度低成本基本上已经是云服务器的基本要求了,按照云计算中心本身的特点,云服务器应该和云计算中心高密度、低功耗、低成本的特点相符,即主要面向大规模部署的云应用。高密度服务器能够减少延迟、提高反应速度。

2、虚拟化。服务器虚拟化的能力,可以说直接影响云计算的效果。由于服务器虚拟化技术使上层应用的性能得到了保障,同时还达到了减少能耗的目的。服务器硬件虚拟化的支持程度是考量服务器的一个重要因素。

3、横向扩展。根据云计算的第一个特点超大规模来说,云计算服务器的横向扩展能力就变得至关重要,目前英特尔已经推出了横向扩展的存储解决方案,结合英特尔的硬件,可以对这种大量的文件访问提供更高数据库和更好的可扩展性,而英特尔万兆网卡可以结合英特尔虚拟化技术,为整个云计算的中心提供更高效、更安全以及更简化的方式,保证了云数据中心的灵活性。

4、并行计算云计算在某种形式上来说就是分布式计算、并行计算、网格计算等一脉相传的技术路线。感兴趣的话点击此处,免费了解一下

亿万克研发亚当服务器,发展云计算技术,为服务器系统提供更节能、迅速的支撑。国家特种计算机工程技术研究中心开始组建,“蛟云计划”中新增国产化战略发展项目,虚拟存储关键技术获得突破性发展,“新型高可靠特种计算机系统总线架构技术”荣获科技进步一等奖。

“芯片企业不能依据现有市场需求来做IC,芯片的研发、量产等需要提前好几年来布局,仅看现在的市场是跟不上变化的。企业要预判未来一代、甚至两代的市场,还要保证量产后能销售5年以上。”江苏华存电子技术总工程师魏智泛先生在集邦咨询2022存储产业峰会上介绍PCIe Gen5固态硬盘(SSD)新品时如是说。

据了解,江苏华存的PCIe Gen5 SSD配置了其自主研发的PCIe Gen5 SSD主控芯片HC9001,这是一颗历时四年打磨出来的企业级存储SSD主控芯片,也是国内首颗企业级PCIe 50存储主控芯片。值得注意的是,这家公司没有PCIe 40主控芯片,在四年前一举选择了PCIe 50赛道,在后续的媒体群访环节,魏智泛向《国际电子商情》解释了选择PCIe 50的原因。

在5G+AI万物联网的时代,服务器需求量迎来急速爆发,服务器效能也需要飞跃式的成长才能跟上时代创新需求。对比PCIe 40和PCIe 50,最明显的区别是后者在效能上的提升。魏智泛感叹说,无论是在哪一个产业,大家都会聚焦追求效能。从理论上来看,PCIe 50的接口速度是PCIe 40的两倍。

据介绍,HC9001采用台积电12nm工艺流片,具备多重创新架构,包括了创新XSDirectA(eXcellent-Scheduling&Direct-Arrival)架构、创新第二代LPDC(Low-Density Parity-Check)纠错算法架构以及创新iPower架构。以上这些创新架构为其带来优异的性能,不论是在接口速度、读写效能、闪存纠错等规格上都处于行业先进。

魏智泛介绍说,江苏华存当前更关注PCIe 50新品在服务器上的应用。预计到2022年,PCIe 50将在服务器市场首先引爆,之后个人PC、智能家庭等应用场景也会随之爆发。在此基础上再过两年,细分市场上将会出现更多不同的装置形态。

在他看来,一个新标准的推动,谁都无法独揽权益。多数业内人士认为,当一个新技术起来时,参与者首要考虑的应该是“如何把市场蛋糕做大”,最终大家自然会吃到属于自己的那一块蛋糕。现在,国内有很多服务器系统厂商在往PCIe 50标准靠,这也是江苏华存看好服务器市场的原因。

江苏华存电子成立于2017年,其首颗主控芯片基于PCIe 50标准。面对为什么要从PCIe 50开始,魏智泛解释说,PCIe 50标准能向下兼容PCIe 40标准,所以第5代主控芯片能向下支持第4代产品。另外,在他看来PCIe 40其实是一个过渡标准。“PCIe 30 SSD每年的总量约是PCIe 40 SSD的10倍以上,但PCIe 40的总量并没有起来。四年前,我们决定要做PCIe 50标准芯片时,就已经判定了PCIe 40只是一个过渡性标准。”

从现在的商用现状来看,江苏华存的预判似乎相当准确。PCIe是一个偏向PC的标准,英特尔和AMD的产品路线图在这个标准演变中具有非常重要的地位。2018年,英特尔开始推PCIe 40 CPU,该时间点比此前预期的整整延迟了两年,但下一代的PCIe 50标准如期而至,这就注定了PCIe 40是一个过渡性标准。

在2018年,PCIe 50相关的规格已经有很大的进步。华存团队依据自己的经验,判断PCIe 50产品将会在一年内获得订单。而对于PCIe 40标准产品来说,两年的时间不足以让它普及,当它还未大批量商用时,市场就出现了PCIe 50产品。

“由于芯片行业的特殊性,一般要成功量产一颗IC,大约要耗费3至4年的时间。因此,芯片企业不能依据现有市场需求来做IC,芯片的研发、量产等需要提前好几年来布局,仅看现在的市场是跟不上变化的。企业要预判未来一代、甚至两代的市场,还要保证量产后能销售5年以上。”魏智泛回忆,在公司刚开始立项时,周围都是PCIe 30,国际大厂也刚刚开始推广PCIe 40。曾经有许多人问他,为什么要选择PCIe 50,他每次都给对方回复以上的内容。

对任何一家初创企业而言,预判未来的市场走向,并提前多年布局产品,整个过程需要极大的勇气,也面临着各式各样的挑战。在当时PCIe 50还是一个很超前的概念,就算到现在,它在个人市场都没有很普及。

“对电子行业的企业而言,已经在市场上流通的产品,不是需要它着重发力的点。我们在看的是未来一两年内的趋势,怎么样根据市场趋势来制定战略决策,这才是克服困难的重要方法。在面对困难时,关键是靠团队来做抉择,不能仅靠个人去判定,因为这样很容易出错。”

虽然江苏华存有自研主控芯片,但是它不是一家存储主控公司,而是一家具备存储主控设计能力的存储模组公司。“我们不直接销售主控芯片,我们的主控芯片以模组的形式售卖给客户。”魏智泛强调说,江苏华存从创立初期,就明确了这种商业模式。

“我们的创始人团队中,有很多人在主控芯片厂工作过,我们深刻理解主控芯片厂商的困难。台湾群联电子的潘董曾经感叹说,‘做主控芯片其实赚不了大钱’,我非常认同他的这句话。”

主控芯片厂需长期、大量地投入,相比之下,最终所获取的净利润并不多。江苏华存在一开始就顺应国家政策的指导,把自己定义为“拥有主控设计能力的模块生产公司”。当前,该公司给自己定下了一个远大的目标——做到中国业内TOP3企业。魏智泛坦言,虽然公司原本设定的目标是业内TOP3,但是公司内部希望能跻身业内前2或前1。

研发一颗存储主控芯片,不仅要有开发硬件的能力,还要有与硬件搭配的固件的研发能力,从系统端来看,还要有软件开发能力。这样才能提供一个完整的存储方案。这要求团队中必须有各类型的专业人才。目前,江苏华存的主力研发团队分布在台湾、深圳、上海和广州,团队中不乏有15年、甚至20多年经验的专家。“一群有经验的老师傅,知道该怎么按部就班做事情,能避免走弯路。产品开发前期,从整体架构,到各IP架构,再到设计相关的事,并不是靠人多就能取胜,而是靠是否走对方向以及后续验证、时间的积累等。做IC没有捷径,只能扎实把事情做好,仅此而已。”

江苏华存在研发芯片的同时,也在训练新一代的人才。通过跟着“老师傅”一起做研发,新一代人才将会对企业级存储有更深的理解。预计在未来1-2年的推进过程中,新一代人才将会扮演关键角色。

在2020年底,江苏华存已经完成了17亿元人民币的A轮的融资,2021年计划新一轮融资。魏智泛透露说,新一轮融资将主要应用在HC9001的量产上。“量产阶段的运营,需要大量资金来推动商业化,未来HC9001会搭载在PCIe 50固态硬盘上流向市场。”他还表示,江苏华存非常重视国产存储产业链的建设,公司将会持续关注长江存储。未来十年的新时代,云/边/端还存在许多创新的可行方向。希望与业界结伴快速前行,共同打造国产竞争力。

企业往往在购买服务器时,面对一堆服务器配置参数无所适从,用户如何根据厂商提供的数据选择到合适的服务器呢下面为大家列举出常见的配置数据:

1、双路等于双核吗

无论服务器的单路、双路、四路乃至八路,其中的“路”都是指服务器物理CPU的数量,也就是服务器主板上CPU插槽的数量。

双核处理器,是在一颗物理CPU内部封装了两个CPU核心,这样的好处在于能够让用户在成本增加不多的前提下,拥有更强劲的性能。而且能够比较显著的降低性能功耗比,这对企业用户节约使用成本也有积极的意义。

2、至强与奔腾的区别

(1)英特尔奔腾4处理器开始,便将奔腾4处理器归为个人处理器,用户不能以2颗奔腾4处理器来构架2路服务器系统,而开发出运算效能更高的至强处理器。至强处理器目前分为至强DP和至强MP。

(2)就是二级缓存不同。至强的二级缓存是1MB~16MB,P4的二级缓存是512KB~1MB,而二级缓存的容量也是决定服务器处理效能的重要因素。至强系列CPU多为604接口,而P4的CPU,多为478针或是775架构。

3、服务器的几种类型

按照外形结构划分,可分为塔式服务器、机架式服务器、刀片式服务器三种类型。

(1)塔式服务器

一般的塔式服务器机箱和我们常用的PC机箱差不多,而大型的塔式机箱就要粗大很多,总的来说外形尺寸没有固定标准。塔式服务器的功能、性能基本上能满足大部分企业用户的要求,其成本通常也比较低,因此拥有非常广泛的应用支持。

(2)机架式服务器

机架式服务器是由于满足企业的密集部署,形成的以19英寸机架作为标准宽度的服务器类型,高度则从1U到数U。将服务器放置到机架上,并不仅仅有利于日常的维护及管理,也可能避免意想不到的故障。放置服务器不占用过多空间,连接线等也能够整齐地收放到机架里,电源线和LAN线等全都能在机柜中布好线,可以减少堆积在地面上的连接线,从而防止脚踢掉电线等事故的发生。

(3)刀片式服务器

刀片服务器是一种高可用高密度的低成本服务器平台,是专门为特殊应用行业和高密度计算机环境设计的,其中每一块“刀片”实际上就是一块系统母板,类似于一个个独立的服务器。在这种模式下,每一个母板运行自己的系统,服务于指定的不同用户群,相互之间没有关联。不过可以使用系统软件将这些母板集合成一个服务器集群。在集群模式下,所有的母板可以连接起来提供高速的网络环境,可以共享资源,为相同的用户群服务。

4、“U”是什么

“U”在服务器领域中特指机架式服务器厚度。

之所以要规定服务器的尺寸,是为了使服务器保持适当的尺寸以便放在铁质或铝质机架上。机架上有固定服务器的螺孔,将它与服务器的螺孔对好,用螺丝加以固定。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 提升SQLServer数据库虚拟化效能的几点经验

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情