等级保护2.0国家标准,第1张

法律分析:,等保20国家标准对比等保10,在保护范围、法律效力、技术标准、安全体系、定级流程、定级指导等方面均发生变化,信息安全系统改造在即。等保20做出对关键信息基础设施“定级原则上不低于三级”的指导,测评分数的要求由60分提升至75分以上,且第三级及以上信息系统每年或每半年就要进行一次测评。国家重点行业将带头加大信息安全产品和咨询服务的持续投入。回顾我国信息安全产业曾在等保10影响下进入加速发展期,专家预计,等保20将继续带动行业大发展,至少打开百亿级以上增量市场空间。

法律依据:《信息安全等级保护管理办法》第十二条在信息系统建设过程中,运营、使用单位应当按照《计算机信息系统安全保护等级划分准则》(GB17859-1999)、《信息系统安全等级保护基本要求》等技术标准,参照《信息安全技术 信息系统通用安全技术要求》(GB/T20271-2006)、《信息安全技术 网络基础安全技术要求》(GB/T20270-2006)、《信息安全技术 操作系统安全技术要求》(GB/T20272-2006)、《信息安全技术 数据库管理系统安全技术要求》(GB/T20273-2006)、《信息安全技术 服务器技术要求》、《信息安全技术 终端计算机系统安全等级技术要求》(GA/T671-2006)等技术标准同步建设符合该等级要求的信息安全设施。

结构层次

(一) 物理层次

从物理层次结构上,PACS可以分为4层:网络用户层、接入层、核

PACS应用层次结构示意图

PACS应用层次结构示意图

心层、资源提供层,自下而上构成一个"金字塔"结构。其中:网络用户层是网络中的众多的终端或工作站;接入层是指与网络用户层中的终端或工作站相连接,为这些终端或工作站进行网络互联的网络设备集合(如二级交换机、集线器等);核心层是指将接入层网络设备汇集起来,形成全网互联的网络设备的集合,如(服务器、路由器、防火墙等);资源提供层是指PACS网络中的众多的医疗器械终端,如(CT、US、DR等)。

(二) 应用层次

从应用层次结构上,PACS可以分为3层:MINI-PACS、科室

PACS应用层次结构示意图

PACS应用层次结构示意图

级PACS、全院级PACS,自内而外构成一个"内嵌型"结构。其中:MINI-PACS是指针对小型医疗院所或单一科室规划的系统,MINI-PACS系统也必须包含超声波、内窥镜等图文并茂的专业影像报告系统;科室级PACS是指针对中型医院所提出的科室架构,紧密整合院方已有的HIS/RIS系统 ,建立以患者为中心的科室影像中心;全院级PACS主要是针对大型医院所提出的全院性架构,完全实现全院影像科室数字化读片诊断工作流程、实现全院影像科室电子化管理。

工作流程

现有主流PACS厂商,在研发PACS系统之初,都遵从了以下标准流程。

PACS业务流程图

PACS业务流程图

(一) 检查信息登记输入

前台登记工作站录入患者基本信息及检查申请信息,也可通过检索HIS系统(如果存在HIS并与PACS/RIS融合)进行病人信息自动录入,并对病人进行分诊登记、复诊登记、申请单扫描、申请单打印、分诊安排等工作。

(二) WorkList服务

病人信息一经录入,其他工作站可直接从PACS系统主数据库中自动调用,无需重新手动录入;具有WorkList服务的医疗影像设备可直接由服务器提取相关病人基本信息列表,不具备WorkList功能影像设备通过医疗影像设备操作台输入病人信息资料或通过分诊台提取登记信息。

(三) 影像获取

对于标准 DICOM 设备,采集工作站可在检查完成后或检查过程中自动 ( 或手动 ) 将影像转发至PACS主服务器。

(四) 非DICOM转换

对于非DICOM设备,采集工作站可使用MiVideo DICOM网关收到登记信息后,在检查过程中进行影像采集,采集的影像自动(或由设备操作技师手动转发)转发至PACS主服务器。

(五) 图像调阅

患者在检查室完成影像检查后,医师可通过阅片室的网络进行影像调阅、浏览及处理,并可进行胶片打印输出后交付患者。

需要调阅影像时PACS系统自动按照后台设定路径从主服务器磁盘阵列或与之连接的前置服务器中调用。

在图像显示界面,医师一般可以进行一些测量长度、角度、面积等图像后处理,在主流PACS中,除了测量功能外,都会提供缩放、移动、镜像、反相、旋转、滤波、锐化、伪彩、播放、窗宽窗位调节等图像后处理功能。

(六) 报告编辑

患者完成影像检查后由专业人员对影像质量进行评审,并进行质量分析。完成质量评审控制后的影像,诊断医生可进行影像诊断报告编辑,并根据诊断医师权限,分别进行初诊报告、报告审核工作。在书写报告过程中,可使用诊断常用词语模版,以减少医生键盘输入工作量。诊断报告审核过程中可对修改内容进行修改痕迹保留、可获得临床诊断、详细病史、历史诊断等信息、可将报告存储为典型病例供其它类似诊断使用,供整个科室内学习提高使用。

审核完成的报告通过打印机进行输出后由医师签字后提交,同时诊断报告上传至主服务器存储备份。打印完成后的报告不能再进行修改,但可以只读方式调阅参考。

6架构数据

存储技术架构

PACS有别于HIS、LIS等其它医学信息系统的最重要一点就是:海量数据存储。合理设计PACS的数据存储结构,是成功建设PACS的关键。一个大型的医院拥有大批现代化的大型医疗影像设备,每天影像检查产生的数据量多达4个GB左右(未压缩的原始数据),一年数据总量多约(1200GB)。而随着医院的业务飞速发展和新的影像设备的引进,这一数据量还可能进一步增长。此外,如何提高在线数据随机存取的效率也是一个非常关键的问题。

基于这一原因,现有的PACS医疗影像信息系统提供商多采用分级存储(HSM)的策略,将PACS存储分成在线存储和离线存储两级结构。用两种不同性能的存储介质来分别完成高容量和高效率的要求,低速超大容量存储设备(离线存储服务器)用作永久存储;高速存储设备(SAN)用作在线数据存储,确保在线数据的极高效存取。对于2年以上的历史数据保存在离线存储设备里,在线存储设备仅保存最近三年的数据。

文件格式

DICOM文件是指按照DICOM标准而存储的医学文件。

DICOM文件由多个数据集组成。数据集表现了现实世界信息对象的相关属性,如病人姓名、性别、身高和体重等。数据集由数据元素组成,数据元素包含进行编 码的信息对象属性的值,并由数据元素标签(Tag)唯一标识。数据元素具有三种结构,其中两种具有类型表示VR(是否出现由传输语法决定),差别在于其长 度的表达方式,另外一种不包括类型表示。类型表示指明了该数据元素中的数据是哪种类型,它是一个长度为2的字符串,例如一个数据元素的VR为FL,表示该数据元素中存储的数据类型为浮点型。所有数据元素都包含标签、值长度和数据值体。

标签是一个16位无符号整数对,按顺序排列包括组号和元素号。数据集中的数据元素应按数据元素标签号的递增顺序组织,且在一个数据集中最多出现一次。

值长度是一个16或32位(取决于显式VR或隐式VR)无符号整数,表明了准确的数据值的长度,按字节数目(为偶数)记录。此长度不包含数据元素标签、VR、值长度字段。

数据值体表明了数据元素的值,其长度为偶数字节,该字段的数据类型是由数据元素的VR所明确定义。数据元素字段由三个公共字段和一个可选字段组成。

数据结构

以现广东市场上的主流SUPER PACS系统为例。

目前SUPER PACS系统数据库共有36个表,按用途分为:公用表、数字胶片室专用表、放射专用表、超声专用表、远程专用表。其中起到关键性作用的是Patient、Study、Series、Image四个主表。

Patient表用于存放病人的基本信息,应用范围涉及到SUPER PACS的所有子系统;Study表用于存放病人的检查信息,应用范围涉及到SUPER PACS的所有子系统;Series表用于图象序列表的生成,应用范围涉及到SUPERPACSR DICOM放射系统;Image表用于保存系统图象记录。

相对来说,Uptime Tier认证在业内是认同度最高的标准。

UptimeInstitute成立于1993年,是全球公认的数据中心标准组织和第三方认证机构。下列两项标准是数据中心基础设施可用性、可靠性及运维管理服务能力认证的重要标准依据:《Data Center Site Infrastructure TierStandard: Topology》和《Data Center Site Infrastructure TierStandard: OperationalSustainability》

随着全球范围内的数据中心业务的发展,对数据中心的可靠性提出了越来越高的要求,高可靠性等级认证的取得,将给数据中心拥有者带来更多的机会。Uptime Tier等级认证基于以上两个标准,是数据中心业界最知名、权威的认证,在全球范围得到了高度的认可。Uptime Tier数据中心等级认证体系分为Tier I—Tier IV四个等级的最高等级,Tier IV最高。

Uptime Tier等级认证针对数据中心的电气参数、冗余、地板承载、电源、冷却装备,甚至造价等等都制定了标准。作为用户最为关心的无故障时间,我们可以看到最低级的Tier I平均每年有总和超过一天的故障时间,而最高等级的Tier IV只能允许平均每年48分钟故障时间。

XDC+旗下的GC-EB1、GC-EB2、GC-EC3三座数据中心都是按照最高等级Tier IV的标准建造,2016年4月13日、5月11日,Uptime小组专家先后两次来到数据中心指导建设期间的规划、设计、建造工作。为将来通过UptimeTier IV的认证做好准备。日前,已经要拿到设计认证了。

你说的五星级数据中心,是国内的标准。

根据国家《IDC业机房星级的划分与评定》GB2887-89规定了IDC业机房星级的划分条件。标准适用于正式营业的各种经济性质的IDC业机房。以星(★)的数量和颜色表示IDC业机房的等级,星级分为五个等级,即<b>一星级、二星级、三星级、四星级、五星级</b>(含钻石五星级),星级越高,表示IDC业机房的档次越高。其中,三星级及以下机房定义为低端机房,四星级定义为中端机房,五星级及以上定义为高端机房,另外,分别通过机房的建筑规模、基础建设规格、地理位置、采用的设备型号(进口/国产)以及机房所采用的带宽层级(核心层/骨干层/城域层)进行了划分,对符合条件的IDC机房,颁发国家认定证书。

但也有很多数据中心是自己给自己制定的规则判断,并没有通过Uptime Institute公司的权威认证,也没有拿到国际颁发的认定证书,就敢说自己过了T3/T4认证,拿了五星级,更有甚者,说自己的数据中心过了所谓的T3+,就是比T3的标准还要再高点,又不敢说自己是T4,毕竟T4是要全系的2N的配置,就有了所谓的T3 +,可是业界根本没有T3+这个说法啊,估计Uptime Institute公司内心也是挺懵逼的,我们只有uptime tier3 或者Uptime Tier4的标准,根本没有所谓T3+数据中心。

SO~以上~OVER~

[服务器术语]

磁盘阵列卡

磁盘阵列(Disk Array)是由一个硬盘控制器来控制多个硬盘的相互连接,使多个硬盘的读写同步,减少错误,增加效率和可靠度的技术。磁盘阵列卡则是实现这一技术的硬件产品,磁盘阵列卡拥有一个专门的处理器,还拥有专门的存贮器,用于高速缓冲数据。通过使用磁盘阵列卡,服务器对磁盘的操作就直接通过磁盘阵列卡来进行处理,因此不需要大量的CPU及系统内存资源,不会降低磁盘子系统的性能。磁盘阵列卡使用专用的处理单元来进行操作,它的性能要远远高于常规非阵列硬盘,并且更安全更稳定。

IA服务器

通常将采用Intel(英特尔)处理器的服务器称之为IA(Intel Architecture)架构服务器,又称CISC(Complex Instruction Set Computer复杂指令集)架构服务器,由于IA架构的服务器是基于PC的体系结构,所以又把IA架构的服务器称为PC服务器。如联想的万全系列服务器,HP公司的Netserver系列服务器等。

由于该架构服务器采用了开放式体系,以"小、巧、稳"为特点,凭借可靠的性能、低廉的价格,并且实现了工业标准化技术和得到国内外大量软硬件供应商的支持,在大批量生产的基础上,以其极高的性能价格比而在全球范围内,尤其在我国得到广泛的应用。在互联网和局域网内更多的完成文件服务、打印服务、通讯服务、WEB服务、电子邮件服务、数据库服务、应用服务等主要应用。

虽然IA构架服务器始于PC,但经过不断的发展,IA架构服务器已经远远超出了PC的概念,它在如下几个方面不同于PC。

在CPU处理能力方面

由于服务器要将其数据、硬件提供给网络共享,在运行网络应用程序时要处理大量的数据。因此要求CPU要有很强的处理能力。大多数IA架构的服务器采用多CPU对称处理技术,多颗CPU共同进行数据运算,大大地提高了服务器的计算能力,满足学校的教学、多媒体应用方面的需求。而普通电脑PC基本上都配置的是单颗CPU,所以PC在数据处理能力上比起服务器当然要差许多了。如果用PC充当服务器,在日常应用中就会经常发生死机、停滞或启动很慢等现象。

在I/O(输入输出)性能方面

在中小型企业或校园网络应用中,经常有许多的用户同时访问服务器,网络上存在着大量多媒体信息的传输,要求服务器的I/O(输入/输出)性能要强大。服务器上采用了SCSI卡、RAID卡、高速网卡、内存中继器等设备,大大提高了服务器I/O能力。因为PC是个人电脑,无需提供额外的网络服务,因此在PC上很少使用高性能的I/O技术,和服务器相比其I/O性能自然相差甚远。

在安全可靠性方面

由于服务器是网络中的核心设备,因此它必须具备高可靠性、安全性。服务器采用专用的ECC内存、RAID技术、热插拔技术、冗余电源(如下图所示)、冗余风扇等方法使服务器具备容错能力、安全保护能力。

中小企业选择服务器租用建站的细节

  互联网的高速发展使中小型企业如雨后春笋般快速发展,而中小型企业在进行网站建设时常用的是服务器租用,既节省了购买服务器的资金投资和搭建服务器的技术要求,并且有优质的服务器托管商进行维护,除此之外,用户还独享服务器的所有资源。因此,服务器租用是中小型企业建站的明智选择,那么面对鱼龙混杂的服务器租用市场,作为站长的我们该如何选择呢请看以下详细解答:

  对于服务器租用的选择主要有以下几点大的标准:

  首先、服务器安全不能忽视,最重要的是看他们是否有提供数据备份服务。

  其次、服务器租用的速度是第一要素,主要包含主机的运营访问速度和租用商处理问题的速度。

  然后、租用服务器选择线路也要有所注意,这主要是解决南北访问问题,常用的线路有单线线路、双线线路和多线线路,具体的线路选择要根据自己的情况界定。

  最后、增值服务一定要看住,好的增值服务不仅能解决一些随时出现的技术问题,还有利于长远发展。

  除了以上四点之外,中小企业在进行租用服务器业务时还用注意一下几点小细节:

  1、国内主机付款后24小时内开通;国外主机付款后48小时内开通;

  2、每月提前5天支付下月费用,如到期未到帐将被停机

  3、7×24小时技术支持,免费重启,简单故障免费检测;

  4、个人租用国内主机,签订合同时需要身份证复印件,严禁赌博,色情,诈骗,反动等非法内容,如发现,报市公安局网监处,并立即停机不退款

  5、按月付款的用户,需交一个月的压金,租满12个月后退还压金,中途停租的,压金作违约金不退还。

  6、硬件升级费用为一次性费用,取消租约,款项不退;

  7、租用期内,如发生硬件故障,24小时内免费更换

  8、开通一周内需签好合同,否则停机后等合同到达才通开机

  另外还需要注意一点,根据划分的不一样,有的将服务器租用划分成两种形式,整机租用和空间租用。具体哪一种根据企业需求,如果对网站空间、独享性、带宽以及支持特殊软件的可以选择服务器租用;反之可以选择空间租用。

  无论是选择哪一种方式,选择正规服务器租用商是关键,服务提供商要有自己的自主机房和产权,拥有双线服务器,拥有大型的机房三座,顺应时代发展和客户需求,在双线服务器、服务器托管、服务器租用、虚拟主机、vps主机租用等方面具备多项优势。机房除了配置先进的设备之外,并购买金盾20G硬防集群做安全防护功能。是行业内可靠性,稳定性强的一流电信服务器租用、电信服务器托管机房。

主频

编辑

主频也叫时钟频率,单位是MHz(或GHz),用来表示CPU的运算、处理数据的速度。CPU的主频=外频×倍频系数。很多人认为主频就决定着CPU的运行速度,这不仅是个片面的,而且对于服务器来讲,这个认识也出现了偏差。至今,没有一条确定的公式能够实现主频和实际的运算速度两者之间的数值关系,即使是两大处理器厂家Intel英特尔和AMD,在这点上也存在着很大的争议,从Intel的产品的发展趋势,可以看出Intel很注重加强自身主频的发展。像其他的处理器厂家,有人曾经拿过一块1G的全美达处理器来做比较,它的运行效率相当于2G的Intel处理器。

所以,CPU的主频与CPU实际的运算能力是没有直接关系的,主频表示在CPU内数字脉冲信号震荡的速度。在Intel的处理器产品中,也可以看到这样的例子:1 GHz Itanium芯片能够表现得差不多跟266 GHz至强( Xeon)/Opteron一样快,或是15 GHz Itanium 2大约跟4 GHz Xeon/Opteron一样快。CPU的运算速度还要看CPU的流水线、总线等等各方面的性能指标[1] 。

主频和实际的运算速度是有关的,只能说主频仅仅是CPU性能表现的一个方面,而不代表CPU的整体性能。

外频

编辑

外频是CPU的基准频率,单位是MHz。CPU的外频决定着整块主板的运行速度。通俗地说,在台式机中,所说的超频,都是超CPU的外频(当然一般情况下,CPU的倍频都是被锁住的)相信这点是很好理解的。但对于服务器CPU来讲,超频是绝对不允许的。前面说到CPU决定着主板的运行速度,两者是同步运行的,如果把服务器CPU超频了,改变了外频,会产生异步运行,(台式机很多主板都支持异步运行)这样会造成整个服务器系统的不稳定。

绝大部分电脑系统中外频与主板前端总线不是同步速度的,而外频与前端总线(FSB)频率又很容易被混为一谈,下面的前端总线介绍谈谈两者的区别。

前端总线频率

编辑

  前端总线(FSB)频率(即总线频率)是直接影响CPU与内存直接数据交换速度。有一条公式可以计算,即数据带宽=(总线频率×数据位宽)/8,数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率。比方,支持64位的至强Nocona,前端总线是800MHz,按照公式,它的数据传输最大带宽是64GB/秒。

外频与前端总线(FSB)频率的区别:前端总线的速度指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一亿次;而100MHz前端总线指的是每秒钟CPU可接受的数据传输量是100MHz×64bit÷8bit/Byte=800MB/s。

其实“HyperTransport”构架的出现,让这种实际意义上的前端总线(FSB)频率发生了变化。IA-32架构必须有三大重要的构件:内存控制器Hub (MCH) ,I/O控制器Hub和PCI Hub,像Intel很典型的芯片组 Intel 7501、Intel7505芯片组,为双至强处理器量身定做的,它们所包含的MCH为CPU提供了频率为533MHz的前端总线,配合DDR内存,前端总线带宽可达到43GB/秒。但随着处理器性能不断提高同时给系统架构带来了很多问题。而“HyperTransport”构架不但解决了问题,而且更有效地提高了总线带宽,比方AMD Opteron处理器,灵活的HyperTransport I/O总线体系结构让它整合了内存控制器,使处理器不通过系统总线传给芯片组而直接和内存交换数据。这样的话,前端总线(FSB)频率在AMD Opteron处理器就不知道从何谈起了。

位和字长

编辑

位:在数字电路和电脑技术中采用二进制,代码只有“0”和“1”,其中无论是 “0”或是“1”在CPU中都是 一“位”。

字长:电脑技术中对CPU在单位时间内(同一时间)能一次处理的二进制数的位数叫字长。所以能处理字长为8位数据的CPU通常就叫8位的CPU。同理32位的CPU就能在单位时间内处理字长为32位的二进制数据。字节和字长的区别:由于常用的英文字符用8位二进制就可以表示,所以通常就将8位称为一个字节。字长的长度是不固定的,对于不同的CPU、字长的长度也不一样。8位的CPU一次只能处理一个字节,而32位的CPU一次就能处理4个字节,同理字长为64位的CPU一次可以处理8个字节。

倍频系数

编辑

倍频系数是指CPU主频与外频之间的相对比例关系。在相同的外频下,倍频越高CPU的频率也越高。但实际上,在相同外频的前提下,高倍频的CPU本身意义并不大。这是因为CPU与系统之间数据传输速度是有限的,一味追求高倍频而得到高主频的CPU就会出现明显的“瓶颈”效应—CPU从系统中得到数据的极限速度不能够满足CPU运算的速度。一般除了工程样版的Intel的CPU都是锁了倍频的,少量的如Inter 酷睿2 核心的奔腾双核E6500K和一些至尊版的CPU不锁倍频,而AMD之前都没有锁,AMD推出了黑盒版CPU(即不锁倍频版本,用户可以自由调节倍频,调节倍频的超频方式比调节外频稳定得多)。

缓存

编辑

缓存大小也是CPU的重要指标之一,而且缓存的结构和大小对CPU速度的影响非常大,CPU内缓存的运行频率极高,一般是和处理器同频运作,工作效率远远大于系统内存和硬盘。实际工作时,CPU往往需要重复读取同样的数据块,而缓存容量的增大,可以大幅度提升CPU内部读取数据的命中率,而不用再到内存或者硬盘上寻找,以此提高系统性能。但是由于CPU芯片面积和成本的因素来考虑,缓存都很小。

L1 Cache(一级缓存)是CPU第一层高速缓存,分为数据缓存和指令缓存。内置的L1高速缓存的容量和结构对CPU的性能影响较大,不过高速缓冲存储器均由静态RAM组成,结构较复杂,在CPU管芯面积不能太大的情况下,L1级高速缓存的容量不可能做得太大。一般服务器CPU的L1缓存的容量通常在32—256KB。

L2 Cache(二级缓存)是CPU的第二层高速缓存,分内部和外部两种芯片。内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半。L2高速缓存容量也会影响CPU的性能,原则是越大越好,以前家庭用CPU容量最大的是512KB,笔记本电脑中也可以达到2M,而服务器和工作站上用CPU的L2高速缓存更高,可以达到8M以上。

L3 Cache(三级缓存),分为两种,外置、内置。而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。降低内存延迟和提升大数据量计算能力对游戏都很有帮助。而在服务器领域增加L3缓存在性能方面仍然有显著的提升。比方具有较大L3缓存的配置利用物理内存会更有效,故它比较慢的磁盘I/O子系统可以处理更多的数据请求。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。

其实最早的L3缓存被应用在AMD发布的K6-III处理器上,当时的L3缓存受限于制造工艺,并没有被集成进芯片内部,而是集成在主板上。在只能够和系统总线频率同步的L3缓存同主内存其实差不了多少。后来使用L3缓存的是英特尔为服务器市场所推出的Itanium处理器。接着就是P4EE和至强MP。Intel还打算推出一款9MB L3缓存的Itanium2处理器,和以后24MB L3缓存的双核心Itanium2处理器。

但基本上L3缓存对处理器的性能提高显得不是很重要,比方配备1MB L3缓存的Xeon MP处理器却仍然不是Opteron的对手,由此可见前端总线的增加,要比缓存增加带来更有效的性能提升。

cpu指令集

编辑

CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)、SEE3、SSE4系列和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。通常会把CPU的扩展指令集称为”CPU的指令集”。SSE3指令集也是目前规模最小的指令集,此前MMX包含有57条命令,SSE包含有50条命令,SSE2包含有144条命令,SSE3包含有13条命令。目前SSE4也是最先进的指令集,英特尔酷睿系列处理器已经支持SSE4指令集,AMD会在未来双核心处理器当中加入对SSE4指令集的支持,全美达的处理器也将支持这一指令集。

内核和电压

编辑

从586CPU开始,CPU的工作电压分为内核电压和I/O电压两种,通常CPU的核心电压小于等于I/O电压。其中内核电压的大小是根据CPU的生产工艺而定,一般制作工艺越小,内核工作电压越低;I/O电压一般都在16~5V。低电压能解决耗电过大和发热过高的问题。

制造工艺

编辑

  制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。主要的180nm、130nm、90nm、65nm、45纳米。

指令集

编辑

CISC指令集

CISC指令集,也称为复杂指令集,英文名是CISC,(Complex Instruction Set Computer的缩写)。在CISC微处理器中,程序的各条指令是按顺序串行执行的,每条指令中的各个操作也是按顺序串行执行的。顺序执行的优点是控制简单,但计算机各部分的利用率不高,执行速度慢。其实它是英特尔生产的x86系列(也就是IA-32架构)CPU及其兼容CPU,如AMD、VIA的。即使是新起的X86-64(也被成AMD64)都是属于CISC的范畴。

要知道什么是指令集还要从当今的X86架构的CPU说起。X86指令集是Intel为其第一块16位CPU(i8086)专门开发的,IBM1981年推出的世界第一台PC机中的CPU—i8088(i8086简化版)使用的也是X86指令,同时电脑中为提高浮点数据处理能力而增加了X87芯片,以后就将X86指令集和X87指令集统称为X86指令集。

虽然随着CPU技术的不断发展,Intel陆续研制出更新型的i80386、i80486直到过去的PII至强、PIII至强、Pentium 3,Pentium 4系列,最后到今天的酷睿2系列、至强(不包括至强Nocona),但为了保证电脑能继续运行以往开发的各类应用程序以保护和继承丰富的软件资源,所以Intel公司所生产的所有CPU仍然继续使用X86指令集,所以它的CPU仍属于X86系列。由于Intel X86系列及其兼容CPU(如AMD Athlon MP、)都使用X86指令集,所以就形成了今天庞大的X86系列及兼容CPU阵容。x86CPU目前主要有intel的服务器CPU和AMD的服务器CPU两类。

RISC指令集

RISC是英文“Reduced Instruction Set Computing ” 的缩写,中文意思是“精简指令集”。它是在CISC指令系统基础上发展起来的,有人对CISC机进行测试表明,各种指令的使用频度相当悬殊,最常使用的是一些比较简单的指令,它们仅占指令总数的20%,但在程序中出现的频度却占80%。复杂的指令系统必然增加微处理器的复杂性,使处理器的研制时间长,成本高。并且复杂指令需要复杂的操作,必然会降低计算机的速度。基于上述原因,20世纪80年代RISC型CPU诞生了,相对于CISC型CPU ,RISC型CPU不仅精简了指令系统,还采用了一种叫做“超标量和超流水线结构”,大大增加了并行处理能力。RISC指令集是高性能CPU的发展方向。它与传统的CISC(复杂指令集)相对。相比而言,RISC的指令格式统一,种类比较少,寻址方式也比复杂指令集少。当然处理速度就提高很多了。在中高档服务器中普遍采用这一指令系统的CPU,特别是高档服务器全都采用RISC指令系统的CPU。RISC指令系统更加适合高档服务器的操作系统UNIX,Linux也属于类似UNIX的操作系统。RISC型CPU与Intel和AMD的CPU在软件和硬件上都不兼容。

在中高档服务器中采用RISC指令的CPU主要有以下几类:PowerPC处理器、SPARC处理器、PA-RISC处理器、MIPS处理器、Alpha处理器。

IA-64

EPIC(Explicitly Parallel Instruction Computers,精确并行指令计算机)是否是RISC和CISC体系的继承者的争论已经有很多,单以EPIC体系来说,它更像Intel的处理器迈向RISC体系的重要步骤。从理论上说,EPIC体系设计的CPU,在相同的主机配置下,处理Windows的应用软件比基于Unix下的应用软件要好得多。

Intel采用EPIC技术的服务器CPU是安腾Itanium(开发代号即Merced)。它是64位处理器,也是IA-64系列中的第一款。微软也已开发了代号为Win64的操作系统,在软件上加以支持。在Intel采用了X86指令集之后,它又转而寻求更先进的64-bit微处理器,Intel这样做的原因是,它们想摆脱容量巨大的x86架构,从而引入精力充沛而又功能强大的指令集,于是采用EPIC指令集的IA-64架构便诞生了。IA-64 在很多方面来说,都比x86有了长足的进步。突破了传统IA32架构的许多限制,在数据的处理能力,系统的稳定性、安全性、可用性、可观理性等方面获得了突破性的提高。

IA-64微处理器最大的缺陷是它们缺乏与x86的兼容,而Intel为了IA-64处理器能够更好地运行两个朝代的软件,它在IA-64处理器上(Itanium、Itanium2 ……)引入了x86-to-IA-64的解码器,这样就能够把x86指令翻译为IA-64指令。这个解码器并不是最有效率的解码器,也不是运行x86代码的最好途径(最好的途径是直接在x86处理器上运行x86代码),因此Itanium 和Itanium2在运行x86应用程序时候的性能非常糟糕。这也成为X86-64产生的根本原因。

X86-64 (AMD64 / EM64T)

AMD公司设计,可以在同一时间内处理64位的整数运算,并兼容于X86-32架构。其中支持64位逻辑定址,同时提供转换为32位定址选项;但数据操作指令默认为32位和8位,提供转换成64位和16位的选项;支持常规用途寄存器,如果是32位运算操作,就要将结果扩展成完整的64位。这样,指令中有“直接执行”和“转换执行”的区别,其指令字段是8位或32位,可以避免字段过长。

x86-64(也叫AMD64)的产生也并非空穴来风,x86处理器的32bit寻址空间限制在4GB内存,而IA-64的处理器又不能兼容x86。AMD充分考虑顾客的需求,加强x86指令集的功能,使这套指令集可同时支持64位的运算模式,因此AMD把它们的结构称之为x86-64。在技术上AMD在x86-64架构中为了进行64位运算,AMD为其引入了新增了R8-R15通用寄存器作为原有X86处理器寄存器的扩充,但在而在32位环境下并不完全使用到这些寄存器。原来的寄存器诸如EAX、EBX也由32位扩张至64位。在SSE单元中新加入了8个新寄存器以提供对SSE2的支持。寄存器数量的增加将带来性能的提升。与此同时,为了同时支持32和64位代码及寄存器,x86-64架构允许处理器工作在以下两种模式:Long Mode(长模式)和Legacy Mode(遗传模式),Long模式又分为两种子模式(64bit模式和Compatibility mode兼容模式)。该标准已经被引进在AMD服务器处理器中的Opteron处理器

支持64位的EM64T技术,再还没被正式命为EM64T之前是IA32E,这是英特尔64位扩展技术的名字,用来区别X86指令集。Intel的EM64T支持64位sub-mode,和AMD的X86-64技术类似,采用64位的线性平面寻址,加入8个新的通用寄存器(GPRs),还增加8个寄存器支持SSE指令。与AMD相类似,Intel的64位技术将兼容IA32和IA32E,只有在运行64位操作系统下的时候,才将会采用IA32E。IA32E将由2个sub-mode组成:64位sub-mode和32位sub-mode,同AMD64一样是向下兼容的。Intel的EM64T将完全兼容AMD的X86-64技术。Nocona处理器已经加入了一些64位技术,Intel的Pentium 4E处理器也支持64位技术。

应该说,这两者都是兼容x86指令集的64位微处理器架构,但EM64T与AMD64还是有一些不一样的地方,AMD64处理器中的NX位在Intel的处理器中将没有提供。

超标量

编辑

在解释超流水线与超标量前,先了解流水线(pipeline)。流水线是Intel首次在486芯片中开始使用的。流水线的工作方式就象工业生产上的装配流水线。在CPU中由5—6个不同功能的电路单元组成一条指令处理流水线,然后将一条X86指令分成5—6步后再由这些电路单元分别执行,这样就能实现在一个CPU时钟周期完成一条指令,因此提高CPU的运算速度。经典奔腾每条整数流水线都分为四级流水,即指令预取、译码、执行、写回结果,浮点流水又分为八级流水。

超标量是通过内置多条流水线来同时执行多个处理器,其实质是以空间换取时间。而超流水线是通过细化流水、提高主频,使得在一个机器周期内完成一个甚至多个操作,其实质是以时间换取空间。例如Pentium 4的流水线就长达20级。将流水线设计的步(级)越长,其完成一条指令的速度越快,因此才能适应工作主频更高的CPU。但是流水线过长也带来了一定副作用,很可能会出现主频较高的CPU实际运算速度较低的现象,Intel的奔腾4就出现了这种情况,虽然它的主频可以高达14G以上,但其运算性能却远远比不上AMD 12G的速龙甚至奔腾III。

封装形式

编辑

CPU封装是采用特定的材料将CPU芯片或CPU模块固化在其中以防损坏的保护措施,一般必须在封装后CPU才能交付用户使用。CPU的封装方式取决于CPU安装形式和器件集成设计,从大的分类来看通常采用Socket插座进行安装的CPU使用PGA(栅格阵列)方式封装,而采用Slot x槽安装的CPU则全部采用SEC(单边接插盒)的形式封装。还有PLGA(Plastic Land Grid Array)、OLGA(Organic Land Grid Array)等封装技术。由于市场竞争日益激烈,CPU封装技术的发展方向以节约成本为主。

多线程

编辑

同时多线程Simultaneous multithreading,简称SMT。SMT可通过复制处理器上的结构状态,让同一个处理器上的多个线程同步执行并共享处理器的执行资源,可最大限度地实现宽发射、乱序的超标量处理,提高处理器运算部件的利用率,缓和由于数据相关或Cache未命中带来的访问内存延时。当没有多个线程可用时,SMT处理器几乎和传统的宽发射超标量处理器一样。SMT最具吸引力的是只需小规模改变处理器核心的设计,几乎不用增加额外的成本就可以显著地提升效能。多线程技术则可以为高速的运算核心准备更多的待处理数据,减少运算核心的闲置时间。这对于桌面低端系统来说无疑十分具有吸引力。Intel从306GHz Pentium 4开始,所有处理器都将支持SMT技术。

多核心

编辑

多核心,也指单芯片多处理器(Chip multiprocessors,简称CMP)。CMP是由美国斯坦福大学提出的,其思想是将大规模并行处理器中的SMP(对称多处理器)集成到同一芯片内,各个处理器并行执行不同的进程。与CMP比较, SMT处理器结构的灵活性比较突出。但是,当半导体工艺进入018微米以后,线延时已经超过了门延迟,要求微处理器的设计通过划分许多规模更小、局部性更好的基本单元结构来进行。相比之下,由于CMP结构已经被划分成多个处理器核来设计,每个核都比较简单,有利于优化设计,因此更有发展前途。IBM 的Power 4芯片和Sun的 MAJC5200芯片都采用了CMP结构。多核处理器可以在处理器内部共享缓存,提高缓存利用率,同时简化多处理器系统设计的复杂度。

2005年下半年,Intel和AMD的新型处理器也将融入CMP结构。新安腾处理器开发代码为Montecito,采用双核心设计,拥有最少18MB片内缓存,采取90nm工艺制造,它的设计绝对称得上是对当今芯片业的挑战。它的每个单独的核心都拥有独立的L1,L2和L3 cache,包含大约10亿支晶体管。

SMP

编辑

SMP(Symmetric Multi-Processing),对称多处理结构的简称,是指在一个计算机上汇集了一组处理器(多CPU),各CPU之间共享内存子系统以及总线结构。在这种技术的支持下,一个服务器系统可以同时运行多个处理器,并共享内存和其他的主机资源。像双至强,也就是所说的二路,这是在对称处理器系统中最常见的一种(至强MP可以支持到四路,AMD Opteron可以支持1-8路)。也有少数是16路的。但是一般来讲,SMP结构的机器可扩展性较差,很难做到100个以上尽可能保持相同的产品序列编号,因为两个生产批次的CPU作为双处理器运行的时候,有可能会发生一颗CPU负担过高,而另一颗负担很少的情况,无法发挥最大性能,更糟糕的是可能导致死机。

NUMA技术

编辑

NUMA即非一致访问分布共享存储技术,它是由若干通过高速专用网络连接起来的独立节点构成的系统,各个节点可以是单个的CPU或是SMP系统。在NUMA中,Cache 的一致性有多种解决方案,需要操作系统和特殊软件的支持。图2中是Sequent公司NUMA系统的例子。这里有3个SMP模块用高速专用网络联起来,组成一个节点,每个节点可以有12个CPU。像Sequent的系统最多可以达到64个CPU甚至256个CPU。显然,这是在SMP的基础上,再用NUMA的技术加以扩展,是这两种技术的结合。

乱序执行技术

编辑

乱序执行(out-of-orderexecution),是指CPU允许将多条指令不按程序规定的顺序分开发送给各相应电路单元处理的技术。这样将根据个电路单元的状态和各指令能否提前执行的具体情况分析后,将能提前执行的指令立即发送给相应电路单元执行,在这期间不按规定顺序执行指令,然后由重新排列单元将各执行单元结果按指令顺序重新排列。采用乱序执行技术的目的是为了使CPU内部电路满负荷运转并相应提高了CPU的运行程序的速度。分枝技术:(branch)指令进行运算时需要等待结果,一般无条件分枝只需要按指令顺序执行,而条件分枝必须根据处理后的结果,再决定是否按原先顺序进行。

内存控制器

许多应用程序拥有更为复杂的读取模式(几乎是随机地,特别是当cache hit不可预测的时候),并且没有有效地利用带宽。典型的这类应用程序就是业务处理软件,即使拥有如乱序执行(out of order execution)这样的CPU特性,也会受内存延迟的限制。这样CPU必须得等到运算所需数据被除数装载完成才能执行指令(无论这些数据来自CPU cache还是主内存系统)。当前低段系统的内存延迟大约是120-150ns,而CPU速度则达到了3GHz以上,一次单独的内存请求可能会浪费200-300次CPU循环。即使在缓存命中率(cache hit rate)达到99%的情况下,CPU也可能会花50%的时间来等待内存请求的结束- 比如因为内存延迟的缘是035微米,最新的PII可以达到028微米,在将来的CPU制造工艺可以达到018微米。

1U和2U,就是服务器高度的区别,简单理解就是1U薄一点,和普通的24口交换机差不多大,2U的厚一点,总的区别就是,1U服务器,在机柜中能放很多台,但要求高,散热有点差,升级的话有点困难,挑配件,2U就要少放点,维护要好维护点

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 等级保护2.0国家标准

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情