如何实现同一OpenStack集群同时支持多种虚拟化技术

如何实现同一OpenStack集群同时支持多种虚拟化技术,第1张

OpenStack中国社区编者按:通过多年的发展,VMWare在虚拟化市场处于领军地位,很多企业部署了VMWare虚拟化方案,随着OpenStack云计算平台的快速崛起,很多企业都面临一个问题:能否、以及如何整合VMWare和OpenStack来最佳化已有的投资和对接未来的趋势?来自RackSpace的Kenneth Hui从不同角度分享了他的思考,而且给出了VMware vSphere与OpenStack整合的推荐方案。

在过去12个月中,“OpenStack 目前已经在风口浪尖之上”�0�2这句话我们已经从运营商或分析师口中听到了可事实上,很多公司仍在评估OpenStack并且试图确定如何将OpenStack与公司的IT策略整合。这也符合云计算等前沿技术的发展规律,个人的观点是:OpenStack正在经历由技术创新、实践向主流应用普及的发展过程。

我也和很多在早期就开始评估或在小型项目中应用OpenStack的公司谈过,他们的大多数如今还是VMware的忠实客户,并且运行的也都是传统应用,他们非常明白OpenStack不可忽视,但是他们很难真正理解OpenStack的真正价值,也很难理解它是如何影响他们的vSphere环境的。我们谈话中最常出现的问题如下:

OpenStack作为一个开源的虚拟机管理器,它能否替代我当前的ESXi 服务器么?

在OpenStack和vSphere之间,有没有一些特色功能的差异?如高可用性、vMotion,分布式资源调度等。

我们能否或者应否将OpenStack与vSphere混合使用?

有没有一些原因让我们同时运行OpenStack和vSphere?

我对于这些问题的答案通常从三个方面来说明问题的答案:

传统应用和云应用的区别

传统应用型架构与云应用消费型架构的不同

对使用OpenStack与vSphere过程中的一些选项进行具体说明

虚拟化和云计算

最开始对于我个人来说,当我与客户谈起vSphere和OpenStack时,重点要强调的就是传统应用架构与云计算架构的设计理念的不同。在这里,我想把重点放在基于虚拟化技术的传统应用架构上来,如ESX虚拟机管理器和vSphere,他们作为虚拟化技术的突出代表,可以在少数大型服务器之上虚拟化出很多小型服务器。这种工作机制在应用是单一架构时表现得相当不错,如Oracle或者Microsoft Exchange。今天,每一个这种传统类型应用都包裹在一个单独的虚拟机之中,只能通过ESXi虚拟机管理器扩展应用规模。在传统架构下,高可用的实现可以通过集群应用来实现,比如Oracle的Real Application Clusters;然而这同时也是非常复杂且昂贵的,并且大多数应用不支持集群式部署。大多数VMware用户则会选择将应用服务器作为虚拟机运行在vSphere集群之上,依赖于vSphere的高可用性和vMotion来提供基础架构的恢复和冗余。诚然这些解决办法都可以实现高可用,但是他们都需要特定的部署架构,如依赖共享存储等,这也一定程度地给架构的扩展性带来挑战。

云计算,较比传统虚拟化技术而言,更加适合不同类型的应用,如MongoDB和Hadoop。 像OpenStack这样的云平台,在最初就被设计成适应分布式应用的架构,应用的组件在OpenStack平台中跨越了多个物理或虚拟设备。这些类型的应用也被设计成随着规模的增加,可以通过添加应用实例或者重新平衡应用实例间的负载;另一个云计算平台背后的设计原则是,鉴于应用的分布式特性,应用弹性控制权是掌握在应用自身手里而不在底层基础架构平台手中。OpenStack这种设计常常被VMware领域的同学们所误解为是它的确定或者不成熟的地方,“缺乏”如vSphere 高可用这种功能被看作是OpenStack还没有在生产级领域准备好。

但是,这是传统应用架构与云计算架构的设计理念不同所带来的误解。在云上运行的分布式应用(业内称此类型应用为“原生云应用”)已经降低了应用部署花费和可用性的门槛。通过将应用的弹性化需求转移,云平台不再需要共享所有资源的架构如应用共享存储。这种改变促进了用户对构建高可扩展性云平台的需求,不单单是基础架构层,架构需要设计成包含多层以更加适合下一代大规模应用的部署。

消费模式

一旦客户了解了以上两种架构设计原则的不同,我们就可以开始讨论不同架构的消费模式问题了。这里也将区分这两种消费模式的不同。比如:

除了在我们自己的数据中心上运行裸机服务器和虚拟化技术,公司可以应用主机托管产品,如Rackspace的专用vCenter产品或在VMware的vCloud混合云产品。这两者都是建立在VMware技术基础之上,为用户提供虚拟化解决方案。两者的设计架构都较适用于那些不需要块数部署的、不依赖虚拟化基础设施提供弹性和可扩展性的传统型应用。

相比之下,云计算型架构的消费模式通常开始于公有云的使用,将来向私有云部署上扩展。在这里,我们关注的重点仍是通过常用商用硬件能够实现快速资源供给、高可扩展、适应下一代应用的云架构。

vSphere与OpenStack整合

到目前为止我们应该很清楚了,VMware vSphere与OpenStack两者任何一个都无法满足多种应用类型。Rackspace就有一些用户,由于他们应用的分布式本质,用户已经将应用放到基于OpenStack的共有云或私有云之上了。相反,大多数用户都运营着传统型应用,这些应用通常运行在裸机或在虚拟化架构之上,并且它们并不那么容易地去迁移到如OpenStack这样的云架构之上。对于这些用户,共存、非替代可能是应用OpenStack的正确之道。这条混合之路通常伴随三种解决方案,如下:

孤岛型解决方案

孤岛型架构是用户选择最多的。通常,这种方案涉及到保存在vSphere上的现有遗留传统应用和在独立OpenStack云上建立新应用的抉择。虽然这是最最无痛的融合OpenStack的解决方案,但是它保持了IT基础架构的孤岛劣势,并且增加了运维和复杂性,通常我们需要两个独立团队去维护这两套独立系统,这也会带来额外的开销。

多虚拟机管理器集成解决方案

另一种解决方案是基于VMware已完成的工作将vSphere与OpenStack相集成。这种方案类似于孤岛型解决方案,传统型应用仍然运行在vSphere之上,而新的下一代应用则运行在新的虚拟机管理器之上,如KVM或在XEN。在这种情况下,OpenStack成为多虚拟机管理器的控制平台,它将允许新创建的应用被分配到最适合他们的虚拟机管理平台之上。这种架构的主要缺点是vSphere与OpenStack整合这种方案非常新,这带来了很多问题,比如两平台的整合边缘过于粗糙仍需改进,比如平台的资源如何调度等问题仍然需要解决。

Rackspace的混合实践方案

上图是Rackspace给出的OpenStack与vSphere混合解决方案。在分离管理平台这方面,这种架构非常像孤岛型架构,此外,它还保证不同类型应用可以被部署到合适的虚拟机管理平台之上。

这里的目标是保持架构的独立,整合两个环境的运维团队使他们可以共同工作来打造一个集成的平台。这其中的一个关键是应用技术,如Rackspace的RackConnect把这些基础架构连接起来,使每个架构都可以与其他架构协同工作。这里举一个例子,一个应用运行在基于OpenStack的Rackspace私有云之上,通过RackConnect与运行在vSphere集群上的Oracle数据库相连接。

 在VMware环境下使用iSCSI存储的最佳实践

  一旦iSCSI磁盘配置好了,虚拟机(VMs)就可以使用它们了。以下列出的最佳实践可以帮助你在VMware环境中的iSCSI数据存储获得最大的性能和可靠性。

  iSCSI存储的性能高度依赖于网络的健康和使用。为了达到最佳效果,你应该总是通过专用的网络将iSCSI的流量分离出来。

  你只能在一个ESX服务器主机上配置一个软件启动器。配置为iSCSI提供连接的vSwitch时,使用多个物理网卡来提供冗余。确保你将VMkernel(虚拟机内核)接口与vSwitch的网卡绑定在一起,这样多路径配置才正确。

  确保你在iSCSI vSwitch上使用的网卡连接到不同的网络交换机,以消除单点故障。

  vSphere支持使用存储协议的巨型帧,但它只对那些拥有非常大I/O的特定工作量有好处。此外,你的后端存储必须能够处理RAID组中拥有大量主轴(大于15)增加的吞吐量,否则你也看不到任何好处。如果你的I/O小并且你的存储是主轴方向的(spindle-bound),使用巨型帧你将看到你的性能很少或者没有提高在某些情况下。巨型帧实际上会降低性能,所以你应该做一个评估测试,对比一下启用巨型帧前后的效果,看看巨型帧是否有效。每个端到端组建必须支持巨型帧,包括物理网卡和网络交换机,vSwitch,VMkernel端口和iSCSI目标配置。如果任何一个组件不适合巨型帧配置,它们将无法工作。

  为你的虚拟机磁盘控制器使用新的Paravirtual SCS(PVSCSI)适配器,因为在大多数情况下它提供的最大吞吐量和性能超过了标准的LSI逻辑和BusLogic适配器。对于非常小的I/O工作量来说,LSI逻辑适配器的效果最好。

  为了实现最好的性能需要设置先进的多路径,选择iSCSI存储容量属性并点击管理途径。如果有的话,你可以使用本机VMware多路径或第三方多路径插件来配置路径选择策略。当使用软件启动器(software initiators)时,在一个vSwitch上创建两个VMkernel接口;指定一个物理网卡为活跃的,另一个为未使用的;使用 esxcli命令将一个VMkernel端口绑定到第一个网卡,将第二个端口绑定到第二个网卡。使用循环算法代替顺序算法或者最近最常使用(MRU)算法,将得到更好的性能。如果你的虚拟机上使用了微软集群服务器(Microsoft Cluster Server),避免使用循环(Round Robin)算法。

首先你想装成什么样子的架构,总结你的描述,现在你有一台电脑,安装2008这个是32位还是64位?你的电脑是多少内存的?

如果一台电脑想装vSphere架构的话,需要配置一台至少8G内存的服务器,要准备四个vmware软件,

1Vmware workstation 100 或者90也行啦,

2 vSphere ESXi 安装盘或者ISO ,

3vCenter 安装盘或者ISO,

4vSphere Clinet 安装EXE文件,

注意后边三个要保证版本一致,小版本也要一致。

windows 软件 两种,

12008 Server 64位的,

232位的随意,win7也行 2008 也行。

搭建流程。在你安装好的2008上安装Vmware workstation 100 注册,创建两个虚拟机

每台,4G内存,Cpu 2核以上。

在两台虚拟机上 安装ESXi 配置IP地址等,详见我之前的回答

http://zhidaobaiducom/question/499500043htmloldq=1

配置好了后在你外边的2008上安装vSphere Client 使用Root接入其中一台服务器,在这一台服务器上再创建一个虚拟机,名叫vCenter。向上边安装64位的2008,安装完成后在安装vCenter盘里的vCenter Server 要注意保证这个windows2008 64位的ip地址和外边的两个ESXi Server ip是可以ping通的。

安装完成后使用vSphere Client 接入刚刚的这个64位的2008的ip地址上,这时的用户就不是root了这时要用administrator用户,密码你的64位2008系统密码。

接入成功后看到是一个空的Vmware集群。

这时可以右键添加主机,就把你刚才装的两个ESXi Server添加进去,用户名是root的那个

当两个主机都添加成功后你的组建成了一个小型的 vSphere集群了!,当然都是运行在你的workstation上的!

TechTarget中国原创 除了创建专用集群,你还要考虑虚拟桌面配置并确保VMware vCenter的高可用性。

考虑虚拟桌面配置

需要考虑的另一个问题就是大多数组织没有为所有访问用户提供标准的虚拟桌面。相反,总有一些虚拟桌面配置在应用程序集、操作系统配置、域成员以及其他方面存在差异。

在VMware上部署XenDesktop时,将虚拟桌面的差异考虑在内是很重要的。在谈到虚拟桌面部署时,有两大可行的选择方案,方案的选择取决于VDI架构。

如果有多个虚拟桌面配置,而且虚拟桌面在池中进行了分组,每个组包括了完全相同的虚拟桌面集合。通常,某些桌面相当大,尤其是在整个组织内被完全应用时更是如此。如果是这样,一些组织会选择为每个虚拟桌面集合创建专用的集群。

这种方式的优势是,如果集合中的虚拟桌面是完全相同的,那么这些桌面都使用了完全相同的资源。我们完全能够预计集合中资源的使用情况,这使得针对未来增长的容量规划变得非常简单。

另一个选择是在集群中混合放置高需求以及低需求的虚拟桌面。尽管这一方式使得容量规划变得很复杂,但是却有助于提升虚拟机的密度,因而为硬件投资提供了最大可能的投资回报。

确保VMware vCenter的高可用性

另一个重要的注意事项就是,在VMware环境中,XenDesktop依赖vCenter执行集权管理以及各种基础设施管理任务。如果vCenter Server变慢或者无法响应,虚拟桌面的交付可能会受到阻碍

见证(witness)和副本 副本是为虚拟机指定可用性功能时创建的虚拟机存储对象实例的备份。可用性功能决定了可创建的副本数量。在集群中出现主机、网络或磁盘故障时,此机制可使虚拟机使用一组完整的对象继续运行。 见证是每个存储对象的一部分。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 如何实现同一OpenStack集群同时支持多种虚拟化技术

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情