《VMware 虚拟化平台高可用与规划设计方案.docx》由会员分享,可在线阅读,更多相关《VMware 虚拟化平台高可用与规划设计方案.docx(22页珍藏版)》请在课桌文档上搜索。
1、【摘要】本文主要介绍如何优化现有的VMware虚拟化环境,利用架构改造将环境调整为高可用架构。越来越多的企业考虑通过虚拟化来提高IT资源和应用程序的效率和减少运营成本。而在传统的服务器维护中,如果一台服务器宕机,那么最多就是这台服务器上的应用无法正常提供服务,可以通过集群高可用等方法解决;但是在虚拟化环境中,如果一台虚拟主机端服务器宕机,那么运行在上面的虚拟机就都会无法正常运行。虽然虚拟化将所有的资源都集中管理,但是出现故障时影响的面也广了,所以在虚拟化中集群高可用的功能就显得尤为重要。保护物理服务器是不够的,还要保护包含重要商业数据和信息虚拟服务器。虚拟服务器提供了灵活性,但是,与此同时,如
2、果一台包含多个虚拟服务器的物理服务器出现故障,那将造成巨大的数据损失。本文主要介绍如何优化现有的VMware虚拟化环境,利用架构改造将环境调整为高可用架构。无论是网络资源层、计算资源层、还是存储资源层均实现双链路高可用。在做任何架构的改动之前,一定要对现有环境有足够的认知和了解,掌握其变动对业务的影响。在调整架构之前,一定要先了解和熟悉现有架构缺点。在调整架构之前,解决现有环境的故障问题。了解现有架构与业务的匹配性。预评估现有架构改造的工作量和依赖条件。下面将详细介绍如何将现有VMware架构调整为高可用性双链路架构。高可用方案背景VMwarevSphere是VMWare公司推出的一套服务器虚
3、拟化解决方案,vSphere本身是个软件套件,组件主要包括用于主机虚拟化的ESXi,用于虚拟化管理的vCenter,用于升级的UPdateManager,以及自动化部署AUtodePlOy等。在之前的架构中,集团已有的虚拟化架构已经存在2年了,整体运行良好,但是每次出现问题的时候,都会影响业务的运行,无论是网络设备故障还是SAN交换机、甚至计算节点。整体方案采用千兆的网络交换机进行虚拟机的管理与迁移,群集之间未开启HA,SAN的划分层次不明确,名称没有规范。导致故障后,虚拟机不能及时漂移。业务的流量过大,网络带宽受到限制。硬件链路的设备损坏,将导致虚拟化环境瘫痪,影响业务的正常使用。由于之前的
4、架构在VMOtion和StoragevMotion上的性能不佳,导致硬件或系统变更时,业务不能很好的迁移,给运维带来了不小的压力。VMwarevMotion迁移原理vMotion作为VMware提供的强大功能之一,可以很好的帮运维人员解决单机维护影响业务的困扰。了解VMOtiOn的迁移原理,为更好的架构设计打好铺垫。VMwareVMotion能够在两台正在运行的服务器之间进行实时迁移,具有零停机性能,能够大幅度提高了服务器的可用性,保证交易数据的完整性。用户可以手工迁移服务器上的虚拟机至另外一台服务器,从而在不间断服务的情况下,升级和维护原来的服务器。多个服务器之间可以自动迁移虚拟机,从而达到
5、负载均衡,提高资源利用率的目的。同时,这项技术还可以实现双机或多机热备,保证了服务的高可用性。具体工作原理,如图1所示,StoragevMotion如图2所示:图1.vMotion迁移原理图专业术语说明:vMotion:是VMWare开发出的一项独特技术,它将服务器、存储和网络设备完全虚拟化,使得正在运行的整个虚拟机能够在瞬间从一台服务器移到另一台服务器上。虚拟机的全部状态由存储在共享存储器上的一组文件进行封装,而VMware的VMFS群集文件系统允许源和目标VMwareESX同时访问这些虚拟机文件。StoragevMotion:是VMWare推出的一项针对存储迁移的功能,就是在虚拟机开机状态
6、下改变其存储位置,和VMotion一样,整个迁移过程对用户透明,应用不会中断。todestknationStoragevMotion作为VMware提供的另一个强大功能,极高方便了管理员针对存储的运维,可以在业务需要时随时在线迁移VM的存储,不影响业务的正常运行,而且vMotion和StoragevMotion是可以同时操作的。EE3图2.StoragevMotion原理图原理图说明:移动磁盘文件之前,StorageVMotion会在目标数据存储中为虚拟机创建一个新的虚拟机主目录。接着,将会创建一个新的虚拟机实例。其配置保留在新的数据存储中。然后,StorageVMOtion会为每个所移动的虚
7、拟机磁盘创建一个子磁盘,用于在父磁盘处于只读模式的同时捕获写活动的副本。将原始父磁盘复制到新的存储位置。子磁盘重新成为新位置中新复制的父磁盘的父磁盘。完成到新虚拟机副本的转移后,原始实例将关闭。然后,从VMwarevStorageVMFS中删除源位置的原始虚拟机主目录整个过程所花费的时间与冷迁移大致相同,并且与虚拟机磁盘的大小有关。从原始虚拟机到新实例的最终切换可在两秒内完成,并且对应用程序用户是透明的。StOrageVMOtiOn使用独立于特定存储类型的高级拷贝引擎技术。这意味着它适用于您已有的任何存储类型。现有架构设计为了让大家更好的理解现有架构的问题,根据项目的实际经验绘制了部署架构图,
8、并在文中对架构图进行了详细说明。如图3所示:H3C3PAR阵列图3.VMware部署架构图说明:为了更好的理解架构用意,以下为详细说明。1 .通过文章可以看到这是一个典型的集中存储架构,采用HP的3PAR作为虚拟机的存储。2 .两台博科SAN交换机交叉链接。3 .四台思科千兆交换机两两堆叠,但是网关和出口却在第一台。4 .所有ESXi主机分别连接SAN网路及以太网络。高可用架构乍一看之前的架构没有什么问题,但是仔细推敲会发现网络不具备冗余效果,当第一台交换机出现意外宕机,那么整个虚拟化环境将脱离网络,直接影响业务的正常运行。而四台交换机均为千兆交换机,无法满足业务的使用和将来的扩展。为了解决这
9、些问题,我们将现有架构进行了修订,所有链路均实现冗余,任何一条链路中断,都不会影响业务的正常运行。新架构如图4所示:H3C3PARH列图4.虚拟化环境架构图高可用架构说明由于受到硬件资源限制,首先需要购买万兆交换机,并且每台服务器上需要插入万兆网卡,详细信息如表1所示。表1.环境设备说明设备信息配置功能网络交换机48口万兆满配万兆网络交换,提高数据传输带宽X3650服务器24COre、512G、万兆网卡用于计算节点,安装虚拟化软件3PAR存储60T存储设备提供存储资源,存储VM相关信息SAN交换机48口交换机用于主机与存储的链接计算节点的设计X3650服务器额外配置2块万兆双口网卡、自带4个千
10、兆网口、2个HBA卡。为了让虚拟化的性能和稳定性提高,采用管理流量、VKemel流量和VM流量分开的方式,不同的网卡走不同的流量,相互之间无干扰。共24台服务器,建立4个群集,分别用于生产和测试,在下文的网络配置中,将详细讲述具体的分流配置。ESXi安装实际项目中采用VMwarevSphere6.0版本搭建虚拟化环境,其稳定性和功能性比之前的版本有所提升。管理员通过IMM远程安装ESXi到24台服务器,并配置1P、主机名、DNS等配置。使所有主机相互通信,开启防火墙防止远程登陆,强化安全防御机制。ESXi添加群集按照规划,在VCenter内创建4个群集,分别命名为PrdO1、PrdO2、Dev
11、OKDev02o每个集群添加6台主机,主机的命名符合规划要求,主机的高可用配置将在下文介绍。网络的设计4台网络交换机去掉之前的堆叠模式,分别作为接入层交换机连接上层汇聚,戈IJ分两个V1.AN,分别为生产V1.AN命名为Prod及开发测试V1.AN命名为Devo每台交换机独立工作,作为接入层,尽量减少其它无关的网络配置。SAN的设计2台博科SAN交换机分别将24台主机接入,并相互主备。每个交换机划分24个ZOne,以主机为单位,这样设计可以提高I/O读取,并确保ZOne与ZOne的隔离,不会影响其他的主机与存储。存储的设计当前采用惠普的高端存储3PAR作为VM及其它相关文件的存储介质,共划分1
12、5个1.UN,每个1.UN是4T。全部格式化为VMFS5,挂载到各个主机。由于3PAR底层采用RAID技术确保了数据的冗余性,所以我们直接划分相关1.UN即可。环境配置通过上述操作,已经将虚拟化环境的基础设施进行了说明,从底层存储到SAN交换机、主机及上层的网络设备,确保连接线正常,符合交叉连接法,避免单链路故障。下面将主要介绍具体的配置,如何使其符合高可用要求。VMWare主机高可用配置SXi软件的顺利安装仅仅是完成了虚拟化的搭建,但是其高可用特性需要额外的配置。不同的配置参数,将有不同的效果产生。VMWare的高级功能很多都在群集中设定,群集将作为高可用区(AVailabilityZOne
13、)对其内部主机进行统一资源分配与调整。群集内的虚拟机将以群集作为边界进行自动迁移和负载。作为高可用要求,需要在群集内打开HA,此功能将确保单个主机故障后,虚拟机可以自动在群集内的其它主机上重启,保证业务不被长时间中断。如图5所示:vSphereHA虚拟机选项成拟机脱拽置据存储检测佑号VSPhereDRSDRS用管理公虑拟机选J及电源管理必须打开VSPhefeHA,才能使用FaJtToteranCeo交换文件位U图5.VMwareHA配置开启DRS功能,建议选择全自动模式,当然不同场景请酌情设置。开启后,创建的VM将会自动分配到资源合理的虚拟主机上,不会导致资源分配不均的现象发生。若在后期的使用
14、中,资源发生变化,VM会自动调用VMOtiOn功能,基于DRS的策略进行迁移,整个过程无需人工参与。如图6所示:R打开VSPhereDRSvSphereDRS使VcenterServer能够将主机作为资源的聚合池进行管理。群集奥源可以根据用户、组和虚拟机划分为更小的奥源池。vSphereDRS还使vCenterServer能够自动管理虚拟机到主机的分配,在虚拟机打开电源时给出放置位置建议,以及为平衡负载和强制执行资源分配策略而对运行的虚拟机进行迁移。应当在群集中启用vSphereDRS和VMwareEVC,以允许在负载平衡期间放置和迁移巨打井FauItToIerance的鬲以机。图6.VMwa
15、reDRS配置VMWare内的很多高级功能,都需要DRS和HA依赖,所以要使用更高阶功能,都需要提前开启上述两个功能。SAN配置线缆连接正确后,分别登陆到两台SAN交换机内,配置24个ZOne,每个Zone内仅有一个主机与存储1.UN聚合。之后将所有的Zone统一保存在一个名为VCf的配置文件内。每个SAN交换机仅仅有一个配置文件会生效,所以请切记,不要建立多个。多个COnfig的配置,需要根据自身场景而定。配置完成后,同一群集内的主机可以看到共同的存储1.UN。如图7所示:9YZ1.UN01正常naa.60002ac000.非55D4.00TE3YZ1.UN02e正常naa.60002ac0
16、00.非SSD4.00TE9YZ1.UN03电正常naa.60002ac000.非SSD4.00TE9YZ1.UN04正常naa.60002ac000.非SSD4.00TE9YZ1.UN05正常naa.60002ac000.非SSD4.00TE9YZ1.UN06正常naa.60002ac000.非SSD4.00TE日YZ1.UN07e正常naa.60002ac000.非S5D4.00TE9YZ1.UN08警告naa.60002ac000.非55D4.00TE3YZ1.UN09e正常naa.60002ac000.非SSD4.00TE9YZ1.UN10电正常naa.60002ac000.非SSD4
17、.00TE日YZ1.UN11e正常naa.60002ac000.非SSD4.00TE图7.VMware1.UN配置网络配置移除属性为了满足网络流量按照功能隔离传输与高可用的要求,需要在每台主机的网络配置中将四个万兆网口交叉配置到不同的虚拟交换机内,VSwitchO主要负责vMotionFT和管理流量。VSWitChl主要负责虚拟机的流量传输。如图8所示:标准交换机:Switch。VMkemd确QManagementNetworkvmk:IV1.ANID:1011.I物理迄正每,1q幅VrnniC7双工:.陶VmniC4双工标准交换机:VSWitChl移除属性盅拒机跳口班PRDNetworkDl
18、12个虚拟主机I虚拟局域网ID:1021.I物理送配器,IAvmnic2全双工J嗯vmnicWM全双工图8.VMware网络配置存储高可用设计调整后的架构,基本实现了各条链路的高可用,唯一不足的是存储为单一集中存储。按照当前架构,如果存储损坏,所有的数据将不能放问,甚至有丢失的风险。整个项目由于费用的问题,不能在本季度进行存储购买。为了保证虚拟机在存储失效后可用,我们暂时采用备份机制解决,遇到类似问题,通过备份恢复。如果条件允许,还是建议买额外的3PAR存储或者IBMSVC进行存储级别的冗余,可以大大减轻存储损坏带来的损失,快速切算业务到正常的存储。通过如上设计,基本上去掉了之前架构的网络、主
19、机等非高可用因素,提高了基础设施的可用性、可靠性。结束语本文是VMware众多经典架构中的一种,主要是采用集中存储的方式构建。在新版VMWareVSPhere中,也可以通过VSAN方式,去掉集中存储的限制,采用分布式对象存储,将虚拟机分布在不同的X86主机上,任何主机宕机,都不会影响数据的访问,同时节约了整体基础设施的构建成本。虚拟化平台规划设计方案1需求分析银行目前虚拟化平台为3年前建设投产的,版本为VSPhere5.5,一直没有更新。随着银行业务的高速发展,原有平台已经满足不了目前的应用需求,而且有些版本老旧,给运维带来很多不便。基于上述原因,现决定构建全新的虚拟化平台,采用最新的VSPh
20、ere6.0版本,并考虑到未来的业务扩展。现阶段规划5个分区,分别为生产业务区、管理区、网银Web区、网银APP区、运维基础区。每个业务区承载着不同数量的虚拟机,并且随着业务发展不断增加。随着新业务不断增长要求,未来将逐步把小型机服务器上应用系统迁移到虚拟化平台,最终实现数据中心x86服务器的全部虚拟化。本方案将根据用户现有虚拟化平台的现状和物理服务器进行评估,给出新数据中心虚拟化平台的详细设计,作为以后项目实施测试和验收的依据。2总体架构银行虚拟化平台总体架构由86台主机组成,分别为生产业务区、管理区、网银Web区、网银APP区、运维基础区构成,面向正式生产业务,由一个放在运维/基础区的vC
21、enter统一管理。每个业务区域之间是网络隔离的,但vCenter管理网络是相通的。2. IESXi主机配置2.1.1硬件配置规格属性规格供应商/型号IBM3850X5CPU插槽数4CPU,每CPU八核处理器类型IntelXeonCPUE72.00GHz内存256GB网卡端口2网卡速度1OGbpsHBA卡2BIOS版本1.79(07/28/2013)2.1.2BIOS设置BIOSSettingRecommendationsDescriptionYHtgali战gpTechnologyYesNecessarytorun64-bitguestoperatingsystems.TurboModeYe
22、sBalancedworkloadoverunusedres.NodeInterleavingNoDisablesNUMAbenefitsifdisabled.VT-x,AMD-V,EPT,RVIYesHardware-basedsupport.ClEHaltStateNoDisableifperformanceismoreimportantthansavingpower.Power-SavingNoDisableifperformanceismoreimportantthansavingpower.VirusWarningNoDisableswarningmessageswhenwritin
23、gtothemasterbootrecord.旦y熙工色僧蜘DYesForusewithsomeIntelprocessors.HyperthreadingisalwaysrecommendedwithIntesnewerCorei7processorssuchastheXeon5500series.VideoBIOSCacheableNoNotnecessaryfordatabasevirtualmachine.WakeOn1.ANYesRequiredfor燃戏.委辿&忌DistributedPowerManagementfeature.EXeCUteDisableYesRequiredf
24、orVMand憨e.原RbW法.DistributedResourceScheduler(DRS)features.VideoBIOSShadowableNoNotnecessaryfordatabasevirtualmachine.VideoRAMCacheableNoNotnecessaryfordatabasevirtualmachine.On-BoardAudioNoNotnecessaryfordatabasevirtualmachine.On-BoardModemNoNotnecessaryfordatabasevirtualmachine.On-BoardFirewireNoNo
25、tnecessaryfordatabasevirtualmachine.On-BoardSerialPortsNoNotnecessaryfordatabasevirtualmachine.On-BoardParallelPortsNoNotnecessaryfordatabasevirtualmachine.On-BoardGamePortNoNotnecessaryfordatabasevirtualmachine.2.3.3 ESXi主机软件版本Name:VMwareESXi6.0Update12.3.4 配置NTP时间源ESXi使用是UTC(UniVerSalTime/TempsCor
26、donn世界标准时间)时区,而且ESXi已经不支持修改时区。如果没有NTP服务器,可以手动调整ESXi主机时间。安装ESXi主机后,立刻调整时间(未调整时间之前不能建立和迁移新虚拟机)。强烈建议统一配置NTP时间源,所有主机须与时间源同步。2.3.5 ESXi主机命名规范bk-esxi55-ev编号FQDN示例:bk-esxi55-e,全小写。ESXi主机与vCenter服务器名称解析,加入银行为此项目搭建的DNS服务器(DNS服务安装于vCenter服务器)。3群集和资源池设计3. IVMwareHA群集设计原理至少2台以上ESXi主机组建为一个HA群集。虚拟机文件放置在由光纤存储组成的共享
27、存储上。ESXi主机产生故障时,虚拟机自动在群集内其他可用的ESXi主机上重新启动。VMwareHA为虚拟机中的运行提供快速计划外中断恢复和具有成本效益的高可用性。VMwareHA不需要在应用程序或虚拟机内安装任何特殊软件。HA群集中的所有虚拟机均受VMwareHA保护。VMwareHA要求虚拟机必须驻留在共享存储上。VMwareHA代理会在ESXi主机间相互通信,并监控群集内各台ESXi主机的活跃度。默认情况下,此通信通过每秒交换一次检测信号来完成。如果15秒过去后仍未收到检测信号,而且Ping不到该ESXi主机,则系统会声明该ESXi主机发生故障。网络检测信号是确定主机状态的关键,数据存储
28、检测信号使主机更加正确地判断管理网络不可达的状态。默认情况下,HA会选择2个数据存储心跳,这个选出的的数据存储在集群内所有的主机上有效。如果连接服务器的物理网络交换机支持PortFaSt(或等效)设置,请将其启用。此设置可防止ESX主机在执行冗长的跨树算法期间误认为网络已被隔离。在虚拟化平台进入运行维护期后,如果需要执行可能会触发主机隔离响应的网络维护,建议首先禁用HA群集中的“主机监控”功能,以挂起VMWareHA。完成维护后,请重新启用“主机监控二虚拟机重新启动优先级用于设定在ESX主机发生故障后虚拟机的重新启动相对顺序。这些虚拟机在新主机上按顺序重新启动,首先启动优先级最高的虚拟机,然后
29、是那些低优先级的虚拟机。建议为提供最重要服务的虚拟机分配较高的重新启动优先级。3.3 集群和资源池的划分群集为运行的虚拟机提供一个高可用性和冗余环境。虚拟机可以在以资源池为单位的范围内负载均衡,灵活调配。根据数据中心网络和业务架构,每个业务区为一个独立集群,每个集群即为一个独立的资源池。生产区域共分为5个集群单元:管理区集群、业务区集群、网银Web区集群、网银APP区集群和运维基础区集群,所有集群由运维基础区的vCenter统一管理调度。3.4 群集接入控制策略设置第一类指定故障切换主机使用“指定故障切换主机”,在群集中空置一台ESXi主机备用,指定它做为故障切换ESXl主机。则在ESXl主机
30、发生故障时,VMWareHA将尝试在备用ESXI主机上重新启动其虚拟机。备用ESXI主机CPU和内存配置不得低于群集内的其他ESXl主机。第二类群集允许的主机故障数目使用“群集允许的主机故障数目,VMwareHA允许指定数目的ESXI主机发生故障,同时可以确保群集内留有足够的资源来对这些主机上的虚拟机进行故障切换。此类HA规则适用于虚拟机CPU和内存耗用(或保留值)较平均的场景。目前,银行项目中采用此种群集设置规则,设置群集允许的主机故障数目为Io计算插槽大小插槽大小由两个组件(CPU和内存)组成。CPU的方法是选择已启动虚拟机上的CPU预留最大值。无CPU预留,则默认值256MHZ(使用da
31、s.vmCpuMinMHz更改)。内存的方法是选择已启动虚拟机的内存预留,然后再选择最大值(使用das.slotMemlnMB更改)。确定每台主机可以支持的最大插槽数目用主机的CPU/内存资源数除以插槽大小,得出最大插槽数目,计算群集允许的主机故障数目。示例,下图中主机故障数目为1VM12GHz1GBVM22GHz1GBVM3IGHz2GBVM4IGHZ1GBVM5IGHz1GBH19GHz插槽大小2GHz,2GBH2H3如果Hl故障则剩余6个插槽第三类预留的群集资源的百分比可以将VSphereHA配置为通过预留特定百分比的群集CPU和内存资源来执行接入控制,用于从主机故障中进行恢复。使用“预
32、留的群集资源的百分比”接入控制策略,VSphereHA可确保预留CPU和内存资源总量的指定百分比以用于故障切换。银行选择第二种“群集允许的主机故障数目”接入控制策略,值为“1”,即“允许1台主机出现故障二注:如果VCenter不可用,它不会影响到群集的现有配置。故障切换时没有vCenter加入,HA只是依赖vCenter配置和监视群集。3.5 VMwareDRS功能VMwareDRS监控群集内所有主机和虚拟机的CPU和内存资源的分布情况和使用情况。在给出群集内资源池和虚拟机的属性、当前需求以及不平衡目标的情况下,DRS会将这些衡量指标与理想状态下的资源利用率进行比较。然后,DRS会相应地执行虚
33、拟机迁移(或提供迁移建议)。群集中首次启动虚拟机时,DRS将尝试通过在相应主机上放置该虚拟机或提出建议来保持适当的负载平衡。DRS的自动化级别:手动:初始放置位置:显示推荐的主机。迁移:显示迁移建议。半自动:初始放置位置:自动。迁移:显示迁移建议。全自动:初始放置位置:自动。迁移:自动执行迁移建议。在目前设置下,考虑到虚拟机与驻留主机的固定配置关系,暂不启用DRS功能或者选择“手动”DRS方式。启用DRS功能,只需在群集配置中勾选启用DRS,以及配置相应规则。在正确规划和操作的情况下,DRS的配置不影响虚拟机的正常运行。4管理中心vCenter设计管理软件vCenter是整个虚拟化平台管理控制
34、的核心,考虑其考虑重要性和可管理性,我们设计把域控制器,vCenter服务器和数据库服务器分离,逻辑架构图如下:以上各组件说明:蛆件描述域控制28提供IP地址解析殛用户管理如果客户巳有DNSgg等2S,请使用已有设备.VCentef服务器为晒中心提供一个单一控制点,它提供基本的数据中心服务,如访问控制、性能监控和配功能等.数据库联务35承基VCenter服务器所需的数据存储WVCenter服务器采用虚拟机部署方式,部署在该运维区。建议配置如下:属性规格所需的主机数1台虚拟机处理器数4VCPU内存12GB操作系统和ServicePackWindows2008serverR2数据库Oracle11
35、2.0.4(与VCenter分离式安装)最低可用磁盘空间60GBVCenter与其数据库分离,采用虚拟机形式安装。这样便于利用VMWare的HA技术进行保护,而且安装后建议克隆VCenter服务器作为一个备份镜像。数据库每天使用Oracle备份工具备份VCenter数据,并在ESXi主机本地内置磁盘上保留VCenter数据库服务器的完整克隆。根据vCenter服务器所管理的ESXi主机与虚拟机的数量,估算vCenter数据库的容量如下:按约50台ESXi主机和200台虚拟机进行预估,vCenter数据库容量估算工具,请参考VCDatabaseSizingCalculatoro项目配置统计间隔5
36、硼统计级别4级ESXi主机AK*VwM*V50台虚拟机200台空间估算16GB创建数据库时,按照该容量的3倍进行数据库空间的预留,即50GB。4.1 安装VMAVMwarevSphereManagementAssistant(VMA)是VMware对外提供的工具。VMA将VSPhere命令行界面、VSphereSDKforPerl以及日志记录和身份验证模块打包到一个方便的捆绑包中。VMA还可以托管第三方代理,以增强管理功能。建议安装VMA,并凭此工具对ESXi主机进行集中管理。同时,VMA还配置成SySIOg日志服务器,用于管理ESXi主机的日志。由于ESXi主机发生紫屏死机,重启后Iog就丢
37、失,所以推荐配置SySIog服务器,把日志转储。从安全性考虑,不建议打开ESXi主机的SSH功能,如果需要命令行管理主机,可以使用VMA管理助手。4.2 用户、组、权限和角色定义用户、组、角色和权限能够控制哪些用户可以访问VSPhere受管对象以及这些用户可以执行哪些具体操作。VCenterServer授权用户是包括在VCenterServer引用的Windows域列表中的用户,或者是VCenterServer系统上的本地Windows用户。角色是一组预定义的特权。特权定义用户执行操作和读取属性所需的个人权限。当给用户或组分配权限时,将用户或组与角色配对,并关联与清单中某一受管对象,直接与VC
38、enter服务器中的最高层级的对象相关联。根据项目建设和未来运营管理的实际需要,在建设初期,按照运维管理的模式与需求,创建相关用户、组和VCenter角色,并创建若干具有管理员权限的用户。进入运营管理阶段后,则删除原具有管理员权限的用户(保留Administrator),按照既定的用户、组和VCenter角色设置,对VSPhere进行操作。4.2 .IvCenter角色角色描述超级管理员所有对象的所有特权。为所有vCenterServer用户和VSphere环境中的所有虚拟对象添加、移除和设置访问权限和特权.主机管理员具有主机、主机配置文件、数据中心、文件夹、性能监控条件调整、警报、调度任务、
39、网络操作、存储操作等权限虚拟机管理员允许用户与虚拟机进行交互、更改虚拟机硬件和执行照操作的一组特权。通常对包含虚拟机的文件夹或单个虚拟机上授予这些特权。监控员查看对象的状况和详细信息。查看VSPnClient中除“控制台之外的所有选项卡面板。无法通过菜单或工具栏执行任何变更操作。4.2.2 vCenter服务器域用户组根据角色设置,在域控服务器创建域用户组(如果使用新的用户组来管理),具体设置如下:用户组照热角色VCAdmir超级管理员员唠烛JJ展主机管理员YMAqriDW虚拟机管理员Operators监控员4.2.3 vCenter角色与用户组关联在VCenter服务器最上层级(),做VCe
40、nter角色与用户组的关联。4.3 vSphere监控事件报警借助事件监控和报警系统,在VSPhere、VCenter中将被配置以便监控所有核心虚拟架构的健康和性能内容,包括ESXi主机、群集、HA、虚拟机操作如VMotion和vCenter自身的健康。配置以下被监视事件。条件和阀值配置细节如下:触发类型条件警告条件长度严重警告条件长度主机内存使用情况高于855分钟905分钟主机CPU使用情况高于605分钟705例磁盘上数据存储的使用情况高于8590主机连接和启动状况无响应YMyy缴2ha主机故障当以上告警触发后,配置VCenter发送SNMPtraPS到网络管理软件;同时也将由邮件发送到相关
41、负责人和所有vSphere企业管理组中。vSphere企业管理组将定期负责审查和管理这些有vCentreESXi主机、虚拟机产生的健康和系统日志。这些日志将为企业的保留策略和程序做准备和归档。SNMP接受端得配置如下表所示:SNMPMonitoringServerPortSNMPCommunityString162vCenter告警邮件转发的SMTP配置如下表所示:SMTPServerSendinAccounttoReceivegAlertsAccount5虚拟化网络设计银行虚拟化网络设计考虑了以下基本原则:1)物理交换机和网卡均冗余配置;2)充分利用分布式交换机的优点,物理网卡上均设置为AC
42、tiVe-Active模式,有效提高带宽,负载均衡策略和故障切换策略;3)物理交换机连接到ESXi主机的端口设置为Trunk访问模式,允许V1.AN访问。主机物理网卡布局示意图如下:每台ESXi主机共配有2片(每片有4个网口)千兆网卡,ESXi主机自带2个千兆网口,共有10个网口可用。在标准虚拟交换机中,为管理网络、VMotion端口、iSCSI存储和FT端口提供网络服务。正式部署前,管理网络和VMotiOn端口、iSCSI存储和FT端口都需要分配好固定IP地址。两片网卡交叉备份,一旦第片网卡或网络链路出现故障,则自动切换到第二片网卡上运行。虚拟机业务网络采用分布式交换机方式,使用主机自带两个
43、网络端口。在虚拟端口组中,这两片网卡都处于活动状态,虚拟机的业务流量按照实际物理流量规则进行负载均衡,在这两片网卡上进行转发。连接这两块网卡的物理交换机端口设置为TRUNK访问模式,允许虚拟机业务V1.AN通过。对于生产业务区、管理区、网银Web区、网银APP区的虚拟化网络规划如下图:Host(n)ESXiHostlvmnicvmnicl管理区、生产区和网银区ESXi主机网络规划表虚拟交换机端口组物理网卡活动备用名称用途V1.AN(ySwitch)management管理控制台vmnic2vmnic6vmnic2vmnic6YMSj9)虚拟机在均第vmnic3vmnic7vmnic7vmnic
44、3iSCSINAS存储备份端口vmnic4vmnic8vmnic8vmnic4FT虚舱端口vmnic5vmnic9vmnic5vmnic9分码交换机(YDS)ymnetwork虚业务网络vmnicvmnidvmnicvmnidN/A注:运维基础区由于是一个集群承担运维和基础业务两种角色,并且运维和基础业务有各自的网段,其上承载的虚拟机不能互访。所以需要把FT和iSCSI的备用网卡都拿出来到分布式交换机的Vmnetwork上,保证基础业务和运维每个网段都有两张网卡可以接到各自的两台物理交换机上,保障物理设备和链路的冗余。虚拟交换机配置:项目设置V1.AN每个端口组都可以设置一个V1.ANID;不
45、同的V1.ANID可以设置到不同的端口组上;每个端口组只能设置一个V1.ANID安全杂乱模式:拒绝MAC地址更改:拒绝伪信号:拒绝流量调整策略负载平衡基于明确主备关系网络故障切换检信标检测(BeaconProbing)通知交换机是故障恢复是分布式交换机的负载均衡选择“基于物理网卡负载的路由”。dVPortGroup设杳Id应客户要求,如果以后网络进行万兆改造,服务器上只有两个网口,那么为了做到网络隔离,推荐下列设计:两个网卡一个负责虚拟机网络,另一个负责管理网络和VmkemeI应用,二者互为主备。可以通过NlOC设置份额,让各个VmkemeI网络按份额比例分配。6存储规划6.1 设备连接冗余设计存储设备的高可用性非常重要,建议连接到共享存储的每台ESX主机配备两块HBA卡,并提供两台物理光纤交换机,避免单点故障。ESXHostAESXHostBHBAOHBA1HBAOHBAIESXi主机安装后可以管理多路径,对于配备了两个控制器的存储,使用主动-主动控制器,路径选择策略可以是“固定”或“循环”策略。多路径策略说明最近使用(VMW_PSP_MRU)选择ESRgRq主机最近用于访问指定设省的路径.如果此路径不可用,贝住机会切换