联想COC专家、超融合产品经理 单晓宇
在中国市场上有这么多的超融合方案,它们之间有什么不同?对于购买者,在衡量、选择不同的超融合方案时,又有哪些原则和指标可供参考呢?
首先需要厘清概念,谈超融合,就得先从融合架构谈起
融合架构又称为集成系统,通过整机柜集成和预配置实现快速部署,但仍然采用传统的服务器、网络、存储三层架构。典型的融合架构方案包括VCE的Vblock、NetApp的FlexPod、Oracle的Exadata,以及Huawei的FusionCube和H3C的UIS等。可以注意到融合架构在形态上体现为一个机柜或刀箱,里面集成了服务器、网络、存储节点,安装了虚拟化软件。
而超融合架构则是基于通用的服务器硬件,借助虚拟化和分布式技术,融合计算、存储、虚拟化与一体,不再需要专门的SAN存储。相比融合架构来说,超融合摆脱了整机柜/刀箱集成的束缚,也不再受限于传统的三层架构,更具有弹性。
其次理解每家产品的理念、定位和技术渊源
超融合概念在今天能够得到大家的热议,一是随着硬件性能密度的提升,网络互联互通的便利,软件智能逐渐走向成熟,超融合也是IT基础设施演进的一个必然方向;二则是对传统架构的颠覆式创新,在IT资源的分配和管理上相比传统架构更有效率(尤其是集中式存储模式),因此对传统存储的冲击也最大。
这也恰恰说明为何超融合理念的倡导者会是Nutanix、SimpliVity、Pivot3、Maxta以及VMware这些在企业级(存储)市场并不显赫的厂商。而对于EMC、IBM、NetApp这些存储巨头来说,超融合并不是一个“讨人喜欢”的概念,谁让他们“真的有一头牛”呢?
Nutanix、SimpliVity等超融合初创厂商,均成立于2009年,借鉴Google等互联网数据中心架构,通过软件定义的方式,将服务器的计算和存储资源聚合,在虚拟化层面上实现池化和统一管理,实现虚拟化环境的新型部署模式。他们的确是这个市场最彻底的“革命者”。
VMware在2014年发布的VSAN,也是专为优化虚拟环境而设计的存储解决方案,通过与vSphere的深度耦合,将软件定义数据中心延伸到存储一层(在此前VMware通过VAAI、VASA、VVOL帮助专业存储厂商更好的支持虚拟化应用,现在决定甩开膀子自己上阵了),并巩固VMware在虚拟化数据中心的优势。
而HP、Huawei作为传统企业级的老兵,有成熟的软件定义存储产品,如HP基于LeftHand的StorVirtual、Huawei从FusionCube拆分出来的FusionStorage,通过与Hypervisor集成或作为其堆栈的一部分而摇身一变成为时髦的“超融合”,但从规格、指标来看,与“原生”的超融合架构仍然存在差距。
在国内比较有影响力的公有云服务提供商青云,也推出了超融合一体机,通过预集成QingCloud虚拟化平台、云平台管理软件、SDN网络和分布式存储,实现企业云平台的落地部署。
另外一家厂商深信服,本行是做网络安全的,也加入了超融合的战场,坦率的说在狭义的超融合架构(服务器+存储+虚拟化)上平淡无奇,但所画即所得的部署模式和网络层的深度集成却让人印象深刻,更适合SMB客户从网络安全到基础架构的一揽子交付需求。
回到联想自身,没有自己的存储核心技术这一短板,在过去只能依赖于OEM和技术合作弥补,随着超融合的发展,也无需再苦恼了,超融合不需要存储,但一定要部署在服务器上。而服务器则是联想企业级最强的地方vsan和超融合区别,与Nutanix合作推出的超融合HX系列,基于最好的x86服务器System x,目标成为超融合市场的标杆产品。
选择超融合方案可以遵循哪几个标准?
这么多考量因素,一个“好”的超融合方案究竟该如何判别?
联想COC专家、超融合产品经理单晓宇认为,可以从以下五个方面去衡量:依次为适用性、兼容性、数据效率、连续性及可扩展性。
前方高能预警:超多干货内容,篇幅过长,还请耐心查阅
适用性
VM-Centric
超融合既然是为虚拟化环境部署而服务,那么整个架构设计是否以虚拟机为核心,会对使用体验会有直接影响,在这方面做得越好,也就越能体现该方案的优势。
VM-Centric可以通俗的理解为站在为虚拟机服务的角度上,以让虚拟机运行的更有效率为目标,Top-Down进行产品设计。
比如说,在传统的架构中,存储对上层的主机提供存储卷服务,对于在主机上部署的虚拟机来说,其数据具体在存储上如何分布,是不可知的,当我们在使用快照、复制等数据保护功能时,我们是对存储卷进行操作。
而在超融合架构中,与虚拟机相关的数据分布,会有“本地化”的概念,也就是虚拟机的数据会优先存放在本地节点上,避免跨节点访问造成的延迟和资源占用。在进行快照、复制等操作时,同样也是围绕虚拟机这个维度来进行的,而不是传统架构中是对虚拟机所在的存储卷进行快照和复制。
业界的超融合方案,如之前所述,大致可以分为两类,一种是“原生”超融合,如Nutanix、SimpliVity、Maxta,另一类则是软件定义存储升级,如HP的StorVirtual、Huawei的FusionStorage。
对比这些产品的指标可以看出,前者在“VM-Centric”方面一般做的比较全面,也会将其作为宣传的重点,而后者在“VM-Centric”方面着墨较少。这很好理解,毕竟前者是针对虚拟化场景进行的专门设计,而后者更多是将现有的软件定义存储增加了一个虚拟化层。
举一个例子说明这两种架构的不同就是:前者是一辆轿车,设计目的就是为了驾驶者的乐趣和乘坐者的舒适,而后者更像一辆皮卡,设计目的是为了载货和通过性。虽然皮卡对乘坐者的舒适度也是有保证的,但总归不如轿车舒服;当然单纯讨论载货能力,轿车却也是不如皮卡的。
兼容性
Hypervisor支持
目前流行Hypervisor有VMware vSphere、Microsoft Hyper-V、KVM,绝大多数的超融合方案都支持VMware,毕竟VMware是虚拟化界事实上的标准。
EVO:RAIL/VxRAIL仅支持VMware,毕竟这是自己的亲儿子,是用来巩固自己市场地位的法宝;SimpliVity、Maxta虽然现在仅支持VMware,但有明确的计划要支持Hyper-V,原因是继续绑定VMware并不能保证自己的生存,而Hyper-V和KVM的市场增长比较快(据不权威数据,VMware的市场占有率是55%,Hyper-V已经增加到27%)。
对Hypervisor支持最全的则是Nutanix,VMware/Hyper-V/KVM(自己开发的AHV)都支持;Huawei的FusionStorage则除了支持VMware和KVM外,自己也有基于Xen开发的FusionSphere虚拟化平台。
当然还有一些厂商因为产品定位的原因,仅支持自己基于KVM开发的虚拟化平台,如深信服、SmartX。
如果客户本身就是一个多Hypervisor平台混合部署的环境,兼容多个Hypervisor带来的好处就很明显了,这个时候客户也会有虚拟机在Hypervisor间转换的功能需求。
个人的一点浅见:仅支持VMware的超融合方案是没有前途的,因为你首先就无法和vSphere+VSAN竞争,当然VxRail除外(亲儿子嘛);如果仅支持KVM的话,也会导致适用范围被大大缩窄。
同样,对于客户来说,除非你是VMware的铁杆粉丝,或者你的业务必须用到vSphere的一些高级功能,否则没有必要为了一棵大树而放弃森林,尤其是对于大量部署Windows的客户,Hyper-V就是一个不错的选择,而在Linux平台,免费的KVM也发展的比较成熟。
效率
I/O优化和数据效率
在这一方面,各家超融合方案的区别体现在:
数据本地化的设计,以及数据写入到节点时的切片策略:
基于已有的SDS方案Bottom-Up的超融合方案,在数据本地化设计上,并没有原生的超融合架构做的深入。
闪存、SSD,仅用于缓存还是缓存+存储,仅支持SSD还是可以扩展PCI-e闪存卡:
很多人都有疑问,为什么传统架构需要七八台服务器,加中端存储才能支撑的应用,三四个超融合节点就可以替代?其实有个原因就是超融合架构对闪存/SSD的配置和使用远远超过传统存储。通常,一个节点配置的SSD会是800GB~1600GB,甚至可以扩展到更多。虽然传统存储也可以配置很多SSD,但相应的成本也会急剧提升。
有的超融合方案如VSAN,SSD仅可以作为缓存使用,并不能存储数据,而有的方案如Nutanix则既可以做缓存,也可以存储数据;大部分超融合方案只能使用SSD,而华为的FusionStorage则可以使用PCI-e闪存卡。
数据保护,采用多副本还是RAID,是否支持纠删码:
相比传统存储的RAID技术,在分布式系统中,多副本技术是最常见的数据保护方案,为了缓解副本技术带来的存储空间的占用,对于冷数据采用纠删码方式进行保护,也是通用方案。
但可以看到,仍然有一些超融合方案,在节点内部使用RAID进行数据保护,如SimpliVity使用硬件RAID卡将节点内的硬盘创建成RAID6,如Maxta则使用内置的ZFS文件系统,利用RAIDZ技术对节点内的硬盘进行保护,最多可以允许三块硬盘的损坏。
这些方案显然各有优劣,仅使用副本,在冗余度上并没有节点内RAID+节点间副本来的可靠,但空间利用率前者占优。
在这里,也可以注意到不同超融合方案也存在两个流派,一种是上层软件直接操作硬盘,完全软件定义来实现;另一种,在底层的存储层,或者使用传统的RAID,或者采用单机文件系统如ZFS来实现。前者的好处是可以获得完全的控制权和定制能力,后者的好处是利用现有的技术,实现简单。
数据效率,是否支持重删、压缩、精简,在线还是后处理,软件处理还是硬件加速,单个节点还是可以跨节点全局处理?
实际上,数据效率和数据保护是一脉相承的,以SimpliVity为例,在重删、压缩上使用了PCI-e加速卡来实现,所有的数据在写入时都会经过重删处理,因为是硬件协处理,所以不会占用CPU资源,避免对业务的影响。而Maxta使用ZFS,则是利用ZFS本身的在线重删功能,通过软件实现,从而也导致了对大内存的需求。
Nutanix的实现则很有趣,对于写入到内存和SSD的数据,可以执行在线重删处理,对于写入到HDD的冷数据,则可以用Map reduce的方式跨节点进行全局重删,与上述节点内部的重删相比,重删效果无疑会更好些。
VSAN原来在6.1版本是不支持重删的,但6.2版本已经添加了重删可能,可惜只能对全闪存进行,混合配置时,硬盘上的数据是无法进行重删的。
备份、容灾
业务连续性
如上所述,在快照时,有的方案是基于虚拟机来进行,有的方案仍然是基于存储卷来进行,显然前者使用更为便利。
在虚拟化环境进行备份时,相比传统的备份方案,Avamar和Veeam是两个值得考虑的方案,尤其是对EMC有偏爱的客户,Avamar是个很不错的虚拟化环境重删备份解决方案,除了价格较贵之外;而Veeam作为轻量级、纯软件的解决方案,也得到了很多客户的青睐vsan和超融合区别,但似乎Veeam并不支持重删。
而在复制、容灾中,传统架构更多是基于Array-Level、通过存储卷的复制来实现,现在的超融合方案大多都宣称自己支持容灾,但没有看到太多的资料和案例,但有两点,超融合方案的容灾,第一大多是基于VM-Level来进行,尤其是与Hypervisor配合起来更为便利,第二就是还不能满足RTO/RPO=0的双活要求,如果用户是要求双活的环境,坦率的说,使用VPLEX或者SVC这种传统的方案更为合适些。
超融合在通常的数据复制、异地容灾(不严格要求双活)的环境中,还是可用的。不过我相信,随着超融合技术的发展,客户接受程度的提升,超融合在容灾方面替代传统架构也只是时间的问题。
可管理性
可扩展性
超融合方案相比传统架构,体现在管理上就是简单,相比传统架构虚拟化、服务器、存储、网络四层需要分别进行管理配置的复杂性和繁琐,超融合将这些集成到一个用户界面上,用户可以在一个界面上,实现计算和存储资源的池化、CPU/内存/HDD等资源的分配、虚拟机的创建和启动,无疑会为用户带来极大的便利性。
当我们在衡量各种超融合方案时,可管理性也是一个重要指标,比如是否有单独的统一管理工具,跨地域部署的多个集群是否可以集中管理,与现有Hypervisor管理界面的集成,以及在超融合软件升级时,对现有集群的一键升级等功能。
而在可扩展性上,则体现为对硬件平台的兼容性、集群中节点的最大数量、扩展时对硬件节点的要求等。
超融合对硬件平台兼容的多寡,会影响到客户对硬件平台的选择性,如VSAN方案,允许客户选择多种服务器平台,甚至可以使用现有的服务器进行利旧;而其他方案,则是仅兼容几种硬件平台,缺点是选择性较少,但优点也很明显,就是对单一平台的测试和优化会更充分,而且限制硬件平台也会保证一体机方案给客户的体验不会受到硬件平台兼容性的问题而下降。
集群中节点的最大数量也是一个衡量指标,比如VSAN的最大64个节点则为人熟知。而在扩展时,EVO:RAIL和FusionStorage都要求节点的硬件配置需要一致,但Nutanix等方案则在节点最大数量上没有限制,扩展时也允许多种配置的节点并存于一个集群中,无疑更具有弹性和灵活性。
限 时 特 惠: 本站每日持续更新海量各大内部创业教程,加站长微信免费获取积分,会员只需38元,全站资源免费下载 点击查看详情
站 长 微 信: thumbxmw