超融合基础架构(hyper-converged infrastructure,或简称“hci”)目前在全球和国内市场快速增长,更被称为是未来新一代数据中心基础架构的首选方案。但是,超融合真的是完美的吗?下面我们一起来做个超融合浅析吧。
超融合基础架构(hyper-converged infrastructure,或简称“hci”)目前在全球和国内市场快速增长,更被称为是未来新一代数据中心基础架构的首选方案。但是,超融合真的是完美的吗?下面我们一起来做个超融合浅析吧。
首先,目前超融合方案通常是仅支持一种虚拟化环境,nutanix可以支持多种虚拟化环境,但是对于一套超融合架构部署,实际上也仅支持一种虚拟化环境。
每种虚拟化环境都有各自的优势,很多企业可能需要同时运行几种虚拟化环境,比如vmware、kvm、hyper-v、xen,因为超融合不支持异构虚拟化环境,需要部署多套超融合架构,这会产生新的信息孤岛。
同时,几乎所有的超融合方案都不支持数据中心中原有的外部存储,大多数企业也不可能在短期内更换整个数据中心基础设施,结果数据中心又会被分裂成两个彼此独立分散的基础设施孤岛。新的信息孤岛带来了资源利用效率和统一管理的问题。
其次,超融合架构“共享一切”。计算和存储会争抢cpu/内存/网络等物理资源,而且计算和存储又相互依赖,一旦一方资源需求骤升就会导致另一方资源枯竭,进而影响性能并在整个基础架构中产生涟漪效应。
再次,超融合架构“一切分布式和软件定义”,集群规模较大后,网络、硬盘、服务器发生故障的概率都会增大,数据重删/压缩/加密/纠删码等功能都用软件实现,故障的自修复和数据功能实现都会消耗一定的系统资源,导致性能下降和抖动。
虽然,超融合架构简化了it架构,极大降低了数据中心设计的复杂性,实现了快速交付,并极大简化了运维管理。但是,这都是基于用户角度的,从产品研发角度而言,超融合实际上使得内部的软件复杂性更高了。
超融合架构需要采用cvm虚拟机控制器,并且需要将主机物理设备透传给控制虚机,增加了部署配置管理的复杂性。计算和存储对硬件平台的要求都不同,融合后也会一定程度上增加兼容性验证的复杂性。
超融合架构下,管理、计算、存储、高可用通常都需要配置独立的虚拟网络,网络配置也会更加复杂。同时,共享物理资源的分配、隔离、调度,这也是额外增加的复杂性。还有一点,如果出现故障,问题的跟踪调试和分析诊断也变得更加困难。
众所周知,超融合架构关键特征之一就是易于扩展,最小部署,按需扩容。超融合架构厂商宣称最大集群规模也差别很大,从数十到数千节点不等,通常从3节点起配。超融合中计算能力、存储性能和容量是同步扩容的,无法满足现实中单项能力的扩展,有些厂商还对扩容最小单元有要求,扩展灵活性会受到限制。集群达到一定规模后,系统架构复杂性就会非线性增加,集群管理变的更加困难,硬件故障和自修复发生的概率也会大大增加。
因此,我们是不建议构建大集群的,如果业务允许尽量构建多个适当规模的较小集群,或者采用大集群中构建故障域或子资源池,光大是不行的。集群扩展还面临一个棘手问题,就是容量均衡。如果存储集群容量很大,均衡是一个非常漫长而痛苦的过程,同时还会对正常的业务负载产生较大的影响。
就目前来看,超融合普遍公认的适合应用场景是桌面云、服务器虚拟化、openstack私有云、大数据分析等新型应用。理论上超融合系统可以适用于it环境的所有应用类型,但是需要注意的是,超融合系统管理虚拟化环境,而更多的传统it应用仍然运行在物理服务器和传统存储系统之上。
我们可以乐观地认为没有哪一种应用程序不能被部署在超融合基础架构上,但是考虑到运行效率、硬件依赖性以及和虚拟化环境兼容性等因素,很多it应用最好还是继续保持运行在物理硬件架构,比如数据库应用、实时控制系统以及大量遗留it系统。
最后,国内厂商在做的基本都是基于kvm、openstack、ceph等开源平台开发而来,产品的稳定性和延续性有待观察,产品和技术成熟度还欠缺大量的实践经验来验证。
部分资料来源于网络,由stratus_johnson整理编辑
本文为授权转载文章,任何人未经原授权方同意,不得复制、转载、摘编等任何方式进行使用,e-works不承担由此而产生的任何法律责任! 如有异议请及时告之,以便进行及时处理。凯发k8官网下载的联系方式:editor@e-works.net.cn tel:027-87592219/20/21。