/ 中存储网

现代数据中心:朝着高密度挺进

2015-07-11 21:06:06 来源:中存储

完善的规划能够最大化高密度计算收益并最小化潜在风险。

现代数据中心Data Center正深深地感受到密集计算所带来的影响。计算硬件、系统、虚拟化、网络策略和支持技术不断发展,更高的计算性能可以被配置在与几年前一样的物理空间架构内。提高密度有助于降低采购成本与能耗。但高密度计算同样也存在一部分问题,诸如潜在的管理挑战与更高的硬件依赖。

下一代数据中心Data Center规模会缩小得更厉害,IT专业人员一定要向前看,在受益于更高计算密度时,降低相关风险与问题。

空前密集的硬件

没有什么比高密度对计算硬件,如服务器、网络与存储设备部署的影响更明显了。想想传统处理器的密度。单核、双核以及四核处理器已经让位给八核甚至更多核的组件。举个例子Intel Xeon E7-8857提供了12个核心,而Xeon E7-8880L提供了15核。这样对诸如IBM System x3850 X6的四插槽服务器,可配置最高达60处理器核心,部署数十台虚拟机。甚至如PowerEdge M620都可以支持两个 Xeon E5-2695 12核处理器,达到每刀片24核。

这一趋势同样也蔓延到服务器内存。内存模块充满了新功能,机架式服务器内存可以根据模块与功能选型(如备用内存、内存镜像等功能),扩展到128GB至超过1TB的容量。刀片服务器通常的内存规模为每刀片32GB到64GB总容量。当然,内存还可以通过使用相同型号的刀片机箱存储器快速增加,可支持6、8甚至更多刀片。

存储也变得越大越快,内存与存储之间的界限变得越来越模糊,而且闪存宣称其将在服务器架构中占据一个永久地位。比如,固态硬盘(SSD)设备已经在高性能存储层(有时候也被称为第0层)扮演着新角色,它采用传统的SATA/SAS硬盘接口,容量规模从100GB到1TB.

为了更好的存储性能,服务器可以选配基于PCIe固态硬盘加速器(SSA)的设备,如Fusion-io的ioDrive2产品,每单元可以配置高达3TB闪存存储。当峰值存储性能成为关键时,IT专家们开始考虑TB级别的内存通道存储(MCS)设备,如Diablo Technologies DDR3闪存存储模块,该产品可以配合常规DIMM内存模块共享内存使用。这个爆炸性的革命数据中心Data Center硬件并不完美。举个例子,增加高端内存容量会增加服务器成本,并降低性能。

类似性能损失同样发生在采用非内置内存刀片服务器上,因为数据传输需要通过整个背板而有所延时。IT专家说,这种潜在问题正使传统系统的性能瓶颈从CPU扩展限制转向内存与存储问题,而且资源分配策略一定要修改,以不断适应诸如数据中心Data Center密度增加的各种变化。

“我们最近要面对的新问题是管理存储层的IOPS,”Reach IPS公司IT主管兼顾问委员会成员Tim Noble说,他还指出在虚拟机管理程序层,使用厚存储配置与自动精简配置会引发存储缓存问题,进而需要对存储层级进行重新划分。

“当挂起写缓存满了,所有连接到阵列上的系统都可能崩溃或需要恢复,”Noble说。不过,尽管存有潜在隐患,潜台词是明确无误的:先进的硬件与虚拟化组合,可以让更多的工作负载在更少的服务器与更小空间内运行。

“我正在规划新的数据中心Data Center,所有业务都将只运行在一个单刀片机箱上,”Magpul Industries Corp.公司的IT主管Chris Steffen说,“其中将包含近200个虚拟机,内部网络与SAN都将放入一个机架。十年前,这样的规模需要近2000平方英尺数据中心Data Center空间。”

更高的带宽与连接性

讨论数据中心Data Center密度一定要包括网络的发展。传统以太网速度已经能够达到10GbE、40GbE甚至100GbE,仅有少数组织采用更快的标准——而且主要用于超大规模数据中心Data Center的网络骨干上。“我实在不明白升级到更快的传统以太网有什么好处,”Steffen说,“这些钱可以更好地花在企业其他投资上。”

相反,大多数数据中心Data Center持续采用各服务器1GbE的部署解决方案,着眼于更大的服务器连通性与网路虚拟化。举个例子IBM System X3950 X6提供两个扩展槽,可以容纳多个网络适配器,如两个4*1千兆以太网是配置(每台服务器最多可以配置8个1GbE以太网端口)。同样大多数常规机架服务器都可以安装基于PCIe的多端口网卡。当服务器承载大量虚拟机时,通常才会去增加网络端口数量,而不是升级更快标准的以太网卡。多端口可以提升服务器可靠性,防止出现单点故障影响网络连通性。每个网卡通常都配置在不一样交换机上,确保不会因为交换机故障而影响所有通信。不仅如此,多个网卡可以通过绑定技术来提供更高带宽,以满足工作负载需要。多网络接口还可以实现故障切换,允许工作负载在某个端口货交换机故障时,切换到可用的网口或交换机上。

另外两个新兴技术将影响数据中心Data Center网络密度与管理,“软件定义网络(SDN)与网络功能虚拟化(NFV)。SDN将交换机逻辑与交换机端口去耦合,允许对交换机进行集中行为分析、控制并(在理想情况下)优化。网络可以”学习“更有效或更高效的网络通信路径,并修改交换机配置实现变更。若实施得当,SDN的交通流量优化可以实现在没有更大带宽的条件下细分流量,提高网络利用率。

通过比较,NFV利用标准服务器与交换机,使用虚拟化模拟复杂网络功能或应用程序。NFV可以提供包括网络地址转换(NAT)、域名服务(DNS)、防火墙、入侵检测与防御以及缓存等功能。其目标是利用服务器的标准功能,替代昂贵的专有网络设备,并实现快速部署与可扩展,这些功能非常适用于新兴云计算和其他自助服务环境。

撇开网速复杂性,配置对于确保日益密集的网络连接最佳性能是十分重要的。“服务器与交换机之间的配置不当,可能造成了性能问题或更糟,”Noble说,这一影响在工作负载迁移到更高性能服务器或计算高峰期需要额外资源时,会变得尤其突出。

如何散热

随着数据中心Data Center密度增加,IT专家们开始遇到由计算热点或不良通风而造成的发热问题。不过,现代数据中心Data Center很少遇到发热问题——这主要归因于过去几年中所开发的能源效率与热量管理技术。关键因素之一就是现代服务器与计算组件经过改良设计。以处理器为例,它通常是发热最高的部件之一,但新型处理器设计与模具制造技术基本能够保持处理器温度持平,即使核心数成倍增加也不受影响。我们以Intel Xeon E7-4809六核处理器为例,功耗为105瓦特,而Xeon E7-8880L 15核处理器功耗同样为105瓦特。提高时钟率到最快的Xeon E7-4890 15核处理器最高能耗也仅有155瓦特。

同时,数据中心Data Center运营温度也有所提升,因为IT人员发现数据中心Data Center温度在80或90华氏度时,对设备运行并没有任何明显影响。为了应付更高温度,服务器的热管理设计也有进一步改善,加入了热传感器与主动变速散热系统,从各个单元带走热量。“最密集的硬件平台移动空气就像喷气发动机一样,以此确保其冷却,”Steffen说。

虚拟化是对让热量从服务器中移出的完美补充,可以大大降低整体服务器数量,以此也降低了需要从数据中心Data Center内排出的空气总量。类似VMware的分布式资源调度程序(DRS)与分布式电源管理(DPM)技术甚至可以根据需求在服务器之间移动负载,关闭不需要的服务器。最终结果是,数据中心Data Center不再依赖于庞大、耗电的机械空调系统,不需要为巨大空间内满负荷运行的硬件进行冷却。相反,高整合度的系统有利于容器与冷却基础设施更有效地冷却机架,甚至可以采用机架内冷却单元。

这样的整合与衔接也并非完美,IT专家指出,糟糕的设计与改造可能产生无法预料的热点。“即使是四级数据中心Data Center,也无法保证其设计的100%正确、减轻冷却等经营风险,”Noble说。随着数据中心Data Center密度上升,监控系统与数据中心Data Center基础设施管理(DCIM)技术在确保热管理、能效与资源使用效益计算上就能产生客观的价值了。

注意软件授权限制

数据中心Data Center的密度肯定会增加,因为虚拟化可以最大化利用先进的X86和ARM处理器。不过,专家也指出,硬件的密度与可用率可能受到软件授权限制,而且存在软件维护周期的限制。

“虚拟化服务器会消耗更多软件许可,因为它们更容易启动,保持未使用的情况还可能更长,”Noble说,“但它们仍然需要软件维护和补丁更新,不管它们是否有在使用。”随着数据中心Data Center增长与工作负载密度增加,许可授权与补丁通常可以通过系统管理工具解决,这些工具还可以协助IT人员进行虚拟机生命周期与补丁管理,缓解工作压力。