• 美文
  • 文章
  • 散文
  • 日记
  • 诗歌
  • 小说
  • 故事
  • 句子
  • 作文
  • 签名
  • 祝福语
  • 情书
  • 范文
  • 读后感
  • 文学百科
  • 当前位置: 柠檬阅读网 > 故事 > 正文

    数据中心的虚拟化通过什么实现_数据中心实现PUE,1.25的秘诀

    时间:2019-04-26 03:17:08 来源:柠檬阅读网 本文已影响 柠檬阅读网手机站

      节能降耗一直是大型数据中心最为关注的方面之一。在为企业打造绿色数据中心的同时,一些IT厂商自身的数据中心运营、管理和改造经验状况也从一个侧面为企业提供了参考价值。在北京的中关村软件园内就坐落着IBM亚太区最大的绿色数据中心——IBM中国系统中心,它的能效指标PUE就从原来的1.77降低了到了1.25。
      每年节省100万
      据悉, 作为IBM全球五大客户中心之一的IBM中国系统中心,自2005年投入使用以来,其4个数据中心的IT设备数量成倍数增长;每天的电费开支都高达1.2万元;数据中心主机房以及500kW UPS的供电都已接近饱和;空调设备因大厦变压器供电限制而无法扩容。
      面对种种难题,IBM对系统中心进行了系列改造。通过用电管理软件获得对能源使用的有效控制;使用新型的冷却技术和方案;实施虚拟化和其它创新技术,提高数据中心的能源效率。经过绿色数据中心项目改造,在满足IT不断增长的业务需求同时保障数据中心正常运行的情况下,IBM中国系统中心PUE从1.77降至最低1.25左右,每年节约运行成本大约100万元。
      IBM全球数据中心项目总监Allan Hoeft 透露,IBM在美国纽约附近Poughkeepsie的数据中心,由于直接通过河水进行冷却,PUE值可以达到1.19。IBM在印度Bangalore的数据中心则大量利用太阳能技术,有力地支持了IT设备供电。当然,一般数据中心的选址并没有天然的地理优势。这样看来,位于北京的IBM中国系统中心就显得尤其具备参考价值。那么,它都使用了哪些节能技术呢?
      降低IT设备本身能耗
      要对数据中心能效进行优化,首要就要知道能量都消耗在哪些地方。数据中心的电力大多消耗在了UPS和散热等非IT设备之上(55%),真正用于IT设备的耗电大约在45%左右。而在这之中,处理器只消耗了IT设备耗电的30%,即使这样,处理器大部分情况下仍是处于闲置,真正应用到业务的耗电只占小部分。在每个环节,不管是硬件设计、服务器整体设计、机房设计还是系统管理方面,都有很大的空间来帮助数据中心提高能效。
      Allan Hoeft表示,例如在IT设备节电方面,一台普通的Power服务器可以代替40多台x86服务器,在空间、能耗、管理成本,甚至软件成本上均优于x86服务器。Power服务器本身有多种节电模式可供选择,例如偏向性能的节电,偏向能效的节电等。此外,IBM的动态能耗管理软件还可以对Power6和Power7系列服务器的业务繁忙程度进行分析,自动调节CPU的频率、风扇的转速、硬盘的转速等,在保证业务不受影响的情况下达到节电的目的。
      专利技术解决热点问题
      由于机房内设备布局不合理而产生数据中心热点的问题是较为常见的现象。在这种情况下,通过降低整个机房的温度来解决热点问题明显是不适宜的,那么在这种情况下就需要一些特殊的技术。首先需要及时查找热点的准确位置,如果通过调整布局无法有效改善,再加上该台设备本身就是核心设备且耗电量和散热量巨大,就需要采取单点制冷技术。
      为此,IBM发明了创新技术MMT(移动测量技术),这是IBM绿色创新工程的科研成果,用来优化数据中心的热量分布以消除热点,并减少能耗。 MMT被装在具有多层传感器的移动小车上,它抽取温度样本,依靠传感器定位,可以在短时间内能完成数据中心的测量,最终通过后处理生成三维的数据中心热成像图,并从数据中心的温度,湿度,气流,空调,能耗等方面详细分析了数据中心的环境状况,提出最优化的方案。 据悉,MMT测试分析的工作流程主要分为三个阶段: 一,MMT测试设备测量数据中心散热和气流分布状况,并用专业工具了解IT和基础实施设备的能耗分布;二,记录并检查收集到的所有数据,通过后处理数据分析软件形成数据中心热成像图,湿度分布图和风量分布图,并统计配电柜功耗实测表,了解电力分配情况;三,通过MMT测量与分析技术的评估,找出热点所在的具体位置,分析热点产生的原因,了解用电分配情况并分析其合理性,评估空调利用率和计算冷空气的有效利用情况,最后提出高效节能的改造方案。
      而针对一些产生热量较大的大型IT设备,就可以应用IBM的冷水热交换背板技术。这是一种解决数据中心局部热点的有效而经济的方案,热交换水冷背板约5厘米厚,面板是通冷水的滤网,内部全部采用很细的特质无缝空心钢管,并与建筑物的冷水循环系统相结合,特殊处理的冷水流过背板中的钢管直接,并将IT设备产生的热量带走。它最大的好处是,不用电,没有风扇,在设备热量进入机房之前就用水给带走,为机房内的所有制冷设施减轻压力,消除机房设备单点的热点问题。
      传统观念认为机房的温度应该越低越好,甚至每个地方的温度都应该很低,但经过美国采暖工业协会及专家测试发现,只有IT设备的入口温度才是衡量数据中心温度的最为重要的指标,一味地降低整体数据中心温度还会造成PUE值的上升。而气流遏制系统就是将冷空气和热空气分别隔离,所谓机房中常说的冷热通道,来保证冷热空气不会混合,提供给IT设备更安全、更有效的环境。
      IBM中国系统中心还采用了冷热通道封闭设计方式。采用专门技术的透明材质将IT设施顶部和侧部的空隙间隔封闭,而这种特殊材质在遇到火警等紧急情况下会自动脱落,不会对机房的特殊措施产生影响。热通道的密封设计使得IT设备产生的热量不会外溢,影响整个机房温度。
      此外,还有很多细节设计。比如针对每台IT设备的地板送风孔大小不一,有的地板甚至可以自动调节送风孔大小。还包括数据中心的UPS电源等,比如IBM中国系统中心就使用了施耐德电气公司集成系统,模块化UPS。从整体设计、监控到细节设计,只有系统地看待数据中心才能降低PUE值,实现绿色节能。

    相关热词搜索: 数据中心 秘诀 PUE

    • 文学百科
    • 故事大全
    • 优美句子
    • 范文
    • 美文
    • 散文
    • 小说文章