首页> 中国专利> 用于在数据中心中提供物理分离的计算和I/O资源以实现空间和功率节约的系统

用于在数据中心中提供物理分离的计算和I/O资源以实现空间和功率节约的系统

摘要

系统和方法的实施例通过将服务器的本地I/O设备移动至与服务器的计算资源相隔开的远程位置,将I/O资源与服务器的计算资源分开,所述计算资源例如是CPU和存储器。实施例使用光学技术来实现计算资源与远程定位的I/O资源之间所需的快速通信速度。具体地,实施例使用光纤线缆和电光转换来促进计算资源与I/O资源之间的通信。计算资源和远程定位的I/O资源可以被不同地设计为允许针对计算资源的传导液体冷却和针对I/O资源的空气冷却。

著录项

  • 公开/公告号CN102844725A

    专利类型发明专利

  • 公开/公告日2012-12-26

    原文格式PDF

  • 申请/专利权人 惠普发展公司有限责任合伙企业;

    申请/专利号CN200980163213.3

  • 申请日2009-12-28

  • 分类号G06F1/32(20060101);G06F1/20(20060101);G06F13/14(20060101);

  • 代理机构72001 中国专利代理(香港)有限公司;

  • 代理人段俊峰;卢江

  • 地址 美国德克萨斯州

  • 入库时间 2023-12-18 07:51:02

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2017-01-11

    专利权的转移 IPC(主分类):G06F1/32 登记生效日:20161221 变更前: 变更后: 申请日:20091228

    专利申请权、专利权的转移

  • 2016-03-02

    授权

    授权

  • 2013-02-13

    实质审查的生效 IPC(主分类):G06F1/32 申请日:20091228

    实质审查的生效

  • 2012-12-26

    公开

    公开

说明书

背景技术

典型地,常规计算机服务器将计算资源(例如,中央处理单元(CPU)和存储器)以及输入/输出(I/O)适配器结合到数据中心中的相同外壳内。典型地,利用分开的I/O的少数系统包含一些I/O功能,所述I/O功能仍然输出仍本地捆绑于服务器的特定I/O结构(fabrics)。结果,这些硬件类型在物理上彼此靠近,并必须在呈现这种密切接近性的数据中心中被供电和冷却。

包含CPU和存储器的服务器外壳继续要求空气冷却,这是由于这些外壳结合了无法利用除空气冷却外的替换冷却方法(例如,对机架专有的热传导)而冷却的专用I/O设备和其他组件。

典型地,确实具有分开的I/O的服务器保持位于I/O设备附近,这是由于这些资源之间的I/O链路线缆连接往往是服务器本地的,并且通常不需要进一步将它们分离。

附图说明

详细描述将参照以下附图,在以下附图中,相似的标号指代相似的对象,并且在以下附图中:

图1A、1B示意了用于在数据中心中提供物理分离的计算和I/O资源以实现空间和功率节约的示例配置机架;

图2是用于在数据中心中提供物理分离的计算和I/O资源以实现空间和功率节约的示例数据中心平面布置图的顶视图;

图3是示意了用于在数据中心中提供物理分离的计算和I/O资源以实现空间和功率节约的方法的实施例的流程图;以及

图4示意了可结合用于在数据中心中提供物理分离的计算和I/O资源以实现空间和功率节约的方法使用的计算机的示例硬件组件。

具体实施方式

传统的服务器计算系统连同计算资源(即,计算硬件)一起结合了输入/输出(I/O)资源(即,I/O硬件),典型地,这是由于需要以快的速度在计算和I/O资源之间进行通信。计算资源的示例包括中央处理单元(CPU)和存储器。

系统和方法的实施例通过以下方式将I/O资源(即,硬件和设备)与服务器的计算资源(例如CPU和存储器)分开:将服务器的本地I/O设备移动至与服务器的计算资源相隔开的远程位置。实施例使用光学技术,将直接附接的IP根端口与服务器架构中的CPU和存储器分离,并实现计算资源之间所需的快速通信速度和与远程定位的I/O资源相关联的长距离。具体地,实施例使用光纤线缆(即,光缆)和电-光转换,来促进计算资源与I/O资源之间的通信。计算资源和远程定位的I/O资源可以被不同地设计为允许专用于计算资源的液体冷却和用于I/O资源的空气冷却。

此外,可以将数据中心隔离为在其冷却需求方面不同的设备场所。在隔离计算和I/O资源的情况下,可以提高计算资源的地面空间机架密度,从而提高功率和冷却效率并提供在机架级集成液体冷却的安全方式。结果,可以更高效地执行数据中心供电和冷却,从而在数据中心级节约成本。

此外,光缆可以将许多服务器连接至许多I/O设备,并使用比传统I/O结构更少的链路。I/O设备可以容纳于分离的I/O外壳中,所述I/O外壳可以使用数据中心中的传统空气冷却。在不具有使高功率CPU和存储器存在于I/O外壳中的开销的情况下,这些I/O设备将使用数据中心的传统空气冷却基础设施,而消耗更少能量。

图1A、1B和2示意了与示例空气冷却I/O机架150(图1B和2所示)物理分离的示例传导冷却计算机架110(图1A和2所示)。这些图仅出于示意目的而示出了传导冷却计算机架。本领域技术人员将认识到,同样可以应用其他类型的液体冷却。

参照图1A,示例计算机架110包括计算卷(book)120,计算卷120容纳计算硬件,例如存储器106和CPU 108。典型地,计算硬件使用比I/O硬件更多的功率,从而对计算硬件来说优选液体冷却。在分离计算和I/O硬件之后,可以通过提供中央冷却区来使用液体冷却来冷却计算硬件。具体地,计算机架110可以包括热管104,热管104将热量从主要的热发生器(例如存储器106和CPU 108)传递至中央传导液体到液体热交换器140,从而允许附接位于计算机架后部的基于机架的冷板102(即,热流板)。给中央热交换器供应冷水144,并且随着热交换温水146离开它。中央热交换器140还可以连接至利用常规风扇冷却的其他组件(例如电源148)。为了冷却这些组件,产品中的密封隔室可以被设计为提供空气的闭环路径,该空气直接进入更小的空气到液体热交换器142,该空气到液体热交换器142连接至机架后部的相同中央液体到液体热交换器。除这里详述的有效实例外,专有液体冷却机架的另一有效实例是使用独立的闭环空气调节(AC)单元,所述空气调节(AC)单元附接至单个机架且在机架的背部处收集加热空气的同时将冷空气提供给机架的前部。

参照图1A,所有计算硬件可以位于计算机架前部130,冷板102位于计算机架110的后部140。连接至远程I/O机架所需的仅有线缆位于计算机架前部130,在计算机架前部130处,发现了与外部定位的I/O资源的光通信。具体地,继续参照图1A,计算机架电光(EO)转换设备112在计算机架前部114处位于计算机架光端口114附近。计算机架光缆214(图2所示)将计算机架光端口114连接至光缆夹层240(图2所示),光缆夹层240连接至外部定位的I/O资源。结果,该系统和方法在不将液体带入服务器设备自身中的情况下在服务器机架处提供液体冷却。数据中心运营者在数据中心中优选液体冷却,这是由于运营者通常在地面上具有附着至CRAC单元但不是附着至实际电子装置的水管线路。由于所有液体冷却接口都是传导板,因此不需要快速断开。

参照1B,I/O机架150包括I/O卡152。在I/O机架的后部180处,I/O线缆182促进I/O卡152与数据中心基础设施的其他部分(例如网络设备和存储设备)之间的通信。I/O机架EO转换设备162位于I/O机架前部170处,或者可替换地位于机架后部180处,靠近I/O机架光端口164。I/O机架光缆264(图2所示)将I/O机架光端口164连接至光缆夹层240(图2所示)。针对I/O机架150使用空气冷却来冷却I/O硬件,其中,174中的冷空气被提供给机架前部170处的冷通道,并且热空气176在机架的后部180处排出。

图2是示例液体冷却数据中心室110和示例空气冷却数据中心室150的顶视图。使用计算机架光缆214、光缆夹层240和I/O机架光缆264将液体冷却室110连接至空气冷却室150。计算机架光缆214将计算机架前部130处的计算机架光端口114(图1A所示)连接至光缆夹层240。由于在包含计算机架110的室内专有地使用液体冷却,因此可以将接近通道210维持在未经调节的室温下,这允许针对冷却基础设施而更经济地使用数据中心的该部分。另一方面,针对I/O机架150使用传统的空气冷却,其中,冷通道270处于I/O机架前部170处,以及热通道280处于I/O机架后部180处。冷室空气调节(CRAC)单元290用于I/O硬件(例如,I/O卡152(图1B所示))的空气冷却。

将计算资源与I/O资源分离实现了与数据中心中的服务器设备的功率和冷却相关联的成本节约。可以围绕在数据中心的这些不同部分中部署的设备的类型而优化数据中心基础设施。例如,CPU和存储器可以置于需要极少空气运动的数据中心室中,这是由于用于该室的液体冷却管路可以移除这些类型的产品中涉及的所有热量。在相邻的室中,可以针对I/O硬件而利用常规的加热、通风和空气调节设备(HVAC)或CRAC空气调节单元。数据中心内涉及的成本节约可以用于抵消计算和I/O资源之间的光缆敷设中涉及的额外成本。

用于在数据中心中分离计算和I/O资源以实现空间和功率节约的系统的优势如下。I/O硬件与服务器的计算硬件(例如CPU和存储器)分离,从而开启了彼此分离地设计产品的机会。如果可以彼此分离地设计产品,则可以针对每个产品使用不同冷却手段。可以针对计算硬件使用液体冷却,而可以针对I/O硬件使用空气冷却,而无需将冷却方法共同加到单个产品中。该系统还便于更高效地建立数据中心基础设施,以节约服务器的功率和冷却的成本。在没有I/O硬件的情况下,服务器在数据中心中使用更少的地面空间,从而节约数据中心运营者的电、设备和设施成本。

当使用中央热交换器140来对系统进行传导冷却时,该系统在不将液体带入到与计算硬件自身相同的外壳中的情况下在机架级提供液体冷却。不需要快速断开,这是由于所有液体冷却接口都是传导板(即,冷板102)。将液体冷却采用到计算机架110中可以更有利,并可以得到对数据中心客户来说更快的部署和更快的节约。

此外,使用交换通信结构将远程I/O设备连接至服务器,这通过将许多服务器连接至许多I/O设备而更通用。结果,数据中心运营者具有更多的自由来将服务器与较长距离处的I/O设备分离,并将不同设备分到数据中心的不同场所。

图3是示意了用于在数据中心中提供物理分离的计算和I/O资源以实现空间和功率节约的方法300的实施例的流程图。方法300开始302于以下操作:将液体冷却专有地应用于位于服务器基础设施的计算机架处的一个或多个计算设备(框310)。方法300将空气冷却应用于位于I/O机架处的一个或多个I/O设备,该I/O机架远离计算机架定位(框320)。方法300使用计算机架前部的一个或多个计算机架EO转换设备将该一个或多个计算设备连接至光缆(框330)。方法300还使用I/O机架前部的一个或多个I/O机架EO转换设备将I/O设备连接至所述光缆(框340)。方法300结束于框350。

图4示意了可结合用于在数据中心中提供物理分离的计算和输入/输出资源以实现空间和功率节约的方法使用的计算机的示例硬件组件。该计算机具有专有液体冷却机架440和空气冷却机架432、434。专有液体冷却机架440包含具有外部输入/输出的服务器444,典型地,该服务器包括存储器402、处理器414、I/O结构设备446和网络结构设备448。空气冷却机架432包含外部输入/输出产品420,典型地,外部输入/输出产品420包括输入/输出结构设备436和输入/输出卡408。空气冷却机架434包括辅助存储设备412、常规服务器410以及输入和显示设备416。可以使用网络418(例如,因特网或者其他类型的计算机或电话网络),将辅助存储设备412、常规服务器410、输入和显示设备416、输入/输出卡408和网络结构设备相连接。可以使用光输入/输出结构450,将专有液体冷却机架440上的输入/输出结构设备446和空气冷却机架432上的输入/输出结构设备436相连接。

存储器402可以包括随机存取存储器(RAM)或类似类型的存储器。辅助存储设备412可以包括硬盘驱动器、软盘驱动器、CD-ROM驱动器、闪存或者其他类型的非易失性数据存储设备,并可以与各种数据库或其他资源相对应。处理器414可以执行实现这里描述的方法步骤的指令。这些指令可以存储在存储器402、辅助存储设备412中或者从因特网或其他网络接收。输入和显示设备416可以分别包括用于将数据输入到计算机400中的任何设备(例如,键盘、键区、光标控制设备、触摸屏(可能具有触笔)或麦克风)以及用于呈现视觉图像的任何类型的设备(诸如例如,计算机监视器、平面屏幕显示器或显示面板)。与输入/输出卡408相连接的输出设备可以包括用于以硬拷贝格式呈现数据的任何类型的设备(例如,打印机)以及其他类型的输出设备,包括扬声器或者用于以音频形式提供数据的任何设备。可能地,该计算机可以包括多个输入设备、输出设备和显示设备。

尽管计算机被示为具有各个组件,但是本领域技术人员将认识到,计算机可以包含附加或不同的组件。此外,尽管符合用于在数据中心中提供物理分离的计算和I/O资源以实现空间和功率节约的方法的实现方式的方面被描述为存储在存储器中,但是本领域技术人员将认识到,这些方面也可以存储在其他类型的计算机程序产品或计算机可读介质(例如辅助存储设备)上或从其读取,所述计算机程序产品或计算机可读介质包括硬盘、软盘或CD-ROM;或者其他形式的RAM或ROM。计算机可读介质可以包括用于控制计算机执行特定方法的指令。

这里使用的术语和描述是仅作为示意而阐述的,并不意在限制。本领域技术人员将意识到,在以下权利要求及其等效物中限定的本发明的精神和范围内,许多变型是可能的,其中应当在可能的最宽意义上理解所有术语,除非另外指明。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号