比特观察:九大节能型数据中心案例概览

  • 风力发电数据中心

    伊利诺伊州的一个小型LSP和托管公司可能是美国第一个完全利用现场涡轮风力发电的数据中心运营商。2009年10月19日,Other World Computing (OWC)开始使用131英尺高的风力涡轮机,给伊利诺伊州的伍德斯托克所有的建筑提供电力供应。德克萨斯州启动了Baryonyx计划,准备在德克萨斯州和墨西哥湾建立一个能源动力来自巨大的“风力发电场”的数据中心----28,000平方英尺的数据中心,这个数据中心将由临近地区的100个风力涡轮提供电源,100个涡轮将产生高达150兆瓦的动力。 【详情】

    点评:OWC称涡轮的成本约125万美元,需要运行10至14年才能收回成本。如果风能发电的成本能够降下来,大家自然愿意选择风能发电,再也不用在长期利益和眼前利益中间苦苦挣扎。

  • 用数据中心余热为市民供热水

    赫尔辛基公共能源公司Helsingin Energia将回收一个新的数据中心的热量,来为芬兰首都赫尔辛基市提供热水。这个回收的热量来自于IT和电信服务公司Academica建造的数据中心,今年夏季产生的全部能源占Helsingin Energia系统产生的总能源的大约1%。这个数据中心位于一个陈旧的炸弹掩体中并且连接到Helsingin Energia的地区供热系统。这个供热系统通过一个管道系统把热水传送到赫尔辛基的家庭。

    冷水经过数据中心冷却设备,变热,然后流向水泵,之后热水被送到地区供热系统。如果芬兰的全部数据中心都采用这个技术,他们就能够为一个中等规模的芬兰城市供电。【详情】

    点评:多多开发数据中心的可利用资源,它们将不再是污染源,反而“浑身都是宝”。

  • “筒仓”数据中心

    这个大概算是我们见过的最不寻常的数据中心设计图。图中所示的是位于加拿大魁北克省的CLUMEQ超级计算中心。这个“筒仓”65英尺高,36英尺宽,两英尺厚的混凝土墙。数据中心的机架分布在三个楼层,交换机安装在二层,目的是使电缆尽可能的短。CLUMEQ Colossus的特点是在这座建筑的中心有个“热核”(不同于热通道),机柜面对该圆柱形建筑的外侧排列在各层,呈圆形。每个楼层地板不同于普通数据中心的实木地板,而是类似炉篦形的,方便冷却气流通过。冷却和空气处理设施安放在地下室。冷却气流向上通过外冷通道,穿过服务器机架。废热从机架后方进入热核,然后通过冷通道返回到地下室。【详情】

    点评:想起了经济频道《交换空间》的旧物改造。

  • 地下数据中心

    美国铁山公司的地下数据中心:在这,数据中心的冷却依靠的是石灰岩墙壁和天花板上直径为36英寸的红色螺旋管道。HVAC系统使用的是洞穴内部数百英亩地下湖中的湖水。服务器机架被成排的装在矩形的金属容器内,这些金属容器可以聚集服务器产生的热量,将这些热量向上传递给带有小孔的天花板,55华氏度的石灰岩天花板将吸收这些热量。

    每平方英尺的石灰岩可以吸收1.5 BTU(英制热单位)。这里甚至还有咖啡馆和消防部门,交通工具是高尔夫球车。【详情】

    点评:常年在地下不晒太阳不知道会不会缺钙?呵呵。不过利用石灰岩吸收数据中心的热量,这想法还真是别出心裁!

  • 微软都柏林数据中心如何制冷

    微软建在都柏林的新数据中心称得上是数据中心设计的里程碑。该数据中心将给予微软云计算以有力支持,而且相比其他同等规模数据中心,它也会大大减少能源和水的消耗。都柏林中心PUE值(Power Usage Effectiveness)为1.25,而行业平均值在2.0左右。微软其他数据中心的PUE值为1.6。

    都柏林年平均温度在-5到27摄氏度之间,基本上他们全年都可以采用free-cooling为数据中心降温。如果气温超出了这个范围,或者附近突发火灾、空气污染之类的,他们就会启动冷水机组来替代自然风冷。【详情】

    点评:跟前面谷歌的无空调数据中心有点像,都是用自然风冷却。

  • 谷歌比利时 没有空调的数据中心

    谷歌比利时的GOOG数据中心竟然没有空调!根据谷歌公司工程师的说法,比利时的气候几乎可以全年支持免费的冷却,平均每年只有7天气温不符合免费冷却系统的要求。夏季布鲁塞尔最高气温达到66至71摄氏度,然而谷歌数据中心的温度超过80摄氏度。

      也许你会想,如果气高变高会发生什么情况呢?在气温较高的那些天中,谷歌表示,他们将关闭比利时所需的设备,将计算负载转移到其他数据中心。由于谷歌在全球网络都分布有数据中心,这一做法成为可能。全球的数据中心帮助谷歌将某个地区的整个数据中心的工作量转移到其他设施中。 【详情】

    点评:数据中心里没有空调 这竟然真的!

  • 谷歌庞大数据中心的制冷策略

    创新机架制冷设计的显著特征是有一个可调整的管道系统。该系统中装有AirWands(“空气魔杖”),它们在服务器托盘内给发热组件提供少量的冷空气。冷空气通过两个垂直的储水塔进入机架顶部,然后分开进入Air Wands(这个Air Wands是细长的管道),同时通风口释放冷空气。 左图画出了在一个冷却通道里面冷却孔的位置。可以通过打开或关闭每个储水塔的气流调节器来调节进入管道内的气流。 谷歌使用数据中心容器隔离热、冷空气,从而可以更好的控制----从气流到服务器。Air Wands可以在服务器的托盘内直接让冷空气达到“热点”,这也就意味着冷空气浪费的更少,也不会被误导进入整个服务器空间。这样数据中心就可以使用较小的冷(热)水机组,从而节省了很多能量。 【详情】

    点评:一般这种技术是不会轻易透露给别人,“商业秘密”。

  • Facebook开展节约型数据中心

    一个新的配电设计,这个配电设计免除了传统的数据中心不间断电源(UPS)和数据中心配电单元(PDUs)。 新设计把数据中心的UPS和电池备份功能转移到储藏柜,每个服务器电力供应增加了一个12伏的电池。电源使用效率(PUE)额定值在1.1到1.2之间。
    Facebook网站拆掉了一些服务器,并指出:“我们更希望有一台外观并不漂亮的服务器......我们可以删除主板本身的连接器和大量的费用。这样可以在消除视频卡的形式,消除不需要的磁盘连接,和不能给我们提供任何功能的PCIe连接器。”跟前面几家提到的公司一样,Facebook也在使用自然冷却策略----利用的是新鲜空气,而不是凉水冷却服务器。【详情】

    点评:网站应用一般来说对设备的品牌要求并不高,还是更重价格。

  • 微软芝加哥数据中心

    微软位于美国芝加哥的数据中心占地700000平方英尺(约6.5万平方米),第一层看起来就像一个大的室内停车场,这里停放着很多大型的挂车,微软云计算服务的关键就在这些挂车里,每个集装箱可以容纳1800至2500台服务器,为电子邮件、即时信息以及微软的云计算操作系统Windows Azure提供服务。

    数据中心的第二层有四个传统的活动地板服务器存放室,每个大约有12000平方英尺(1115平方米),平均消耗3兆瓦电力。虽然目前该数据中心只有一半的设备可以使用,不过其功率可达30兆瓦。气温较高时,微软通过7.5英里(约12公里)的管道提供冷冻水保证数据中心的低温。【详情】

    点评:微软跟惠普的合作里提到惠普将为微软Azure云计算提供设备,集装箱里的Dell恐怕要换成HP了吧。

推荐幻灯片

2009安全大事回顾及点评 SAP活力企业“漫谈”之穿越云端 布局人工智能时代,软件企业“放大招” 路由器配置全攻略 IBM Db2面向数字化的无边界数据库软件 IBM社交协作解决方案带来工作新“简”法 打造活力企业:中小企业的数字化转型之道 BI要不要上云,每个CIO心里都有一本账 当管理软件走向后端,云成为新的竞技场 2016,企业级SaaS如何“荒野求生”? 监控真实用户访问体验,企业需要借一双“慧眼“ 2015惠普软件DevOps大会专题 H3 BPM正在掀起一场自上而下的管理创新浪潮 第十三届中国国际软件和信息服务交易会_直播 2015用友优普企业空间2.0发布会现场直播

评论