第二届中国IDC产业年度大典(北京 2008年1月16日) 第一届大典回顾 中国IDC产业发展调查组委会官方网站

中国IDC圈
 您现在的位置:中国IDC圈 >> 第二届中国IDC产业年度大典

世纪互联总裁雷紫东:绿色IDC引领产业未来

来源:中国IDC圈 时间:2008-1-16 作者:Star 保存本文 进入论坛 

  中国IDC圈1月16日报道:由中国IDC圈和赛迪顾问联合主办第二届中国IDC产业年度大典正在北京新世纪日航饭店热烈进行,中国IDC圈作为大会的主办方,将为大家进行现场视频\图文直播.
  雷紫东:各位来宾、各位客户、我们的朋友、女士们、先生们,上午好!

  今天的大会主题4个字,“绿色”、“创新”。那么围绕着4个字,接下来我想和大家分享一下世纪互联的体验。那么我的题目叫做“绿色IDC引领产业的未来”。那么上来,我们先用央视的片子引出我们今天发言的内容。(播放新闻联播VCR)

  实际上节能减排的行动计划是在06年的9月1日在人民大会堂发布启动的,那么整个的IDC行业是一个能源消耗的大户,因此在能源危机和成本压力之下,作为这样的服务商,到底怎么样考虑问题和认识?那么我想举几个数据。

  一个是说现在媒体石油的价格已经涨到了100美金,那么全球的能源的消耗不断地在持续地增长。那么,在数据中心方面,我们可以看到,全球的年度能源消耗的成本是72亿美金。那么,按照资深的著名美国IDC顾问公司的统计,每一个电脑的硬件成本的花销,也就是说1美金电脑的背后,你要支出大概有0.5美元的能源消耗的费用。那么到2011年的时候,这个费用会升值到0.71美元。那么也就是说,其实还是我原来在不同的场合讲过的,当一个所谓的服务商,他只要用到计算机、服务器,他一次性的投入是有限的,真正的费用是在他后面的运营体系里面的费用。因此,这方面能源消耗的支出是非常非常重要的一方面,要给予高度的重视。

  那么我想,既然有这么大的问题,也就是说,面临这样严重的挑战。那么,我们绿色IDC是不是大势所趋呢?我们认为是。为什么这么讲呢?我们来看世界几个著名的IT的巨头他们在做什么。

  那么IBM是提出了绿色巨人计划,那么他会在全球800万平方英尺的数据中心里面进行改造。就是希望把每一年年度电力的消耗降至5亿度。那么数据中心的处理能力,还要翻2倍以上。那么惠普是推出了绿色数据中心的改造方案,希望到2010年的时候,产品的耗电量可以下降20%.那么微软把自己的1万台服务器的数据中心建立在西伯利亚,除了西伯利亚这个地方的电费便宜以外,更重要的是考虑到这个地方的气候常年低温。那么具体的耗电当中,空调的耗电会吃掉多少电力,在整个的数据中心里面。

  那么作为世纪互联已经走过了将近12个年头,那么开展数据业务而言,我们是从99年底。那么到现在,也已经有了7、8年的历程。那么我们觉得,对于传统的数据中心,其实为了简化,实际上这是对过去7、8年数据中心设计的情况,进行能源的分析。那么当时在2000年左右的时候,所有数据中心电力的能源设计是有限的,因为当时的台数,服务器每台的耗电能力都是有限的。随着服务器的不断地增长,那么再加上原来设计的能力,在今天所谓过去7年前的数据中心里面,供电能力是做不到按需分配,这是一个问题。第二个,在过去的数据中心里面,大多数采用了上送风的方式。那么上送风方式里面追求的是什么?追求的是平均问题。那么这对于高密度服务器的散热问题是无法做到的,因为局部是高热量,怎么样通过上送风解决?后来从上送风转到了下送风,那么还有问题。那么在下送风里面,尽管对于原来的上送风方式进行了改变,但是依然不能彻底地改变所谓的散热问题。这和空调的回风方式有关系,那么空调我们下面有数据来表示。

  那么在前面这个图里面,实际上我想讲到的,不管过去所有的机柜的排列方式是门朝一个方向,还是改进到了背靠背。总之,当你所谓的热气流和冷气流是混合的时候,是有很大的能耗的损失。那么,这是一个示意图。这代表了冷气和热气的混合,不能有效地做到对整个机柜进行降温。

  那么这个里面可以看到,在这个柱状的是指整个的冷却系统,就是空调系统所吃掉的数据中心的电力大概占到了33%到35%左右。次之的蓝颜色的柱子是代表着服务器,还有这个是UPS.所以,在整个的耗电量的分配上面,其实由这三项把数据中心的电力吃掉了。

  那么我们想,如何做到节能?如何能够降耗节能?首先是要有节能的意识,另外与技术创新进行密切的结合。那么从目前来看,世纪互联也是一直跟踪目前国际上的最高标准。就是说,相当于美国的计算机的机房的标准叫做924-2005  TIER4.那么在去年年底我们开始建造新的机房,叫做M5,这是遵从国际最高的标准,最送风口等都有很高的规定。那么在技术标准以及技术标准的细节上如何做进一步的创新?这是世纪互联通过去年做了大量的实践,总结过去的经验教训,那么在国际标准的指导之下,做出的一个我们新的机房。同时,节能是你所有的设备要采用节能型的设备。

  因为时间有限,我不可能把M5的机房给大家详细地介绍,但是我想,讲几个硬的指标。

  第一个,我说这个题目叫做保障运营按需供电。那么前面谈到了过去的数据中心电量是受限的。那么这次我们M5的双路电压提供,同时有真正的双路的UPS支撑。那么过去都号称说是双路供电,其实我们仔细分析的时候,UPS是有N+1的配置,但是它是通过把这个电源送到机柜来的时候,是两路送过来的,但是电源本身不是双路的。那么我们M5的机房是把N+1再×2,那么所有的电源在任何的情况下,要做到4个9以上。也就是说,这里面非常重要的指标,当任何一路UPS出现问题的时候,另外一路可以承载起所有的数据中心电力的供应,这是非常硬的硬件指标。

  第二个,我们在整个的电力供应商,我这里说,标配是4000伏安。我们可以按需分配供应到15千伏安,就是68个安培。那么一台刀片服务器的能量可以烧到20到30个安培的时候,至少机柜里面可以架上2、3个刀片服务器,向于几十台服务器了。那么这些,我想是作为M5数据中心一个非常重要的特点,但是我觉得这只是电力供应,其实我们文章做到什么地方?是做到所谓的精确制冷,我们要省电节能。

  因为刚才说了,空调系统会吃掉整个数据中心电力供应35%的电力。在这个上面挖掘,才会挖出东西来。所以,第一个采用冷冻水的空调系统,那么就是比起过去的空调,能够节省10%以上的电力。那么室外的空气,如果温度到了零度的时候,那么制冷的机组会关闭,采用板式的换热进行,也可以在此基础上把能源消耗降低50%.那么,我们是注重了非常非常细的细节,包括冷冻水的通路,也都是做了很多的文章。也就是说,当任何一个地方的管子出现问题的时候,它可以被截流,通过其他的循环送过去冷气。

  还有,还有地板的格栅。我们M5的机房如果是几千平米的机房,那么它下面有50%的地板面积。那么我们可以通过冷热通道把散热做出来,我们要对冷热通道进行隔离,不能让它混合在一起。因此,我们追求的是机柜的平均温度或者是保证机柜的温度。

  那么另外一点,我想世纪互联在07年里面做了三件大事。一件事是我刚才说的,我们在本月第左右会正式提供M5机房的服务。同时,我们追溯历史,在01年我加入世纪互联,到03年我们用了近2年的时间做了研究,我们做了集装箱式的数据中心的研究。同时,在03年获得了国家知识产权颁布的有关集装箱式数据中心的专利。那么这一点,除了有庞大的用户需要支持以外,用户同时还需要有快速、便利的基础设施提供。如果把一个基础设施小型化、专业化、标准化的话,就可以满足更多不同用户的需求。

  那么世纪互联07年做了三件事,一件事是建设了新的M5的机房,第二件事是我们走出了北京,面向全国。就是以北京、上海、广州为中心,形成了华北、华东、华南三个中心区域,来满足我们的客户不断对全国性资源的需求以及服务的要求。第三件事是说世纪互联从99年底开始做数据中心,经过7个年头的历程,应当是非常艰辛的历程。那么我们意识到,光靠基础设施的服务是不够的,要在所谓的应用设施方面做文章。所以,我们大概从06年底,到过的1年多里面,我们形成了一个近60个人的软件队伍,来做我们的CDN.因此,通过1年的努力,我们以北京九仙桥机房的BGP网络为核心节点,部署的全国的核心系统。同时,通过我们的自主研发,我们获得了自主知识产权的CDN的软件系统。那么我们世纪互联走出中国,面向世界的时候,我们在整体的情况之下,我想CDN的整体服务,作为后来者可能有后发优势的特点。那么,特别是在这一次我们在国务院兴办关于海外CDN的项目招标当中,我们获得了这个项目。

[1] [2] 下一页  

【责任编辑:Star】

最新推荐  
 经济危机下 企业邮箱应用走俏
 亿恩联通GDC数据中心机房 打造国内最专业的
 美橙建站宝典系列:域名陷阱见招拆招(一)
 热烈祝贺五舟销售第一台Nehelam架构的服务器
 博鳌论坛聚焦互联网经济 电子商务逆势看好
 演绎“水泥+鼠标”新模式 建站基石先稳好
 世纪互联云计算正式商用 落地IDC行业
 第三届中国制造业CIO年会在京隆重召开
 防止网页木马  如何加强网站安全后盾
 高性价比服务器主板华硕P5BV-C-2L震撼上市
相关文章  
世纪互联商标纠纷终判 IDC需重视品牌保
捍世纪互联招牌 IDC商标侵权第一案落定
北京世纪互联对品牌纠纷案发表法律声明
海量样本打造精准CDN检测平台
风速视野 世纪互联助力视频流媒体服务
世纪互联CDN与AdobeFMS3.5技术研讨会
绿盟科技再次赴旧金山参加RSA 2009大会
创世纪:迎接IDC云时代的来临
CloudEx引领“云计算”公用化新时代
世纪互联重拳出击  CDN市场多极化时代来
 文章评论