揭秘阿里巴巴绿色数据中心黑科技:模块化设计、天巡机器人、液冷服务器……

2020-03-13
[摘要]

近日有媒体报道,阿里巴巴已经成为国内首个达成国家绿色数据中心标准的科技公司,所有自研数据中心平均PUE低于1.3。PUE(PowerUsageEffectiveness,电源使用效率)是衡量数据中心电力能源利用率的国际通... […]

近日有媒体报▐道,阿里巴巴已经成为国内首个达★成国家绿色数据中心标准的科技公司,所有自研数据中心平均ЮPUE低于1.3。

PU〇E (Pγ∮ower Usage Effectiveness,电源使用效率)是衡量数据中心电力☞能源利用率的国际通用指标,越接近1表明能效水平越好。目前国内企*业数据中心的PUE平均值在2-2.5,而国家标准是1.4以下。

记者了解到,在阿里巴巴绿色数据中心的背后有五大黑科技,包括因地制⿹宜降温、模块☎化设计加速搭建、用清洁∽能源节能、液冷服务器提效、人工智◈能巡检等。

用湖水替代空调降温

在杭州的一座数据中心里,阿里▉巴巴另辟蹊径,用╬深々层Ⅵ湖水来给服务器降∏温,完美取代ζ了传统空⿰调制冷的方式,能源ⓔ效率的提升立竿见影,й最低PUE仅为1.17,↗与普通数据中心相Υ比,全年可节电约数千万度☼,减少碳排放一万多吨。

模块化设计,一座数据中心建设仅需1年

一般情况下,一座大型数据中心需要2~3年才能℉建成。但阿里突破∧了传统建造模式,仅用1年时间就建成了π位于张北的北京冬奥云数据中心(两个园区)。秘密就是全模块化的设计理念,像乐高积木一样现场拼装。

清洁能源,每年可节省5.9万吨的碳排放

北京冬奥运云数据中╩心同时采用ζ了风能和太阳能等清洁能源,┛充分利用自然能源,每年仅有约15天用到传统模式制冷,PUE最低可达1.1№3,相当于每年可节省5.9万吨的碳排放。?

液冷服务器,PUE逼近理论极限值1.0

同样在北京冬奥云数据中心,部署了全球互联网行业最大规模的浸没式液冷服≧务Ⅳ器集群,其 PUE逼近理论极限值1.0,是目前最高水平。据了解,这是一种完全绝缘且无腐蚀性的液体,即╟使浸没元器件20年以上,◤也ō不会对电子元器件产ↂ生任♂何影响。

天巡机器人,用人工智能保障稳定性

稳定性是数据中心的核心指标之一,在保障稳定性上用机器ↀ人“天巡”辅助工作人员完成巡检工作,它带有全景高精度摄像头、传感器,在巡检中可以完成温度、湿度、空气质量、电气参数、空︱︳调参数等监测工作,去年双11期间接替了运维人员以往30%的重复性工作。

作为∑全球前三、国内第一的云计算服务商,阿里云拥有全球最丰富的云计算√产品家族,包括绿色数据中心在内自研了一系列核心技术,┐包括超大规模通用计算云操作系ↅ统$飞天⿻Apsara、数据库POLARD√B、弹性裸金属服务器▔神龙X-Dragon等。

ì 编 辑:王鹏
声明:凡注明“本站原创”的所有文字图片等资料,版权均属 100个群挂挂挂赚_100个生日创意点子_100个赚钱的点子所有,欢迎转载,但务请注明出处;
Canalys:2019年第三季度全球可穿戴手环出货量达4550万部 怎样才能在uc发布新闻 新闻发布平台有哪些
Top