“水下数据中心”可以提高能源效率,至少微软是这样认为的。
近日,微软将已经沉入海底两年的数据中心打捞出了水面,经研究人员评估,其各方面的性能要优于传统的数据中心。
微软研究员本·卡特勒(Ben Cutler)说,
“实验的结果显示,数据中心在水中的故障率是在陆地的八分之一”。
水下数据中心或许听起来很奇怪,不过,微软的水下实验已经证实该项目具有巨大的潜力。那么,微软为什么要开展这项实验呢?
数据中心行业的迅速发展意味着能源使用的爆炸式增长,同时也意味着数据维护高昂成本的增加,针对这一问题,微软研究团队认为,将数据中心置于海底或许是一个有效的解决方式。
从理论上讲,通过将数据中心置于水下可以降低冷却计算机的成本,而且,如果将这些中心与离岸可再生能源并置,它们也可能产生零排放。同时,水下数据中心也可以最大程度地解决因氧气和水蒸气而带来的腐蚀问题。
更重要的是,全球50%人口居住于海岸附近(200公里以内),海上中心将有助于减少数据传输的时间。
因此,2018年,微软团队决定开展“水下数据中心”项目测试。他们选择了奥克尼(Orkney)群岛,将装有855台服务器的白色圆柱形高压密封舱沉入了海底。
之所以选择奥克尼,因为它是可再生能源研究的主要中心,欧洲海洋能源中心(EMEC)已经对这里的潮汐能和波浪能进行了14年的试验。另外一个原因是,该地区气候寒冷,有助于降低数据中心的冷却成本。
此次数据中心的投放点在距离海床不足1公里的地方,白色的高压密封舱内设置了环境传感器,可以对其状态进行实时监控,另外,其电力需求通过海底电缆来获得,并可以将数据传输到海岸以及更广泛的互联网中。
需要说明的是,与陆地存储相比,水下数据中心存在一个明显的局限性,即如果计算机出现故障,则无法进行修复。
但这次被打捞上来的数据中心,在855台计算机中只有8台出现了故障,其故障率比陆地要低。
研究人员推测,其原因可能与氮气和寒冷的环境有关。卡特勒表示,为了减少可能出现的腐蚀情况,我们在管体中抽离了氧气并泵入了氮气。
这项小规模的测试,进一步验证了海底存储的可能性和价值。卡特勒表示,不仅故障率低,数据中心的所有电力供应都来自风能和太阳能,充分地利用了自然资源。
另外,在管理成本方面,海底存储无需承担巨大基础设施的建造费用,还可以有效应对自然灾害或恐怖袭击可能带来的经济损失,与陆地存储相比,它既灵活又具有成本效益。
不过,也有相关专家对此方式提出了质疑。如一位在数据行业从业近30年的教授伊恩·比特林(Ian Bitterlin)表示,数据中心产生的热能会影响海水环境,而且相比于海岸地区,大的城市中心更需要数据中心。他说,
“最终您只会得到温暖的海水和更大的鱼”,“欧洲90%的数据中心位于伦敦和马德里等大城市,这是更需要的地方”。
卡特勒(Ben Cutler)对此回应称,导致海水变暖的影响是非常小的——“仅下游几米的水最多会变暖几千分之一度”,但它对奥克尼数据中心的整体环境影响是积极的。
早在2015年,微软已经开启了海底数据存储模式的实验,当时这个研究项目被称为Project Natick,他们选择加州海岸部署了有史以来的第一台潜水艇服务器,该服务器被命名为Leona Philpot,取自游戏Halo里面的角色名字。
据说,该想法最早开始于2013年,由微软数据中心的一名员工提出,而这名员工曾经有过海军潜水艇的经验。当时该数据中心在海底沉没了5个月之后被捞出,并取得了初步的成功,之后微软便开始筹划在海底部署更大规模的实验。
也就是2018年开始的奥克尼数据中心计划。这项计划还受到了欧洲海洋能源中心(EMEC)的支持。EMEC在可再生能源方面具备更专业知识,同时,对奥克尼群岛周围海域也有足够的了解。
该项计划中将数据中心连接到海岸的海底电缆也是由EMEC提供的。
如今奥克尼计划成功收尾,进一步验证了水下数据中心的有效性。微软相关负责人表示,目前依然处于小规模的测试,未来会扩展到到更大规模的应用中。
事实上,除了微软,不少科技巨头也在想办法如何应对数据中心建设和维护带来的挑战。不同的是,Google、Facebook等选择把自己的数据中心建设在高纬度的地方,利用环境来散热。
比如2013年,Facebook在瑞典最北部的采矿小镇吕勒奥(Lulea)开设了一个数据中心,可容纳数万台计算机服务器。该中心距离北极圈80多公里,完全依靠附近水力发电计划产生的可再生能源运行。
引用链接:雷锋网雷锋网雷锋网
https://www.bbc.com/news/technology-44368813
https://www.bbc.com/news/technology-54146718
https://www.bbc.com/news/av/technology-44382659