数据中心是科技巨头们得以正常运营的核心部分 , 可以帮助这些科技公司更好地传递、加速、展示、计算、存储数据信息 。 数据中心一般是一个大型仓库 , 主要存放服务器和其它联网的计算机设备 , 这些设备保存着互联网上的大部分数据的同时 , 也为云计算提供必须的计算力 。
但数据中心往往也伴随着大量的热量 , 其能量使用密度能超过一栋普通办公大楼百倍以上 。
而防止服务器过热是数据中心运营成本的主要组成部分 。 因此 , 这一领域的大公司 , 包括Facebook、微软和谷歌在内 , 都在寻找节省制冷成本的不同方法 。
数据中心的前世今生
自然冷却算得上是数据中心最早的冷却方案之一 , 通过使用外部空气温度与设备之间的温差达到给设备降温的目的 , 但这种冷却方法受地区限制 , 因此数据中心通常会使用某种形式的空调设备来冷却IT设备——风冷 。
风冷因成本较低一直发展较快 , 但随着设备的不断增加 , 服务器越发的密集 , 风冷也逐渐不能满足冷却需求 , 而可用性、绿色节能、动态冷却成为了主要的创新方向 , 其中液冷技术因为突出的性能受到众多厂商的青睐 。
液冷 , 是指通过液体来替代空气 , 把CPU、内存条、芯片组、扩展卡等器件在运行时所产生的热量带走 。 目前 , 业界主要的液冷技术有三种:冷板、喷淋和浸没 。
因此 , 国内外主流厂商都在大力推进液冷技术研究 。 例如 , Facebook公司正在推出一种与Nortek空气解决方案公司合作开发的新型间接冷却系统——StatePoint液体冷却(SPLC)解决方案 。
Facebook主要依靠地理自然环境来降低数据中心的温度 。 Facebook在瑞典建立的数据中心Node Pole离北极圈仅一步之遥 。 这里的常年低温 , 冬天平均气温更是低至零下20度 。 这样的地理环境非常有利于数据中心的运营维护 , 温度较低 , 也有利于服务器的冷却 , 在一定程度上减少了维护的成本 。 Facebook利用这一环境特点 , 将室外的冷空气泵进中心大楼内 , 服务器产生的大量热气与进来的冷空气进行循环交换 , 从而形成自然冷却的过程 。
此外 , Facebook在爱尔兰也建有数据中心 。 爱尔兰坐落与欧洲西北角 , 西临大西洋 , 东靠英格兰 , 是北美通向欧洲的中转站 。 爱尔兰所处纬度较高 , 全年气温偏低 , 处于6到20摄氏度之间 。 爱尔兰还拥有两条通往美国的海底光缆 , 以及十一条连接英格兰各地的海底电缆 。 它能够帮助企业实现自动故障切换 。 假如美国出现网络中断 , 可由爱尔兰的数据中心可以继续为Facebook提供相应服务 。
微软
2018年6月 , 微软在苏格兰奥克尼群岛海岸线附近的水域中部署了潜水艇式水下数据中心 。 微软将一艘40英尺长的船沉入位于苏格兰近海的奥克尼群岛海岸 , 该数据中心有12个机架 , 共有864台服务器 。 微软表示 , 它可以在无需维护的情况下保存数据和处理信息长达五年 。
微软选择建立水下数据中心的目的是提高近水地区的网络速度 , 这些地区通常缺乏基础设施 。 而视频流和游戏需要更强大的基础处理设施才能连接到互联网 。 微软英国首席执行官辛迪罗斯周三表示:“全球近一半的人口生活在大片水域附近 , 让数据中心离数十亿网民更近将确保更快、更顺畅的网络浏览、视频流和游戏 , 同时企业可以享受人工智能驱动的技术 。 ”
【科技巨头数据中心冷却揭秘:谷歌有AI 微软玩潜水】利用海水、湖水降温不止微软一家 。 中国的阿里巴巴利用千岛湖对服务器进行冷却 , 这种方式也使其年均PUE低于1.3 , 最低可达到1.17 。
推荐阅读
- 信息科技领域中的六大颠覆性技术创新
- 科技向善:中国互联网行业20年再出发
- 科技寻人,我们这样“找到你”
- 王仕锐:从探索到融合 互联网科技助力医疗创新
- 冰雪来了 电网融冰“黑科技”再升级
- “黑科技”让春运出行“倍儿爽”
- 盘点8月公众关注的科技前沿成果
- 中国科技巨头们在大数据产业博览会上都说了啥?
- 微软将数据中心放在海底 这会是未来么?
- 5G用了哪些新技术而成为前沿科技的“土壤”