这篇文章给大家聊聊关于“新基建”赋能大数据中心演进及布局思考-新基建数据中心,以及对应的知识点,希望对各位有所帮助,不要忘了收藏本站哦。
在信息技术快速发展的背景下,数据中心作为各行各业的信息基础设施,为数字经济转型提供重要支撑。它们也是未来云网融合发展的战略基础资源,是决定移动和宽带用户体验的内容。云计算、大数据等新兴业务的资源和基础承载设施,以及数据中心的规划和布局将成为业界关注的焦点。与此同时,资本市场也跃跃欲试“新基建”,这将有助于数据中心实现规模化建设。
[[336193]]
国内数据中心的发展经历了以运营商为主导、以通信设备楼为主的分散式、小规模发展阶段,逐步向市场驱动的大规模、标准化、高密度、绿色节能方向发展方向。虽然国内数据中心发展已有一定基础,但数据中心整体布局仍面临东部资源紧张、西部资源闲置等问题。如何在现有数据中心布局的基础上进一步优化结构、提高效率、精准投资应对未来?新兴业务发展需求是大数据中心发展演进的关键一环。
大数据中心布局驱动力
5G与云计算、物联网、人工智能、边缘计算等新兴技术的相互促进发展,使大数据中心成为未来核心信息基础设施载体,提供了强有力、广泛的基础设施保障。计算能力、数据存储能力、PUE能效等问题对数据中心布局提出了新的要求。超大型和大中型数据中心服务采用远程部署,降低成本,处理“低温数据”和非时间敏感数据。商业;边缘计算数据中心采用分布式部署,满足超低时延、高实时、高安全、本地化等需求场景。这种两极分布将成为未来数据中心行业的新形态。
5G、物联网、云计算等新兴技术将推动数据量爆发式增长,导致数据中心需求激增。据思科预测,全球数据流量将从2016年的16ZB上升至2025年的163ZB,带动数据中心建设整体规模持续快速增长,密集建设的大型数据中心比例将进一步提升。新兴技术导致数据量爆发式增长,数据中心规模化、园区化、集群化日益明显。随着云计算技术的大规模商用,大规模的云基础设施需要在相对集中的区域部署多个大型数据中心园区,以满足其超大规模的计算和数据存储需求。
海量数据处理能力和能耗需求影响着数据中心的整体布局。自2012年以来,业界最大的人工智能训练(如2012年的AlexNet、2014年的GoogleNet、2017年的AlphaZero等)所使用的计算量呈指数级增长。在过去的六七年里,计算使用量增加了30%。还多了几千倍。因此,为了满足未来人工智能领域激增的计算需求,作为算力主要提供者的数据中心相关技术也将面临新的挑战。 AI服务器引入新的计算核心和架构来满足人工智能计算负载的需求,这将直接关系到供电、散热、功耗等关键技术的匹配。随着一线城市政策逐步收紧能源消费限制,考虑到中西部地区电价远低于东部地区,大型和超大型数据中心需要部署在更大的地理区域,以减少能源消耗。总体成本和能源消耗水平。
2020年国民经济和社会发展规划草案明确实施建设国家综合大数据中心重大工程,布局10个左右区域数据中心集群和智能计算中心; “十三五”规划明确了13个城市群,以及“京津冀协同”、“长江经济带”、“大数据综合实验区”等多项政策,使得区域间协调发展更近了。产业和资源随着人口的聚集而聚集。都市圈引领城市群发展,城市群带动区域发展。这将是数据中心发展的新模式。
总之,政策引导、行业数字化转型发展、信息技术迭代演进将成为数据中心布局的核心驱动力。
大数据中心布局思考
整体布局架构
低时延、高带宽、高并发的业务需求驱动数据中心的分层布局。面向未来,将根据服务区域用户分布、业务承接模式、建设运营成本等差异,打造分层的数据中心布局架构,如图1所示。
图1 大数据中心整体布局架构
国家级数据中心的定位及布局要求
全国数据中心主要面向全国业务运营、大客户托管服务,主要是冷数据、离线计算分析等对网络延迟要求较低的业务;建设超大型数据中心园区或集群考虑到建设和运营成本,园区优先考虑政策优惠、能源充足、土地成本低、自然气候适宜、天然冷源丰富、地质稳定的区域规划布局。
在网络互联需求方面,国家数据中心应具备建设骨干网络节点的传输、光缆资源和安全可靠性要求。他们还应该拥有多个直接的骨干网络链路,以实现国家服务的快速转移。全国数据中心互为备份,进一步提高数据中心的安全性和可靠性。
区域级(省级)数据中心的定位及布局要求
区域(省)集中式数据中心主要面向区域集中式业务运营,以温数据为主;建设规模以大中型园区或集群为主,需综合考虑国家和地方相关政策、市场业务驱动以及网络能力、备灾等因素。
首先,受市场和业务驱动因素影响较大,重点关注需求旺盛、发展潜力较大的省/市地区,或信息产业集聚地区及周边地区。
其次,网络能力需要考虑服务区域的用户接入、业务时延、安全可靠性等要求。
在用户接入方面,为满足区域内用户的业务接入需求,其数据中心出口主要与省城域网出口、IDC汇聚、骨干网络节点互联,实现区域内流量的本地化转移。省。对于主要服务外省客户的客户也可以实施。 IDC出口直连省外骨干网络节点;区域内数据中心之间建立MESH网络。
业务时延方面,为了保证区域间数据中心的时延,区域内主要数据中心均与骨干网直连,减少数据中心之间的跳数,保证相互访问的网络时延要求不同地区的数据中心之间。区域内数据中心考虑到跨数据中心云服务的调度、迁移、互访、同步等时延要求,采用数据中心间光缆直驱互连方式。
在安全性和可靠性方面,区域数据中心的建设布局还需要考虑可用性和灾备管理的需求。两地三中心、分布式多活将是未来区域数据中心布局和架构演进的方向。
最后,考虑到云计算业务未来将成为大数据中心的主要业务,将在该地区部署多个大中型数据中心园区,以满足计算和存储需求。例如,亚马逊区域数据中心集群通常由多个大型数据中心单体建筑组成,可以满足数十万规模服务器的部署需求。为了更好地匹配云计算服务的承载需求,区域数据中心的布局应考虑云区域(以区域内核心城市为中心进行云布局)和AZ(多可用)的规划要求。区域布置在一个区域中)。
如图2所示,Region之间是完全隔离的,以保证不同Region之间最大的稳定性和容错能力。可用区(AZ)是电力和网络相互独立的物理区域。同一AZ内的实例之间的网络延迟最小。 AZ之间内网互联,故障隔离,故障不扩散,让用户业务持续在线。
图2 云Region和AZ架构图
考虑Region之间的跨域备份,保证高速传输带宽和超过10TB的系统容量。可用区可以通过低时延光纤网络互连,同时保证超大带宽互通。两点之间的容量通常超过20TB。为了满足多个可用区之间、可用区内部的容灾建设和业务连接的需求,多个数据中心的建设可以分步进行,同时保持一定程度的独立性。未来的扩展和升级可以与现有架构保持良好的兼容性。同时,多个中心地位平等,并行为业务接入提供服务。合理的布局可以实现数据中心资源的充分合理利用。
边缘数据中心
超低时延5G、人工智能和工业物联网应用需要近端建设计算能力、本地化处理服务和定制化等特定能力,推动云数据处理能力下沉,海量轻量级边缘数据中心需求涌现。边缘数据中心部署靠近信息源,具有本地化(地级市及以下)部署的特点。它分布极其广泛,满足本地用户的需求。具有规模小、数量大、分散部署的特点。运营商拥有大量边缘机房,在部署边缘数据中心方面具有天然优势。边缘数据中心更面向5G、人工智能、物联网等新兴技术的部署。他们需要在保证用户业务体验的同时,兼顾安全性和可靠性。因此,数据中心布局必须尽可能靠近用户端,保证用户业务体验要求,同时还必须满足边缘数据中心机房资源和配套设施,以及网络的安全性和可靠性要求。基于上述需求,边缘数据中心部署的业务匹配流程如图所示。如图3所示。
图3 边缘数据中心业务匹配流程
用户端节点
客户端节点主要满足校园企业、用户个性化场景中更贴近用户的业务需求。业务规模通常较小,以单台或多台服务器为主,可部署在综合办公站、基站、接入点。进入游戏等诸多场景。用户机房的配套设施、出线光缆的可用性和可靠性通常相差较大,机房环境较差。建议采用定制化设备,如扩大设备的正常工作温度范围以适应周围环境的要求、集成自供电电池以改善运行等手段,以提高业务的可靠承载。
大数据中心的发展演进
目前,国内数据中心相互隔离,“烟囱”效应明显。新一轮数据中心发展,要统筹国家、区域、省市各级数据中心共建共享,按照统一战略、统一方向、统一规划、统一标准。只有这样,才能有效支撑数字新兴业务蓬勃发展,发挥信息基础设施基石的关键作用。
建设模式多样化、标准化和模块化是重要抓手
建设模式的多样化数据中心由于其重资产性质,建设周期长,受市场因素影响较大,存在一定风险。随着“新基建”和公募REITs试点等支持政策的不断出台,传统单一的自投资、自建数据中心建设模式将逐步向多元化转变,如基金合作、股权、合作建设、合作运营、租赁等模式实现布局优化和资源高效利用。
建设标准化、模块化数据中心建设趋于标准化和规范化,包括数据中心选址、布局、结构、内部规划等建筑和环境方面,以及IT设备和供电、配电和制冷设备的选型、节能优化等相关国家标准、行业标准以及相关组织(如OCP、ODCC、GCC等)正在大力推动数据中心建设的规范化、规范化。
同时,针对不同的需求场景,构建方式也多样化,如仓库式、集装箱式、微模块等标准化模块化,可以实现快速建造和组装,最大限度地减少基础设施与机房环境的耦合,并提高数据中心的效率。整体运行效率,实现快速部署、弹性扩展、绿色节能。
数据中心的绿色节能是关键举措
大数据中心的本质是将电力转化为算力,将算力转化为IT服务。随着算力不断提升,数据中心节能成为业界关注的焦点,建设绿色节能数据中心已成为必然趋势。随着国家政策的引导,IT设备技术和效率的不断提高,制冷、供配电等基础设施技术的不断完善,与算力的快速增长相比,数据中心能源的增长消费呈现放缓趋势。与2010年相比与去年相比,2018年全球数据中心计算实例增加了550%,而同期功耗仅增加了6%。然而,数据中心计算实例将在未来3 到4 年内翻一番。因此,数据中心节能将成为行业的重中之重。下面,笔者将从IT设备与运维、制冷、供配电等维度探讨数据中心的研究趋势。
IT设备和运营的绿色节能传统算力遵循摩尔定律,单位芯片面积算力稳步提升;另据OpenAI研究显示,自2012年以来,用于AI模型训练的计算能力每3.4个月就会翻一番,这极大程度地降低了IT设备单位计算实例的能耗。此外,借助人工智能和大数据技术,可以实现不同应用场景、不同场地、不同时间的协同节能。在保证正常性能的基础上,最大限度地发挥节能效果,实现能耗与性能的最佳平衡。例如,谷歌利用AI技术综合考虑数据中心服务器、供配电、冷却设备等。根据数据中心设备运行状况和天气等因素,优化散热设备设置、服务器休眠等措施,最大限度降低整体功耗。为行业应用和推广提供了很好的参考。
供电方式和制冷的主要节能方式在数据中心能耗中,制冷和供电系统能耗仅次于IT设备;例如,在PUE=1.5的数据中心,制冷和供电系统消耗约占整体能耗的40%。探索低能耗提高效率、优化制冷和配电系统已成为行业研究的重点。例如,在设备供电方面,高压直流(HVDC)电源相比交流UPS减少了整流、逆变环节,工作效率大幅提升。但面临存量改造规模大、成本高等问题,亟待解决。
随着设备功耗逐渐增大,传统风冷面临效率低、难以满足需求的问题;自然冷却技术依赖周围环境,难以广泛推广;浸没式液冷技术将IT设备浸入绝缘冷却液中,冷却系统中利用冷却液吸收IT设备产生的热量,具有静音效果好、机柜内放置设备密度高、占地面积小等优点,可以很大程度上节省TCO成本。
文章到此结束,如果本次分享的“新基建”赋能大数据中心演进及布局思考-新基建数据中心和的问题解决了您的问题,那么我们由衷的感到高兴!
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.iotsj.com//kuaixun/7395.html