【政策】一文读懂“东数西算”,全国数据中心布局一目了然

摘要:近日,国家发展改革委等部门近日联合印发文件,同意启动建设国家算力枢纽节点,并规划了10个国家数据中心集群。全国一体化大数据中心体系完成总体布局设计,“东数西算”工程正式全面启动。

【政策】一文读懂“东数西算”,全国数据中心布局一目了然

摘要:近日,国家发展改革委等部门近日联合印发文件,同意启动建设国家算力枢纽节点,并规划了10个国家数据中心集群。全国一体化大数据中心体系完成总体布局设计,“东数西算”工程正式全面启动。

什么是东数西算?

相比“南水北调”“西气东输”“西电东送”等工程,人们对“东数西算”似乎还不大熟悉。“东数西算”即“东数西算工程”,指通过构建数据中心、云计算、大数据一体化的新型算力网络体系,将东部算力需求有序引导到西部,优化数据中心建设布局,促进东西部协同联动。简单地说,就是让西部的算力资源更充分地支撑东部数据的运算,更好为数字化发展赋能。

“‘东数西算’中的‘数’,指的是数据,‘算’指的是算力,即对数据的处理能力。”国家发展改革委高技术司副司长孙伟介绍说,“要像‘南水北调’‘西电东送’一样,充分发挥我国体制机制优势,从全国角度一体化布局,优化资源配置,提升资源使用效率。

为什么要实施东数西算

数据中心耗能较高。

我国数据中心目前大多分布在东部地区,在土地、能源等资源紧张的形势下,在东部大规模发展数据中心难以为继。而我国西部地区资源充裕,特别是可再生能源丰富,具备发展数据中心、承接东部算力需求的潜力。

东数西算工程具有重大意义,有效实施可以:

1、给企业带来利好

1)对于提供算力的企业
加快实现云网协同,提升算力服务的品质;

降低网络、电力资本;

规划算力资源更有针对性,提升资源使用效率。

2)对于使用算力的企业

有助于享受更为便捷、易用的算力服务;

进一步降低上云用数成本,加快实现数字化转型。

2、利于推动区域协调发展

通过算力设施由东向西布局,将带动相关产业有效转移,促进东西部数据流通、价值传递,延展东部发展空间,推进西部大开发形成新格局。

3、利于扩大有效投资

数据中心产业链条长、投资规模大,带动效应强。通过算力枢纽和数据中心集群建设,将有力带动产业上下游投资。

4、利于促进绿色发展

加大数据中心在西部布局,将大幅提升绿色能源使用比例,就近消纳西部绿色能源,同时通过技术创新、以大换小、低碳发展等措施,持续优化数据中心能源使用效率。


5、利于提升国家整体算力水平

通过全国一体化的数据中心布局建设,扩大算力设施规模,提高算力使用效率,实现全国算力规模化集约化发展。

如何推进东数西算?

布局8大枢纽

《全国一体化大数据中心协同创新体系算力枢纽实施方案》(发改高技〔2021〕709号) 文件提出,统筹围绕国家重大区域发展战略,根据能源结构、产业布局、市场发展、气候环境等,在京津冀、长三角、粤港澳大湾区、成渝,以及贵州、内蒙古、甘肃、宁夏等8个地布局建设全国一体化算力网络国家枢纽节点,发展数据中心集群,引导数据中心集约化、规模化、绿色化发展。国家枢纽节点之间进一步打通网络传输通道,加快实施“东数西算”工程,提升跨区域算力调度水平。

布局10个集群

在8个算力枢纽内,进一步规划设立了10个国家数据中心集群,和林格尔集群、中卫集群、庆阳集群、天府集群、重庆集群、贵安集群、张家口集群、芜湖集群、长三角生态绿色一体化发展示范区集群、韶关集群。每个集群是一片物理连续的行政区域,具体承载算力枢纽内的大型、超大型数据中心建设。
数据中心由东向西梯次布局

孙伟介绍说,我国将根据算力需求,促进数据中心由东向西梯次布局、统筹发展;推动实现“东数西算”循序渐进、快速迭代。

“一些对于后台加工、离线分析、存储备份等对网络要求不高的业务,可率先向西部转移。”中国工程院院士邬贺铨说,同时,受限于网络长距离传输造成的时延,以及相关配套设施等因素影响,一些对网络要求较高的业务,比如工业互联网、灾害预警、远程医疗、人工智能推理等,可在京津冀、长三角、粤港澳大湾区等东部枢纽布局,枢纽内部要重点推动数据中心从一线城市向周边转移。

下一步,将聚焦提升8个算力枢纽的影响力和集聚力,牵引带动全国算力一体化协同发展。包括打造一批“东数西算”示范线路,提高网络传输质量;强化能源布局联动;支持数据中心进行节能减碳、可再生能源供电、云网融合、数据安全流通等创新融合;加快完善数据中心产业生态体系等。

国家发展改革委强调,要坚决避免数据中心盲目发展,在当前起步阶段,需要划定物理边界,明确绿色节能、上架率等发展目标。比如,集群内数据中心的平均上架率至少要达到65%以上,可再生能源使用率要有显著提升。未来将结合发展情况,不断优化完善布局,适时扩大集群边界或增加集群,论证新设算力枢纽,实现统筹有序、健康发展。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO