PPIO CEO姚欣:AI创业的风口期,如何让企业不被淘汰?

PPIO CEO姚欣:AI创业的风口期,如何让企业不被淘汰?

近日,PPIO 派欧云联合创始人兼 CEO 姚欣参加由 CSDN 联合高端 IT 咨询与教育平台 Boolan 举办的「2024 全球产品经理大会」,以「生成式 AI 引领产品创新范式」为主题,分享了他在 AI 时代领悟的全新思考。


会上,姚欣发表名为《生成式AI的产业创新曲线》主题演讲。他指出:“并不会出现某类大模型一统天下。无论是 PC、互联网还是移动互联网,任何行业、产业均呈现一个产业分层结构——底层的基础设施、中层的平台工具、上层的应用服务,自底向上分阶段成熟。生成式人工智能的产业发展亦是如此。

过去几年间,我们亲证了生成式 AI 底层基础设施发展得如火如荼,包括英伟达以及诸多的云服务公司。直至今日,算力基础设施还处于一个大规模增长的过程中,只是下一阶段的发展重点,会从现在很热闹的训练逐渐转向推理。随着算力成本每年 10 倍速下降,会持续解锁应用新场景。”

生成式 AI 产业的中间层则是诸多的模型公司。当前业界普遍持有这样的一个观点:在研发模型时,先做一个足够大的参数模型,性能优化到最高。不过,在落地时,会将模型适当缩小,追求性价比,甚至做多端的不同重构部署。至于为什么要这么做,姚欣表示,短期内很多人对于技术性能有过高的期待,都想立刻实现相关 API,将模型落地,但技术是要一步一步实现的。

今天我们看待的模型,它在规模、可调性、可缝合性之间也存在矛盾,因此未来并不会出现某类大模型一统天下的局面,而是大中小模型分别使用,根据不同的性能问题和成本来决定。他认为,今天的模型有点像当年 CDN 结构,它会在中心层、边缘层到终端承载不同应用,实现综合性价比的最优。

针对模型究竟是开源还是闭源这一极具争论性的问题上,姚欣表示,“对于中国的产品经理和从业者,必须坚信的一点是开源。在过去两年的时间里,开源模型的能力逐步接近商业模型,我相信我们可以在开源模型上实现大多数的应用和落地,并在此基础上进一步进行微调和改进。

最后,对于最上层的应用层,尽管目前应用领域十分活跃,投资人也在积极投资,但应用尚未达到统计意义上的普遍成功,仍处在前期探索阶段。

为进一步剖析当前 AI 应用发展现状,姚欣用一个坐标轴来展示任务的可衡量性和标准化程度加以说明。他表示,左上角的任务如客服、翻译、数据分析等是最容易标准化衡量,这类任务最适合当前的大语言模型处理;左下角的任务如编程、设计、文案写作需要 AI 辅助创意,但最终仍需人类干预。至于右下方的任务,目前还很难仅靠大模型实现,可能需要其他工程技术手段的支持。

在 ToB 领域,AI 应用趋势与之前的 CV 时代相似,最初在数据密集型行业中落地,如安防、金融、交通和教育等。然而,非关键性应用相对容易实现,但在容错率要求极高的关键场景中,仍有挑战。许多企业通过开源模型加上数据微调和私有化部署,谨慎地进行尝试。

另一方面,ToC 领域的应用看似繁荣,但 DAU 与 MAU 的比率显示,这些应用还不够成熟,用户体验尚待完善。有趣的是,全球 AI 应用流量中,北美居首,而印度、印尼、菲律宾等地也有巨大潜力,但成本过高阻碍了广泛应用。如果 AI 成本降低至广告费可以覆盖的程度,亚洲将成为 AI 应用爆发的重要市场。

对于产品经理而言,这是一次创新的风口期。不仅中国,全球市场也提供了广阔的机会。中国拥有完整的 AI 技术到产业的生态链,有望引领全球市场。降低成本将是大规模应用落地的关键,如同视频服务,成本下降将使昂贵的服务变为免费。预计在未来三年内,推理算力成本将以数量级下降,推动应用的大规模爆发。

生成式 AI 引领产品创新范式

作为主会压轴的圆桌对话环节,在 CSDN&《新程序员》执行总编唐小引的主持下,姚欣同产品战略专家、《产品思维30讲》主讲人、《真需求》作者梁宁,创新工场联合创始人、管理合伙人汪华,CSDN高级副总裁、Boolan首席技术专家李建忠,智谱AI COO张帆围绕“生成式 AI 引领产品创新范式”主题,共同探讨这一技术如何赋能产品创新。

在生成式 AI 时代,如何让企业不被淘汰、个人如何升级,以及如何构建真正的生成式 AI 产品,这些问题引发了大家的关注。姚欣指出,在当前的环境下,创业公司必须从一开始就具备盈利能力,而不再依赖外部资本的长期投入。他认为,“如果你的 AI 成本超过 50%,而人力成本低于 20%,你才是真正的 AI Native(原生)公司。” 一家 AI Native 公司应当通过充分利用 AI 能力来降低人力成本,并且采用外包服务来减少招聘、推广等运营支出。他强调,团队规模应保持精简,尤其在中国,最好控制在 10 人以内。

姚欣认为,目前的大模型技术还不够成熟,无法支撑大规模的 C 端用户使用,性价比也不高。他围绕了移动互联网时代千元智能手机和 4G 包月套餐等经典案例分析,在此之前,手机价格高昂、流量费用过高,限制了用户使用视频等流量密集型应用。类似的,他认为大模型技术也需要时间来发展、成熟。当前大模型更新速度非常快,应用层的变化跟不上技术的演进,很多垂直领域的应用可能很快会被通用大模型所取代。因此,在技术趋于稳定之前,应用开发仍然具有较大的不确定性。等到成本下降、技术稳定后,应用场景才会真正迎来大规模普及。

Read more

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

PPIO发布Agent Runtime:让Agent部署像Serverless一样简单

近期,PPIO 发布了基于 Sandbox(沙箱)自研的新产品:Agent Runtime,一个轻量级的 Agent 运行时框架。 Agent Runtime 是为了顺应 Agent 的专属需求而推出,其定位与 AWS AgentCore Runtime 类似。AgentCore 是 AWS 在 2025 年推出的专为 Agent 设计的基础设施平台,AgentCore Runtime 则是其中一个子产品,是基于 Firecracker 微虚拟机的 Serverless 运行时环境,旨在解决 Agent 低成本、高效率的部署问题。 PPIO Agent Runtime 通过简单易用的 SDK 与强大的沙箱运行环境来简化 Agent 的部署过程。用户无需关心基础设施配置、

By PPIO
当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

当Agent计算规模扩大100倍,我们需要什么样的Agentic Infra?

近期,PPIO Sandbox(沙箱)发布了一个重要功能:沙箱克隆。 沙箱克隆旨在助力提高 Agent 的并行计算能力,也就是经典的“Scale up”规模扩展问题。 今年最流行的 Agent 产品是 Deep Research,它可以看作对单个研究问题持续追踪、推演、迭代直到形成洞察的长链路串行推理过程。 那么,如果将 Deep Research 的能力 Scale up 一百倍会发生什么?像 Manus 这样的 Agent 正在解决这类挑战,并将这种并行计算架构的 Agent 称之为 Wide Research。 从 Agent 的串行计算到并行计算,离不开“沙箱克隆”这一核心技术的助力,这是 PPIO 在 Agentic Infra

By PPIO
PPIO上线Kimi K2 Thinking,兼容Anthropic协议

PPIO上线Kimi K2 Thinking,兼容Anthropic协议

今天,PPIO 上线 Kimi K2 Thinking,这是 Kimi 最新、功能最强大的开源思考模型。 Kimi K2 Thinking 基于 Kimi K2 后训练而来的混合专家模型(MoE),总参数达 1T,激活参数 32B,上下文长度 256K。该模型支持深度思考、Function Call、结构化输出、json_schema、json_object 等功能。 现在,你可以到 PPIO 官网在线体现 Kimi K2 Thinking,也可以将 PPIO 的模型 API 部署到 AI 应用中。 PPIO 在线体验地址: https:

By PPIO
PPIO独家上新GPU实例模板,一键部署Kimi-Linear

PPIO独家上新GPU实例模板,一键部署Kimi-Linear

昨晚,月之暗面发布了混合线性注意力架构新模型 Kimi-Linear,旨在解决大语言模型在长上下文推理中的计算瓶颈。 Kimi-Linear 的核心亮点: * Kimi Delta Attention(KDA),一种通过细粒度门控机制改进门控规则的线性注意力架构。 * 混合架构:采用 3:1 的 KDA 与全局 MLA 比例,在保持甚至超越全注意力质量的同时降低内存占用。 * 卓越性能:在 1.4T Token 的训练规模下,经公平对比,KDA 在长文本与类强化学习基准等多项任务上均优于全注意力。 * 高吞吐:在 1M 上下文中实现最高 6 倍的解码吞吐量,显著缩短单输出 Token 耗时(TPOT)。 今天,PPIO 独家上新 GPU 实例模板,可一键部署 Kimi-Linear-48B-A3B-Instruct 的专属模型。 PPIO 算力市场的

By PPIO