释放算力潜能Serverless+Al让应用开发更简单
释放算力潜能,Serverless+AI让应用开发更简单报告人: 王仁达 阿里云智能2025年6月Serverless在解决什么问题• 通过不断的优化资源供给能力:降低用户保有资源的成本,提高资源利用率,降低资源使用成本;• 通过不断的加强和云产品及周边生态的集成,降低用户业务构建的门槛,减少业务发布和扩容运维时间,提升业务效率;成本目标• 按需付费,降低用户成本,提供产品竞争力效率目标• 简单,易用,减少发布/扩容时间,提升发布/扩容的效率Serverless目标和策略按需付费极简运维灵活定制• 平台及体验能力升级:事件驱动,云服务集成,流程编排,应用模版,计费优化,观测能力集成AI 应用基本要素3 业务逻辑4 领域抽象2 领域模型1 大模型6 流程编排5 BaaS 服务开箱即用、一键托管、可观测完备、低成本领域适配、业界标准、活跃生态流程引擎,工具生态,广泛集成门槛高、迭代快,效果好,低成本开箱即用、快速迭代、灵活可定制、低成本性能、成本、稳定、安全、体验AI 应用基本要素Serverless 擅长领域模型服务+Serverless GPU实现降本增效模型服务Serverless GPU行业痛点•开源/微调模型做成镜像有门槛,vLLM/SGLang 等框架选择困难•商业模型按 token 计费贵且有速率限制,不自主可控平台价值•快速托管:主流模型一键部署,自定义模型下载加速快速托管•框架封装:vLLM/SGLang/Ollama/Hugging Face Transformers 实现推理加速、轻量化部署•API Key管理:KMS、访问控制实现安全存储及隔离行业痛点•高峰流量大、资源成本高、运维管理复杂•冷启动延迟高,系统调度、镜像拉取、模型加载、首推理平台价值•负载感知调度、资源池化,实现更高的弹性和资源利用率•推理速度、稳定性、成本间取得平衡函数计算:FC AI 应用开发 + FC 弹性算力ü FC 业界独家极速模式:提供秒级快照、毫秒级两种模式,满足实时和准实时推理场景ü FunctionAI 模型服务:主流模型如 Qwen、DeepSeek 等可一键部署,魔搭社区、 HuggingFace 的热门模型可通过模型 ID 快速托管领域模型加速落地:图像生成行业痛点•SaaS 昂贵且无法自主可控•虚机/容器自建弹性效率弱、利用率低、成本高•文生图 WebUI/API 开发门槛高,模型/插件下载国内网络不可用Serverless图像生成平台价值•深度集成Serverless GPU,兑现弹性降本优势、快速出图•专属工作空间:激活、销毁快,简单易用•企业级特性增强: Serverless API,自带流量灰度,多实例并发出图加速出图效率函数计算: FunctionAI 图像生成ü SD WebUI/CompyUI 一键部署,提供专属工作空间和网络加速能力,支持上传、下载自定义模型及插件ü 开发调试一键发布Serverless API,隔离测试和生产环境,通过API调用实现同步/异步/流式/WebSocket出图AI 应用基本要素3 业务逻辑4 领域抽象2 领域模型1 大模型6 流程编排5 BaaS 服务开箱即用、一键托管、可观测完备、低成本领域适配、业界标准、活跃生态流程引擎,工具生态,广泛集成门槛高、迭代快,效果好,低成本开箱即用、快速迭代、灵活可定制、低成本性能、成本、稳定、安全、体验AI 应用基本要素Serverless 擅长领域智能体应用中间件服务知识库数据库大语言模型智能体传统应用开发AI 应用开发记忆/工具应用抽象发生变化智能体应用LLM 和现实世界的结合• 包含感知、决策、行动 • 行动:碎片化代码,需要灵活、快速、轻量的运行时,函数是最合适的形态(MCP,function calling,code interpreter,……)AI 领域应用的主体应用集成及应用运维价值Serverless GPU 支撑自定义领域模型托管托管生态及 Serverless 算力,扩展及运维价值智能体模型服务工具ü MCP/Function Callingü Hosting Servicesü Serverless GPUServerless 是 Agent的最佳运行时承载智能体应用集成:MCPServerless Hosting MCP server 的优势• MCP 稀疏调用、非稳态调用、脉冲型调用特征明显,算力规格要求小,天然适合弹性• Nodejs、Python主流,启动快,天然适合FaaS运行时• 多租隔离,满足安全要求• 内置负载均衡以及安全防护,支持集成网关实现更高阶流量管理MCP 为LLM连接数据源和工具提供了标准化的方法Serverless Hosting MCP server 的劣势• 大部分MCP server都是STDIO模式,不支持多并发,不具备鉴权能力 • SSE 会话亲和性特性,不适合Serverless按量弹性不同实例• SSE 协议长连接特性,造成函数实例长时间活跃,持续产生费用• 本地调试困难,问题难定位,缺少开发及部署MCP的最佳实践厂商应对之道FunctionAI MCP 广场• 提供模板一键部署、自定义MCP服务,满足开源托管以及二次开发需求• 提供隐私变量管理、服务鉴权、内网访问能力,本地STDIO协议无需改造即可提供安全的企业级服务• 提供Serverless Devs工具本地部署函数计算 MCP Runtime• 内置MCP Proxy,存量STDIO无改造直接生成SSE/Streamable Http服务,且具备单实例多并发能力• 发布MCP 会话亲和性调度,保证相同sessionID会话绑定到相同实例,具备会话配额控制保证单实例会话公平、MCP会话优雅升级• 发布长连接闲置计费,最高降低87%成本AI 应用基本要素3 业务逻辑4 领域抽象2 领域模型1 大模型6 流程编排5 BaaS 服务开箱即用、一键托管、可观测完备、低成本领域适配、业界标准、活跃生态流程引擎,工具生态,广泛集成门槛高、迭代快,效果好,低成本开箱即用、快速迭代、灵活可定制、低成本性能、成本、稳定、安全、体验AI 应用基本要素Serverless 擅长领域流程式编排:AI 工作流• 引入LLM、Agent、MCP、工具节点完成复杂业务场景• 工作流具备理解上下文、自适应、自我进化的能力AI 工作流:重塑企业自动化流程,自动化->智能化Serverless 工作流:组装式、连接云服务• 事件驱动,高效处理图片、音视频等非结构化数据,典型场景ETL• 无缝连接各种云服务,完成云上自动化任务• 弹性自动扩展、按量付费• 多地域容灾、高可用、低代码Serverless AI 工作流:FunctionAI Studio• 基于Serverless工作流,引入AI节点:LLM、Agent、MCP、工具• 使用云服务完成RAG流程:OSS、Tablestore、PolarDB• Serverless + AI优势完全互补总结Serverless优势助力AI应用研发提效• 弹性扩展、按需付费、无服务器运维,解决AI开发中的资源瓶颈与成本压力Serverless作为AI时代的基础设施与未来
释放算力潜能Serverless+Al让应用开发更简单,点击即可下载。报告格式为PDF,大小2.5M,页数13页,欢迎下载。