2025年零门槛AIGC应用实战:Serverless+AI+轻松玩转高频AIGC场景
卷首语近年来,人工智能(AI)技术的迅猛发展引发了各行各业的变革,AI 应用正以不可阻挡的势头兴起。从智能客服到精准医疗,从自动驾驶到金融风控,AI 技术的广泛应用极大地提升了工作效率和决策质量。根据预测,未来几年内,AI 市场将继续快速增长,成为推动经济和社会进步的重要动力。在这一背景下,如何高效地开发、部署和维护 AI 大模型已成为技术人员亟待解决的挑战。而阿里云函数计算 FC 作为一个事件驱动的全托管 Serverless 计算服务,为 AI 应用的开发提供了 Serverless GPU 算力和灵活、可扩展的解决方案。您无需管理服务器等基础设施,函数计算能够根据需求自动扩展,按需计算,从而将开发者从底层基础设施的管理中解放出来,使他们能够更专注于业务逻辑和算法优化。结合函数计算与 AI 大模型,开发者可以快速构建和部署各种 AI应用,满足市场不断变化的需求。本书旨在整理和介绍函数计算如何构建各类 AI 应用,以及如何基于函数计算结合其他云产品来部署各种 AI 大模型。书中的主要内容包括:AI 大模型的选择与应用场景,适用人群的分析,应用架构的设计,及详细的部署教程等。通过这些内容,读者将能够全面理解并掌握 AI 与函数计算结合的最佳实践,从而在自己的项目中有效应用这些 AI 技术,实现更高的业务价值和技术创新。目录页一、构建个人专属 AI 助手..............................................................5二、AIGC 生图.............................................................................92三、AI 内容创作.........................................................................125四、打造多形态全天候 AI 客服...................................................188五、使用 AI 快速完成文本信息处理............................................218六、使用 AI 快速完成图像处理...................................................242一、构建个人专属 AI 助手5一、构建个人专属 AI 助手0 代码,2 种方式,一键部署 DeepSeek 系列模型DeepSeek 凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill 是使用 DeepSeek-R1 生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。云原生应用开发平台 CAP 提供模型服务、应用模板两种部署方式辅助您部署 DeepSeekR1 系列模型。完成模型部署后,您可以与模型进行对话体验,或以 API 形式进行调用,接入 AI 应用中。支持的模型列表部署方式说明:Ollama:轻量级推理框架,专注于量化模型部署及各种开源 LLM 部署。Transformer:由 Hugging Face 提供的模型推理框架,支持 PyTorch、TensorFlow 等模型部署。模型部署方式最低配置DeepSeek-R1-Distill-Qwen-1.5BTransformerTesla16GBDeepSeek-R1-Distill-Qwen-7BTransformerTesla16GB一、构建个人专属 AI 助手6DeepSeek-R1-Distill-Llama-8BTransformerTesla16GBDeepSeek-R1-Distill-Qwen-14BTransformerAda48GBDeepSeek-R1-Distill-Qwen-32BTransformerAda48GBDeepSeek-R1-Distill-Qwen-1.5B-GGUFOllamaTesla8GBDeepSeek-R1-Distill-Qwen-7B-GGUFOllamaTesla16GBDeepSeek-R1-Distill-Llama-8B-GGUFOllamaTesla16GBDeepSeek-R1-Distill-Qwen-14B-GGUFOllamaAda48GBDeepSeek-R1-Distill-Qwen-32B-GGUFOllamaAda48GB前置准备1)首次使用云原生应用开发平台 CAP 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。一、构建个人专属 AI 助手72)本教程在函数计算中创建的 GPU 函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式等同于函数计算的闲置预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述。方式一:应用模板部署1. 创建项目登录函数计算 3.0 控制台,在左侧导航栏选择应用,在应用页面选择 CAP 应用平台页签,然后单击创建项目 > 基于模板创建。说明当左上角显示函数计算 FC 3.0 时,表示当前控制台为 3.0 控制台。一、构建个人专属 AI 助手82. 部署模板1)在搜索栏输入 DeepSeek 进行搜索,单击基于 DeepSeek-R1 构建 AI 聊天助手,进入模板详情页,单击立即部署。一、构建个人专属 AI 助手92)选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。3. 验证应用部署完毕后,点击 Open-WebUI 服务,在访问地址内找到公网访问单击访问。一、构建个人专属 AI 助手10方式二:模型服务部署本文将以 DeepSeek-R1-Distill-Qwen-7B-GGUF 模型为例演示部署流程。使用 API 形式进行模型调用,接入线上业务应用。1. 创建空白项目登录函数计算 3.0 控制台,在左侧导航栏选择应用,在应用页面选择 CAP 应用平台页签,然后单击创建项目 > 创建空白项目。说明当左上角显示函数计算 FC 3.0 时,表示当前控制台为 3.0 控制台。一、构建个人专属 AI 助手112. 选择模型服务一、构建个人专属 AI 助手123. 部署模型服务1)选择模型 DeepSeek-R1-Distill-Qwen-7B-GGUF。2)单击资源配置,DeepSeek-R1-Distill-Qwen-7B-GGUF 推荐使用 Tesla 系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。一、构建个人专属 AI 助手133)单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待 1
2025年零门槛AIGC应用实战:Serverless+AI+轻松玩转高频AIGC场景,点击即可下载。报告格式为PDF,大小14.78M,页数287页,欢迎下载。



