阿里云:《玩转AIGC》
序随着人工智能技术的不断发展,AIGC 作为其中一种重要的应用,正越来越受大众关注与重视。AI 从理解语言、理解文字、理解图片和视频,走向了生成内容,这称之为 AIGC,即人工智能自动生成内容,是一种‘人机共创’新模式。目前,AIGC 主要的应用场景分为互联网人机交互界面,如问答式购物,问答式搜索,问答式内容推进等;游戏和互娱 AI 内容生产,如游戏原画及素材生成,剧情生成,NPC 人物生成等;消费电子智能家居和家电,如智能音箱,智能手表,其他可穿戴智能设备等。企业服务创意和素材生成,如商业文案生成,法律文件审核,企业广告策划等。本文将围绕文本生成、图像生成以及视频生成这三块主流 AIGC 的应用来给大家讲解详细的操作指南以及实践方案。以下是来自弹性计算 GPU 云服务器的 8 个 AIGC 最佳实践,可以帮助大家更好、更快速的搭建属于自己的 AIGC 应用,玩转 AIGC。目录页从 0 快速搭建个人版“对话大模型”...................................................5基于 AIACC 加速器快速实现 AIGC 绘画........................................ 15快速搭建 AI 对话机器人..................................................................25AIGC 文本生成 3D 模型..................................................................30AIGC 文本生成视频........................................................................ 38基于 AIACC 加速器快速实现 LLaMA-7B 指令微调........................44基于 AIACC 加速器快速实现 Stable Diffusion 生成特定物体图片.60使用 Megatron-Deepspeed 训练 GPT-2 并生成文本.................... 78从 0 快速搭建个人版“对话大模型”>5从 0 快速搭建个人版“对话大模型”一、背景信息Alpaca 大模型是一款基于 LLaMA 的大语言模型,它可以模拟自然语言进行对话交互,并协助用户完成写作、翻译、编写代码、生成脚本等一系列创作任务。同时,使用了中文数据进行二次预训练,提升了中文基础语义理解能力。本文基于阿里云 GPU 服务器和 Alpaca 大模型,指导您如何快速搭建个人版“对话大模型”。二、操作步骤1. 创建 ECS 实例1)在 ECS 实例创建页面,创建 ECS 实例。关键参数说明如下,其他参数的配置,请参见自定义购买实例。从 0 快速搭建个人版“对话大模型”>6•实例规格:选择实例规格为 ecs.gn7i-c16g1.4xlarge。•镜像:公共镜像 Ubuntu 20.04,并选中安装 GPU 驱动,选择 CUDA 版本 11.4.1/Driver版本 470.161.03/CUDNN 版本 8.2.4。•公网 IP:选中分配公网 IPv4 地址,带宽计费方式选择按量付费,带宽峰值选择 100 Mbps,以加快模型下载速度。2)添加安全组规则。在 ECS 实例安全组的入方向添加安全组规则并放行 7860 端口。具体操作,请参见添加安从 0 快速搭建个人版“对话大模型”>7全组规则。3)查看驱动以及 CUDA 库是否安装成功。a)使用 root 用户远程登录 ECS 实例。具体操作,请参见通过密码或密钥认证登录 Linux实例。首次登录 ECS 实例时,系统会自动安装驱动。当显示如下图所示的回显信息时,表示驱动以及 CUDA 库已安装成功。特别提醒:系统自动安装驱动以及 CUDA 库时,请不要手动操作或者重启实例,否则可能会导致驱动或 CUDA 库安装失败。等到安装驱动以及 CUDA 库完成以后,系统会自动重启。如果创建完 ECS 实例后,没有立即远程登录 ECS 实例,可能看不到类似下图的回显信息。b)再次使用 root 用户远程登录 ECS 实例。具体操作,请参见通过密码或密钥认证登录Linux 实例。从 0 快速搭建个人版“对话大模型”>8c)执行以下命令,查看 GPU 驱动的版本。nvidia-smi回显信息类似下图所示。d)执行以下命令,查看 CUDA 库的版本。nvcc -V回显信息如下图所示。从 0 快速搭建个人版“对话大模型”>9配置软件1)执行以下命令,安装 Git 和 Git LFS 软件。apt install -y git git-lfs python-is-python32)依次执行以下命令,安装模型所需要的 Python 包。pip install git+https://github.com/huggingface/transformerspip install sentencepiece==0.1.97 -i https://pypi.tuna.tsinghua.edu.cn/simplepip install peft==0.2.0 -i https://pypi.tuna.tsinghua.edu.cn/simple说明: 从 GitHub 上下载 Transformers 库,由于网络原因偶尔可能会不成功,建议您多尝试几次。3) 在 PyTorch 环境下验证 GPU 是否正常工作。a)执行以下命令,进入 PyTorch 环境。pythonb)执行以下命令,验证 GPU 是否正常工作。import torchtorch.cuda.is_available()返回 true,表示 GPU 正常工作。从 0 快速搭建个人版“对话大模型”>10c)执行以下命令,退出 Python。quit()下载与配置模型1)依次执行以下命令,下载 tmux 并创建一个 tmux session。apt install -y tmuxtmux说明 :下载模型耗时较长,建议在 tmux session 中下载,以免 ECS 断开连接导致下载中断。2)执行以下命令,下载 Chinese-LLaMA-Alpaca 模型。git clone https://github.com/ymcui/Chinese-LLaMA-Alpaca.git3)执行以下命令,下载 chinese-alpaca-lora-13b 模型。git-lfs clone https://huggingface.co/ziqingyang/chinese-alpaca-lora-13b4)执行以下命令,下载 llama-13b-hf。llama-13b-hf 是预训练的 llama 13b 模型,已经转换成了 Huggingface 的模型格式。下载llama-13b-hf 大约有 40 GiB 的数据,预估下载时间约 30 分钟,请您耐心等待。LLaMA 是第三方提供的 Huggingface 格式的预训练模型数据。Meta 官方发布的 LLaM
阿里云:《玩转AIGC》,点击即可下载。报告格式为PDF,大小6.23M,页数87页,欢迎下载。