人工智能2.0时代的人才培养和通识教育课程建设
2025年高等学校人工智能通识教育研讨会------------人工智能2.0时代的人才培养和通识教育课程肖睿2025年7月12日 青岛• 北大青鸟人工智能研究院• 北大计算机学院• 北大教育学院学习科学实验室第2页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第2页人工智能2.0时代的人才培养和通识教育课程1.人工智能的前世今生2.大模型的特点和局限3.大模型的发展观察01人工智能2.0时代1.人才需求2.人工智能通识课02人才需求和通识教育课第3页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第3页人工智能0.0:古代(1956-2006,从规则到学习)人工智能:让机器具备人类智能,让机器具备非人类智能(超人类智能)➢传统(知识+规则):专家系统(知识库+推理机)➢现代(数据+学习):机器学习(模型、目标、策略),数据模型(IID,用数学模型模拟世界)•常规统计学习方法:逻辑回归,决策森林,支持向量机,马尔科夫链,……✓小数据,人工特征,部分可解释,缺乏通用性和跨模态•人工神经网络:与人脑最大的共同点是名字(原理、机制和架构并不一样),用神经网络表达数学模型1、传统神经网络:霍普菲尔德网络,玻尔兹曼机,…..2、深度神经网络:深度学习(Hinton,2006)✓大数据,特征表示,基本不可解释,具备通用性和跨模态第4页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第4页人工智能1.0:近代(2006-2020,深度学习)➢ 2006:传统架构:DBN,CNN,RNN,ResNet,Inception,RWKV,……•ImageNet(超过人眼)•AlphaGO(超过人类棋手)•AlphaFold(超过人类科学家)➢ 2017:Transformer架构:注意力机制(Attention)◼ 预训练模型架构:•编码器(BERT):embedding,Ernie1.0,……•混合网络:T5、GLM(早期)•解码器(GPT):生成式人工智能(AIGC)深度学习:深度神经网络◼ 预训练模型架构:•并行矩阵计算(GPU)•堆叠架构,容易扩展,大力出奇迹第5页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第5页人工智能2.0:现代(2020-,大模型)大模型(预训练大模型):大(数据多、参数多、算力多),模型(语言、视觉、多模态)➢ GPT架构:解码器(GPT),生成式人工智能(AIGC),生成-理解-决策(RL)•Transformer:大语言模型(LLM,大模型),多模态模型ChatGPT(4.1、4o、o1、o3、o4)、Claude;Grok、Gemini;Llama、……DeepSeek、Step、Qwen;Kimi、MiniMax;GLM、火山(豆包)、元宝、百度……•Transformer+Diffusion:视觉模型图像:Stable Diffusion、Mid-Journey、DALL.E等视频:Sora、可灵、即梦、Vidu、海螺等➢ 通用模型 vs 垂直模型(行业模型)•传媒、编码• 教育、医疗、金融等第6页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第6页人工智能2.0时代的人才培养和通识教育课程1.人工智能的前世今生2.大模型的特点和局限3.大模型的发展观察01人工智能2.0时代1.人才需求2.人工智能通识课02人才需求和通识教育课第7页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第7页Generative(生成式)Pre-trained(预训练)Transformer(一种深度神经网络架构)大模型的工作原理: NTP(Next Token Prediction)4.基于上下文预测下一个token•为可能的单词分配概率分数•示例:{“去”:0.7. “停":0.2,“站":0.1}3.采用Transformer架构处理token•理解token之间的关系•识别提示词的整体含义5.根据概率分数选择标记示例:“去”1. 收到提示词示例:“今天天气不错,我决定”自回归(AR):重复步骤4和步骤5直到形成完整的句子示例:今天天气不错,我决定去公园准确地讲,这里不是“字”,是“token”,可以进行语义计算。2.将输入拆分为token“今天”, “天”, “气”, “不”“,”, “我”, “决定”概率预测+文字接龙LLM:Large Language Model, “错”][,GPT第8页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第8页大模型的工作过程:预训练-后训练-推理大模型工作过程阶段1:模型训练(预训练+后训练)预训练(自监督)阶段2:推理强化学习(RLHF等等)处理输入(上下文)进行推理(测试时计算)生成输出监督微调接收输入(提示词)第9页01.人工智能的前世今生02.大模型的特点和局限03.大模型的发展观察04.大模型时代的人才需求05.人工智能通识课学习交流可加微信号(zhixingzhaizhuren)第9页大模型的最新发展(从原子弹到氢弹):推理2022.122023.062023.122024.062025.03生成模型推理模型ref: SuperCLUE团队 中文大模型基准测评2025年3月报告 •OpenAI 推出基于 GPT-4o 模型的图像生成功能,取代此前的 DALL·E 3成为ChatGPT 和 Sora 平台的默认图像引擎•OpenAI发布o3-mini 、GPT-4.5,前者推动成本效益推理,后者展现出较高的情感智能。•Gemini 2.0 Flash Thinking、Claude-3.7-Sonnet、Grok3发布,海外推理模型引发热潮,推理性能大幅度提升。•国内推理模型持续跟进。DeepSeek-R1、QwQ-32B、Kimi1.5、GLM-Zero、Skywork o1、讯飞星火X1等推理模型陆续发布,继续突破推理能力的上限。•国内模型性能持续提升。DeepSeek-V3、Qwen2.5、豆包-Pro、混元-Turbo与GLM-4-Plus等系列模型综合能力上持续提升。•国内开源生态持续引领模型普惠化。DeepSeek-R1通过开源与性价比优势持续推动行业技
[北京大学]:人工智能2.0时代的人才培养和通识教育课程建设,点击即可下载。报告格式为PDF,大小6.12M,页数48页,欢迎下载。

