半导体行业跟踪报告之二十-边缘算力SoC:AIoT智能终端的大脑,端侧算法部署的核心
敬请参阅最后一页特别声明 -1- 证券研究报告 2024 年 10 月 8 日 行业研究 边缘算力 SoC:AIoT 智能终端的大脑,端侧算法部署的核心 ——半导体行业跟踪报告之二十 电子行业 买入(维持) 作者 分析师:刘凯 执业证书编号:S0930517100002 021-52523849 kailiu@ebscn.com 分析师:孙啸 执业证书编号:S0930524030002 021-52523587 sunxiao@ebscn.com 分析师:黄筱茜 021-52523813 执业证书编号:S0930524050001 huangxiaoqian@ebscn.com 行业与沪深 300 指数对比图 -26%-17%-8%1%10%10/2301/2404/2407/2409/24电子行业沪深300 资料来源:Wind 1、 SoC:智能终端设备的大脑,边缘算力的核心 芯片系统(System-on-Chip,SoC)是一种集成电路,将一个系统所需的所有组件压缩到一块硅片上。SoC 可以分为高性能应用处理器、通用应用处理器、人工智能视觉处理器、智能语音处理器、车载处理器、流媒体处理器等。上述处理器一般内置中央处理器(CPU),根据使用场景的需要增加图形处理器(GPU)、图像信号处理器(ISP)、神经网络处理器(NPU)及多媒体视频编解码器等处理内核。芯片内部设置高速总线负责各个处理器和外部接口的数据传输。配备闪存接口、动态存储器接口、显示接口、网络接口以及各种高速、低速外部设备接口。 SoC 的关键技术主要包括总线架构技术、IP 核可复用技术、软硬件协同设计技术、SoC 验证技术、可测性设计技术、低功耗设计技术、超深亚微米电路实现技术,以及嵌入式软件移植、开发研究,是一门跨学科的研究领域。SoC 意味着在单个芯片上实现以前需要多个芯片才能实现的系统功能,克服了多芯片板级集成出现的设计复杂、可靠性差、性能低等问题,并且在减小尺寸、降低成本、降低功耗、易于开发等方面也有突出优势。SoC 对研发设计、制造工艺以及软硬件协同开发技术的要求较高,主要体现在芯片验证和测试难度的提高,以及 IP 复用、混合电路设计的困难加大。任何 SoC 的设计都是性能、功耗、稳定性、工艺难度几方面的平衡。 图表 1:SoC 示意图 资料来源:华强电子网 完整的 SoC 系统解决方案,除了提供硬件参考设计外,还需要提供系统级的软件参考设计,包括驱动软件、大型 OS(Linux、Android、ChromeOS、国产 OS 等)的移植、针对性的算法、中间件和上层应用软件的适配等,并通过严格的可靠性、兼容性测试。 要点 敬请参阅最后一页特别声明 -2- 证券研究报告 电子行业 2、 边缘算力应用和端侧 AI 算法部署需求巨大 AI 将提升社会劳动生产率,特别是在有效降低劳动成本、优化产品和服务、创造新市场和就业等方面为人类的生产和生活会带来革命性的转变。可以认为,AI 是一个重要的生产力工具,AI 通过与各行各业结合,赋能各行各业。在自动驾驶、智能家居、安防监控、机器人、医疗设备、智慧课堂等新兴行业中,人工智能的技术创新和应用落地是行业智能化的推手。此外,AI 交互、AI 创作等应用场景发展迅速,如自然语言处理工具 ChatGPT 的问世 ,有望进一步推动行业智能化程度不断提升。 AI 技术必须具备三个要素:算法、数据、算力。 (1)数据:AI 蓬勃发展主要是得益于大数据的累积以及 AI 专用算力的大幅增强。 (2)算力:过去 10 年,AI 领域主要的算力载体是以国外芯片厂商提供的 GPU设备为主,广泛应用于与 AI 相关的云端产品。而端侧嵌入式 AI 算力载体从 CPU、GPU、DSP 发展到 ASIC 架构,推动了基于深度学习的语音识别、人脸识别、图文识别、AIGC、目标检测、超分辨率、ADAS 等技术的广泛应用。 (3)算法:模型算法架构持续迭代,Transformer 神经网络结构逐渐成为自然语言处理领域的主流,如 ChatGPT 是其应用之一,主要用于云端产品,各算法厂商开始尝试应用到端侧产品,对端侧算力性能提出了更高的要求,这将推动AI 算力的发展。从 AI 算法模型到端侧 AI 部署应用的落地,需要解决很多技术问题,如模型转换、量化、推理框架、算子融合、算子适配(自定义算子开发)等等。这不仅需要性能优越的算法模型以及可靠的高性能低消耗(低带宽低内存低功耗)硬件加速器,还需要通过 AI 编译器把算法模型转化成硬件设备能识别的表达式进行算法部署,再应用到具体的应用场景,满足用户的体验需求。在算法部署过程,算法开发应用算子级 API 和网络级 API、支持量化感知训练模型导入等加速算法开发效率和应用落地效率。 CPU 是通用处理器,设计用于执行广泛的计算任务。它具有强大的灵活性和可编程性,但可能在特定任务(如 AI 计算)上效率不高。GPU 最初设计用于处理图形和视频渲染,它擅长处理并行计算任务,因此在 AI 领域也得到了广泛应用。然而,GPU 并非专门为 AI 计算设计,它在处理某些类型的 AI 任务时可能不如NPU 高效。CPU 是线性、串行任务(指令)执行,效率较低,通用性较高;GPU是并行处理和专用图形并行处理,效率更高;而 NPU 则是“并行认知处理”,在 AI 机器学习方面,效率更高。 敬请参阅最后一页特别声明 -3- 证券研究报告 电子行业 图表 2:CPU、GPU 和 NPU 的对比 资料来源:公众号【电脑报】《你知道 CPU、GPU,那 NPU 是什么?看完这篇秒懂》 与 CPU 和 GPU 相比,NPU 在以下几个方面具有明显优势: 1)性能:NPU 针对 AI 计算进行了专门优化,能够提供更高的计算性能。 2)能效:NPU 在执行 AI 任务时,通常比 CPU 和 GPU 更加节能。 3)面积效率:NPU 的设计紧凑,能够在有限的空间内提供高效的计算能力。 4)专用硬件加速:NPU 通常包含专门的硬件加速器,如张量加速器和卷积加速器,这些加速器能够显著提高 AI 任务的处理速度。 移动设备中的 NPU:在智能手机中,NPU 在人工智能计算和应用中发挥着至关重要的作用。华为是首批将 NPU 集成到智能手机 CPU 的公司之一,与传统 CPU 和 GPU 相比,NPU 显著提高了人工智能算力和能效。苹果公司的仿生移动芯片利用 NPU 完成了视频稳定、照片校正等任务。NPU 还能增强设备在识别照片内容、调整相机设置以获得最佳拍摄效果、在自拍中创建虚化效果以及辅助三星 Galaxy 设备上的 Bixby Vision 等人工智能驱动功能方面的能力。 其他设备中的 NPU:NPU 在电视和相机等一系列传统上没有先进处理器的设备中越来越受欢迎。但随着每台电子设备本身越来越像一台电脑,NPU 也开始进入家庭中的各种设备。例如,在电视机中,NPU 可将旧版内容的分辨率提升到更现代的 4K 分辨率。在相机中,NPU 可用于实现图像稳定和质量改进,以及自动对焦、面部识别等功能。智能家居设备也在使用 NPU,
[光大证券]:半导体行业跟踪报告之二十-边缘算力SoC:AIoT智能终端的大脑,端侧算法部署的核心,点击即可下载。报告格式为PDF,大小1.2M,页数15页,欢迎下载。
