大模型安全与伦理研究报告2024-腾讯研究院
132024.01隠㚵梲䇑呺䖢咇々隠㚵蔠裮䅳々隠㚵玈廬俋浧矇々玜雲俋叧獿鰷蹺䅕蔠裮羠䅳々牸焎俋叧嶼鱖䀍醮斶懪呏瑪瑪蹺㳛砎呺䖢咇谨殃挤郎橙=扮芤岌阃刹愤 2024ⅩⅩ懊犢賭跋 AI 尼璣谨殃挤聪艇4俋浧矇呏瑪醮愛絔蔠裮悞鶯2024ⅩⅩ飨㠥㠩麇AI媆䎘俋浧矇攝昦訅酽覈 俋浧矇僨嗴㢑獻1.1 俋浧矇錨桹醭讜鲋™酛浧矇艊竑砎嶗〓獻1.2 俋浧矇恖梮鎢㬫僨嗴甡㫧䯖媆䎘昦艊AI䉺噯1.3 ǹ趵鄽鉚俋浧矇艊僨嗴粷笶1.4 俋浧矇僨嗴艊恖梮昦誤謭訅鲈覈 俋浧矇酓呏瑪䎘╪夃棾艊梽㭔醮慙徔2.1 梽㭔䯤俋浧矇鮪呏瑪鄓獿䎘╪夃棾昦艊姉羮嶗亱㳝敱楇2.2 慙徔䯤俋浧矇姉羮忞䉳踮艊呏瑪慙徔 訅醑覈 俋浧矇呏瑪橅楯3.1 俋浧矇呏瑪橅楯艊熱僨砎3.2 俋浧矇呏瑪橅楯艊呺㣻屒㣵3.3 俋浧矇呏瑪橅楯艊恖梮醎姪010203060911121525262728唪柠1235363746495458596061656668訅蠐覈 俋浧矇呏瑪艊桭長呺㣻會熴4.1 Prompt呏瑪牣㛊4.2 俋浧矇鰤聶敜䅂甡鄨4.3 俋浧矇瑧魍蔅呏瑪䅂悜呺㣻4.4 俋浧矇▕蕬㛄昻甗爗呏瑪䅂悜昷橉訅鲕覈 俋浧矇麽過唻䩷艊㫧嗴嶗㢑獻5.1 俋浧矇呏瑪嶗唻䩷彾踵瑪絑屟㚴䎪5.2 AI麟趵慁醁扢㫧呏瑪嶗唻䩷昷䉳艊靕嬣扥昻5.3 俋浧矇麽過唻䩷艊恖梮嶗熎絔昷橉5.4 俋㓇浧麽過唻䩷䉳踮艊踽㒄慙徔5.5 俋浧矇呏瑪嶗唻䩷艊鲅㚴嶗頌杛訅嗎覈 俋浧矇呏瑪嶗愛絔梥棾㢑獻456011渚1泓 谨殃挤惰凌龔悼在当前快速发展的数字化时代,人工智能技术正在引领科技创新的浪潮,而其中的大模型技术被视为人工智能的一项重大突破,让人工智能领域迎来发展的转折点。归功于深度学习的发展和硬件计算能力的提升,大模型能够在自然语言处理、计算机视觉、语音识别等领域展现出卓越的表现,随着大模型的不断演进和优化,它们在商业领域的应用也越来越广泛,金融、医疗、广告、营销等领域都能够通过大模型实现更精准的用户推荐和个性化服务。02俋浧矇呏瑪醮愛絔蔠裮悞鶯2024ⅩⅩ飨㠥㠩麇AI媆䎘俋浧矇攝昦1.1 俋浧矇錨桹醭讜鲋™酛浧矇艊竑砎嶗〓獻第一,大模型和传统模型在规模上存在差异。大模型是基于深度学习的方法,具有更多的参数和更复杂的模型结构,往往具有数十亿百亿千亿以上个参数。这样庞大的参数量使得大模型能够更好地捕捉数据中的复杂模式和特征,通过多层次的神经元连接和权重调整,能够学习到更丰富的语义和特征表示,从而提升了模型的表现能力。第二,大模型和传统模型在训练数据上存在差异。大模型能够更好地捕捉数据中的统计规律和模式,提高模型的泛化能力和预测准确性。然而,海量训练数据中也可能包含着一些敏感数据和个人信息,这使得数据泄露和隐私侵犯的风险不可忽视。一旦这些敏感信息遭受泄露,个人隐私权益可能会遭受严重损害,甚至被用于恶意行为,这些恶性事件的发生不仅会给受害者带来经济损失,还可能引发社会的恐慌和对大模型的信任危机。第三,大模型和传统模型在计算资源上存在差异。由于大模型具有更多的参数和更复杂的模型结构,因此需要更多的计算资源进行训练和推理。传统模型通常可以在较低的计算资源下进行训练和推理,而大模型则需要更强大的计算设备和算力支持。因此,大模型的发展进步与深度学习和硬件计算能力的提升密不可分,硬件计算能力的提升也为大模型的训练和推理提供了强大的计算支持。第四,大模型和传统模型在任务表现上存在差异。由于大模型具有更强大的表达能力和更多的参数,因此在许多任务上展现出更好的性能。而传统模型通常只能在一些简单的任务上表现良好,但在复杂的任务上往往无法达到大型模型的水平。而大模型的强大能力也是一把双刃剑,它也可能被用于进行各种形式的恶意攻击。恶意使用者制造的虚假信息,借用大模型的能力,可能放大危害结果,例如在社交媒体平台上传播误导性信息,从而扰乱社会秩序。此外,大型模型的使用往往涉及到社会伦理和法律问题。例如,算法的歧视性问题,即模型在处理数据时产生的不公平或偏见,可能引发社会的不满和争议。第五,大模型和传统模型在可解释性上存在差异。传统模型通常具有较好的可解释性,可以清晰地解释模型的决策过程和特征权重。而大模型由于参数数量庞大和模型结构复杂,往往难以直观地解释其决策过程。此外,大模型本身也很容易成为攻击者的目标。模型参数和权重的泄露可能导致知识产权的损失,甚至使恶意使用者能够复制或修改模型,进一步加剧风险。对模型03的针对性攻击,如投毒攻击,可能会导致模型输出产生不良影响,从而影响到正常的业务运营。综上所述,建立可靠的大型模型安全风险控制体系势在必行。本白皮书旨在全面探讨大模型安全与伦理问题,并为各界提供指导,以确保大型模型在广泛应用中的安全性和可信度。通过深入分析大型模型领域的安全挑战,我们可以制定切实可行的措施,确保大型模型在为人类创造价值的同时,也能够保障个人隐私、社会稳定和信息安全。1.2 俋浧矇恖梮鎢㬫僨嗴甡㫧䯖媆䎘昦艊 AI 䉺噯大模型通常指具有大量参数以及复杂结构的神经网络模型,这些模型通常需要大量的数据和计算资源进行训练,以实现较高的性能和泛化能力。在以 GPT 为代表的一系列大模型真正兴起之前,相关的技术以及训练的范式也早已孕育。1.2.1 薴鬣▕蕬算力这一问题在过去一直制约着深度学习发展。在深度学习模型中,存在着以亿计的参数,并且这些参数需要进行大量的运算才能够推理出最后需要的特征或结果。GPU 提供了高效的并行计算能力,极大地加速了模型的训练过程。这一技术突破使得研究人员能够处理规模更大、复杂度更高的模型。 1.2.2 餱媀嶗浧矇酁椨艊敘黌早期的神经网络因为结构简单,针对不同的任务分化出了不同的应用方向,例如计算机视觉,自然语言处理,语音等等。但是在 2017 年,随着 Google 团队的 Transformer 架构出现,这一模型在自然语言处理的问题当中取得了惊人的成功,该模型架构仅有 Attention 机制组成,能够实现自然语言文本的翻译。大模型的萌芽最早诞生于自然语言处理领域,Transformer 取代了 ResNet 等模型架构成为了研究的主流,谷歌和微软分别针对 Transformer 的编码部分以及解码部分进行研究从而产生了两条技术路线,即以 Bert 为代表的仅用编码器部分的路线和以 GPT 为代表的仅用解码器部分的路线。04俋浧矇呏瑪醮愛絔蔠裮悞鶯2024ⅩⅩ飨㠥㠩麇AI媆䎘俋浧矇攝昦图 1:Transformer 结构(来源:来自 Google 论文《Attention Is All You Need》)而 Bert 以及 GPT 都用到了预训练的训练范式,也即是利用大量的数据训练一个基础模型,然后在下游任务上进行一点微调就能够在相应的任务上得到很好的性能表现。05图 2:BERT 结构(来自 Google 论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》)而真正让大模型进入公众视野的正是以 GPT-3.5 为基础构建的 ChatGPT,OpenAI 基于前几代GPT 的架构,在增加了参数量以及训练数据量之后,呈现出了一种涌现的能力。也即随着规模的增加,大模型的
大模型安全与伦理研究报告2024-腾讯研究院,点击即可下载。报告格式为PDF,大小39.9M,页数75页,欢迎下载。