商用AI:通过更智能的治理、最大化AI投资回报率
商用 AI:通过更智能的治理、最大化 AI 投资回报率目录01 →简介02 →扩展 AI 的挑战03 →所有 AI 均需进行治理04 →全面的 AI 治理05 →watsonx.governance 可实现负责任、透明且可解释的 AI06 →AI 治理实际应用07 →后续步骤201简介人工智能治理对于 实现可扩展性至关重要随着生成式 AI 成为新的现实、企业正通过人工智能驱动的创新来抢占先机。但其中的关键问题仍在于:您的 AI 是否得到了充分治理?要回答这个问题、就需要将安全性和弹性通过设计融入组织的 DNA 中、而不仅仅是在政策中加以说明。为此、需要提供持续、可证明的证据、以证明控制措施正按预期运行、而不是仅仅依赖年度合规性检查。此类持续保证对于满足当今的监管要求以及应对不断变化的风险态势均至关重要。治理是确保企业所有基于 AI 的创新理念都未偏离正轨、且符合全球道德与监管标准的关键所在。有了治理作为安全网、就没有理由在充分发挥 AI 潜力方面退缩。本电子书将帮助您了解更多有关人工智能治理的原则、并让您的企业走上发展的快车道。阅读完整案例或免费试用 watsonx.governance →3下一章01简介与 AI 相关的风险正在上升——合规与监管问题、数据偏见与可靠性问题、以及当用户不了解 AI 模型如何运作或管理时导致的日益严重的信任缺失。AI 智能体是未来的发展方向随着数字化转型步伐的加快、企业正转而采用 AI 智能体、将其作为智能自动化的下一演进方向。根据 Gartner 的一项研究、83%1 的受访者预计 AI 智能体将在 2026 年之前提高流程效率和产出。而 IBM 的一项研究则表明、71%2 的人群认为 AI 智能体将自主适应不断变化的工作流程。Gartner 预测、到 2028 年、至少 15%3 的日常工作决策将由智能体 AI 自主做出、而这一比例在 2024 年为 0%。4下一章高级管理层的高管们承认、他们的组织需要做得更好。60%60% 的 CEO 表示、他们正在强制实施额外的 AI 策略以降低风险。463%虽然 63% 的首席风险官和首席财务官表示他们关注监管与合规风险、但仅有 29% 的人群认为这些风险已得到充分解决。427%约 27% 的上市公司在最近向美国证券交易委员会 (SEC) 提交的文件中指出、AI 监管存在风险。55下一章02扩展 AI 的挑战什么阻碍了组织的发展?两个字:信任。高管们认为、网络安全、隐私和准确性是实施生成式 AI 的最大障碍。随着态势的变化、他们预计会在未来 3 年内将对 AI 伦理的投资至少增加 40%6。驾驭人工智能治理:当前的障碍人工智能治理环境配备了一系列工具、但很多模型在开发过程中都面临透明度、一致监控和准确编目的问题。缺乏全面、自动化、端到端的生命周期管理系统、往往会妨碍可扩展性并导致操作不透明。对可解释的 AI 结果的追求仍难以实现、尤其是随着黑匣模型的兴起。此类模型虽被广泛部署、但往往会掩盖其输出背后的逻辑——甚至对于构建它们的开发人员来说也是如此。缺乏治理可能会导致多种效率低下问题。例如、它可能会导致范围蔓延、阻碍模型的及时部署、致使模型质量参差不齐以及引发未识别的风险。鉴于 AI 开发和部署的复杂性、实施强大、透明和自动化的治理框架对于缓解这些潜在问题至关重要。了解 IDC 对扩展 AI 的主要障碍的看法立即阅读 →6下一章上一章02扩展 AI 的挑战在 AI 领域、驾驭风险与声誉管理的复杂态势可谓令人望而生畏。各种头条新闻持续渲染着不透明 AI 系统所存在的危险、即这些系统在现实场景中使用时可能会产生不公正、莫名其妙或带有偏见的结果。这些有缺陷的结果(通常会受到与种族、性别或年龄相关的隐藏偏见的影响)可能会产生深远的影响、从而既影响客户、又影响品牌的诚信度。例如、以医疗保健等领域的高风险为例。影响患者诊断或治疗计划的 AI 系统必须具备透明性 与公平性。不正确或存在偏见的 AI 建议可能会导致误诊或不当治疗、甚至可能产生危及生命的后果。为了最大程度降低与 AI 相关的风险、组织必须致力于构建透明、公平且包容的系统。可解释的 AI 在检测和防止存在偏见的决策方面发挥着关键作用、同时还能增强隐私保护、安全性以及客户信任。构建值得信赖且无偏倚的 AI、不仅对于提升运营效果至关重要、同时对于避免争议和声誉损害也至关重要。了解有关 AI 风险管理的更多信息 →7下一章上一章02扩展 AI 的挑战适应不断变化的 AI 监管环境成功采用 AI 要求组织遵守快速发展的地方、区域及国家法律和法规。不合规可能会使您的组织面临数千万美元的罚款、7、目前全球范围内正在讨论的某些最严格的 AI 法规就证明了这一点。例如、《欧盟 AI 法案》的现行草案设想的罚款金额最高可达 3,500 万欧元、相当于某公司全球收入的 7%。8模型文档非常重要、但在时间压力下、数据科学家经常忽视这一领域、尤其是在缺乏明确治理要求的组织中。组织不能忽视此步骤;新法规将要求提供全面的模型文档、包括元数据和谱系。了解如何简化AI 合规性阅读我们的博客 →8下一章上一章02扩展 AI 的挑战新兴型智能体 AI 固有的内在特性风险 – 无监督自主行为 – 数据偏见 – 冗余操作 – 对 AI 智能体外部资源的攻击 – 工具选择幻觉 – 共享知识产权/个人身份信息/机密数据挑战 – 可复现性 – 可跟踪性 – 攻击面扩大 – 有害且不可逆转的后果放大后智能体 AI 强化的已知问题风险 – 行动目标偏差 – 歧视性行为 – 过度依赖或依赖不足 – 未授权使用 – 利用信任落差 – 无法解释或追踪的行为 – 透明度缺失挑战 – 评估 – 问责制 – 合规性 – 风险控制与系统维护 – 无限反馈回路 – 共享模型缺陷9探索如何释放智能体 AI 潜能并管控风险了解更多 →下一章上一章03所有 AI 均需进行治理对于所有 AI(包括无人监督的智能体)而言、治理都是不可或缺的。尽管缺乏标记数据、这些智能体仍需接受监督、以确保其行为合乎道德、无偏倚、从而培育 AI 应用程序的信任度和可靠性。以某一无监督的 AI 智能体为例、其任务是对客户进行细分以实现有针对性的营销。如果缺乏适当的治理、该智能体可能会无意中根据敏感属性(如种族或收入)对客户进行分组、从而导致潜在的歧视性行为。治理措施可能包括:1. 算法审计:定期审查智能体的聚类流程、确保其不依赖于受保护的属性2. 公平指标:实施相关指标、评估智能体的输出是否存在偏见或歧视迹象3. 人机交互:包括人工监督、以验证并在必要时调整智能体的决策通过引入这些治理策略、您可以减轻无意偏见的风险、并确保无监督 AI 智能体公平、有效地运行。深入了解 IBM 如何 帮助治理智能体 AI了解更多 →10下一章上一章03所有 AI 均需进行治理生成式模型生成式 AI 模型包括基础模型 (FM) 和大型语言模型 (LLM)。此类模型有可能释放数万亿美元的经济价值、9、因为它们能凭借其出色的性能来提高生产力、并可适应各类任务。此类模型具备高度可定制性、可扩展性和成本效益。它们能够查询大量数据、并可实时持续学习。现有的生成式应用程序所需专业知识较
[IBM商业价值研究院]:商用AI:通过更智能的治理、最大化AI投资回报率,点击即可下载。报告格式为PDF,大小1.78M,页数23页,欢迎下载。



