/ ai资讯

AI智能体规模化应用前夜:英伟达NeMo Guardrails筑牢安全防线

发布时间:2025-01-23 17:46:10

随着AI智能体的快速发展,它们正变得日益复杂、自主且功能多样,应用范围也在持续扩大。然而,在AI智能体即将步入“规模就业”的新阶段之前,安全问题成为了企业不可忽视的重大挑战。为了确保AI智能体的广泛应用,企业必须在信任、物理安全、网络安全以及合规性等方面做好充分准备。

为了应对这些挑战,英伟达近日推出了全新的NVIDIA NIM AI Guardrail微服务。作为NVIDIA NeMo Guardrails软件工具系列的重要组成部分,该微服务旨在帮助开发者在大语言模型(LLM)应用中集成和管理AI护栏,从而确保AI智能体的安全可控。目前,包括Amdocs、Cerence AI以及劳氏公司(Lowe‘s)在内的众多行业领军企业,都在使用NeMo Guardrails来保护其AI应用的安全。

一项针对企业组织采用AI智能体的调研显示,绝大多数组织对AI智能体持积极态度。其中,10%的组织已经在使用AI智能体,52%计划在未来2-3年内实施,而30%则计划在明年内就引入AI代理。仅有7%的组织表示尚未考虑使用AI智能体。这表明,未来两三年内,AI智能体有望在众多组织中实现广泛应用。

然而,企业在部署AI智能体的过程中,仍需面临诸多挑战。英伟达指出,安全性、数据隐私、治理以及性能是四大关键因素。为了确保AI智能体的安全可控,NVIDIA NeMo Guardrails提供了一套全面的解决方案,涵盖了定义、编排和执行三个关键环节。

在定义环节,企业可以根据自身需求定制安全规则;在编排环节,NeMo Guardrails能够高效整合多个专业化的安全规则;在执行环节,则确保AI智能体在保持高性能的同时,严格遵守安全规则。

为了进一步提升AI智能体的安全性和合规性,NeMo Guardrails引入了三项全新的NIM微服务:内容安全NIM微服务、话题控制NIM微服务和越狱检测NIM微服务。这些微服务能够防止AI生成有偏见或有害的输出,确保对话内容符合道德标准,并增加对越狱企图的防护。

据英伟达介绍,由于“一刀切”的方法无法有效保护和控制复杂的代理式AI工作流,因此NeMo Guardrails采用了多个轻量级专业模型作为护栏。这种方法不仅能够弥补全局策略和保护措施的不足,还能在不显著影响性能的情况下,显著提高AI智能体的安全性和合规性。

相关测试结果显示,在添加了AI安全护栏后,响应延迟仅为半秒,而合规性则提高了1.5倍。这表明NeMo Guardrails能够在保持高性能的同时,显著提升AI代理的安全性和合规性。

此外,NeMo Guardrails还使用了Aegis内容安全数据集进行训练,该数据集是同类中质量较高的人工注释数据源之一。这使得NeMo Guardrails在审核内容安全方面更具优势。

借助全新的NVIDIA NIM AI Guardrail微服务,开发者可以构建更加安全、可信的AI智能体。这些智能体能够遵循特定语境准则做出安全、适当的回答,并有效抵御越狱企图。它们可被广泛应用于汽车、金融、医疗、制造、零售等行业,提高客户满意度和信任度。

目前,多个行业已经开始采用NVIDIA的NeMo Guardrails来增强AI应用的安全性和可控性。作为一个开源工具,NeMo Guardrails允许开发者通过编排AI策略来提升大型语言模型应用的安全性。同时,NVIDIA还与多家领先企业合作,将NeMo Guardrails集成到他们的解决方案中,以提供更安全、可靠的生成式AI应用。

未来,随着AI智能体的广泛应用,NeMo Guardrails的开放性和可扩展性将使其能够集成更多的AI安全模型和防护提供商的生态系统,以及AI可观察性和开发工具。这将进一步增强NeMo Guardrails的监控和推理能力,为AI智能体的安全可控提供更加坚实的保障。

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com