马春杰杰博客
致力于深度学习经验分享!

使用Amazon Bedrock Guardrails保护你的DeepSeek模型部署

文章目录
[隐藏]

生成式AI的快速发展带来了强大的公开可用大型语言模型(LLMs),例如DeepSeek-R1,使其成为创新的前沿。DeepSeek-R1模型现已通过Amazon Bedrock MarketplaceAmazon SageMaker JumpStart提供访问,其精炼变体则通过Amazon Bedrock Custom Model Import提供。根据DeepSeek AI的说法,这些模型在推理、编码和自然语言理解方面表现出色。然而,与所有模型一样,在生产环境中部署它们需要仔细考虑数据隐私要求、适当地管理输出中的偏见,以及建立强大的监控和控制机制。

采用开源、开放权重模型(如DeepSeek-R1)的组织有机会解决几个关键问题:

  • 加强安全措施以防止潜在的滥用,可参考资源如OWASP LLM Top 10MITRE Atlas
  • 确保保护敏感信息
  • 促进负责任的内容生成实践
  • 努力遵守相关行业法规

在医疗、金融和政府服务等高度监管的行业中,这些问题尤为关键,因为数据隐私和内容准确性至关重要。
这篇博文提供了使用Amazon Bedrock GuardrailsDeepSeek-R1及其他开放权重模型实施强大安全保护的全面指南。我们将探讨:

  • 如何利用Amazon Bedrock提供的安全功能保护你的数据和应用程序
  • 实施防护措施以防止提示攻击并过滤有害内容的实用方法
  • 实施强大的纵深防御策略

通过遵循本指南,你将学习如何利用DeepSeek模型的先进功能,同时保持强大的安全控制并促进道德AI实践。无论你是开发面向客户的生成式AI应用程序还是内部工具,这些实施模式都将帮助你满足安全和负责任AI的要求。通过遵循这一步步方法,组织可以按照AI安全和安保的最佳实践部署开放权重LLMs(如DeepSeek-R1)。

DeepSeek模型及其在Amazon Bedrock上的部署

专注于开放权重基础AI模型的公司DeepSeek AI最近推出了其DeepSeek-R1模型,根据其paper,这些模型在推理能力和行业基准测试中表现出色。根据第三方评估,这些模型在多个指标中始终名列前三,包括质量指数、科学推理和知识、定量推理以及编码(HumanEval)。
该公司进一步通过发布基于LlamaQwen架构的六种密集模型扩展了其产品组合,这些模型已成为开放权重模型。这些模型现已通过亚马逊云科技的生成式AI解决方案提供访问:DeepSeek-R1可通过Amazon Bedrock MarketplaceSageMaker Jumpstart使用,而基于Llama的精炼版本可通过Amazon Bedrock Custom Model Import实施。可以注册亚马逊云科技账号进行体验:点击注册

Amazon Bedrock提供了全面的security features,以帮助保护开源和开放权重模型的托管和运行,同时保持数据隐私和法规遵从。主要功能包括静态和传输中的数据加密、细粒度访问控制、安全连接选项以及各种compliance认证。此外,Amazon Bedrock提供内容过滤和敏感信息保护的防护措施,以支持负责任的AI使用。亚马逊云科技通过广泛的平台级安全和合规措施增强了这些功能:

组织应根据其特定的合规性和安全需求定制这些安全设置,以部署到生产环境。亚马逊云科技作为其安全流程的一部分,对所有模型容器进行漏洞扫描,并仅接受Safetensors格式的模型,以帮助防止不安全的代码执行。

Amazon Bedrock Guardrails

Amazon Bedrock Guardrails提供了可配置的防护措施,以帮助大规模安全地构建生成式AI应用程序。Amazon Bedrock Guardrails还可以与其他Amazon Bedrock工具集成,包括Amazon Bedrock AgentsAmazon Bedrock Knowledge Bases,以构建更安全、更符合负责任AI政策的生成式AI应用程序。要了解更多信息,请参阅Amazon Responsible AI页面。

核心功能

Amazon Bedrock Guardrails可以通过两种方式使用。首先,它可以直接与InvokeModelConverse API调用集成,在推理过程中对输入提示和模型输出应用防护措施。这种方法适用于通过Amazon Bedrock MarketplaceAmazon Bedrock Custom Model Import托管在Amazon Bedrock上的模型。或者,ApplyGuardrail API提供了更灵活的方法,允许independent evaluation of content,无需调用模型。这种第二种方法适用于在应用程序的各个阶段评估输入或输出,适用于Amazon Bedrock之外的自定义或第三方模型。这两种方法使开发人员能够实施定制的防护措施,以适应其用例并与负责任的AI政策保持一致,确保生成式AI应用程序中的安全和合规交互。

关键Amazon Bedrock Guardrails策略

Amazon Bedrock Guardrails提供了以下可配置的防护策略,以帮助大规模安全地构建生成式AI应用程序:

  • 内容过滤器
    • 可调节的有害内容过滤强度
    • 预定义类别:HateInsultsSexual ContentViolenceMisconductPrompt Attacks
    • 多模态内容,包括文本和图像(预览)
  • 主题过滤器
    • 限制特定主题的能力
    • 防止查询和响应中出现未经授权的主题
  • 词语过滤器
    • 屏蔽特定词语、短语和亵渎语言
    • 针对冒犯性语言或竞争对手提及的自定义过滤器
  • 敏感信息过滤器
    • 个人身份信息(PII)屏蔽或掩码
    • 支持自定义正则表达式模式
    • 对标准格式(如SSNDOB和地址)的概率检测
  • 上下文基础检查
    • 通过来源验证检测幻觉
    • 查询相关性验证
  • 防止幻觉的自动化推理检查(受限预览)

其他功能

与模型无关的实施:

  • 兼容所有Amazon Bedrock基础模型
  • 支持微调模型
  • 通过ApplyGuardrail API扩展到外部自定义和第三方模型

这一全面框架帮助客户实施负责任的AI,在各种生成式AI应用程序中保持内容安全和用户隐私。

解决方案概述

  1. 防护配置
    • 创建针对你的用例定制的特定策略的防护,并配置这些策略。
  1. InvokeModel API集成
    • 在你的请求中调用带有防护标识符的Amazon Bedrock InvokeModel API
    • 当你进行API调用时,Amazon Bedrock会对输入和输出应用指定的防护。
  1. 防护评估过程
    1. 输入评估:在将提示发送给模型之前,防护会根据配置的策略评估用户输入。
    2. 并行策略检查:为了改善延迟,输入会针对每个配置的策略并行评估。
    3. 输入干预:如果输入违反任何防护策略,将返回预配置的屏蔽消息,并丢弃模型推理。
    4. 模型推理:如果输入通过防护检查,提示将被发送到指定的模型进行推理。
    5. 输出评估:在模型生成响应后,防护会根据配置的策略评估输出。
    6. 输出干预:如果模型响应违反任何防护策略,将根据策略屏蔽并返回预配置消息,或掩盖敏感信息。
    7. 响应交付:如果输出通过所有防护检查,响应将不经修改地返回给应用程序

先决条件

在使用Amazon Bedrock Custom Model Import功能导入模型之前设置防护,确保满足以下先决条件:

你可以使用Amazon Management Console创建防护,如本blog post中所述。或者,你可以按照此notebook提供程序化示例,了解如何在此解决方案中创建防护。此笔记本执行以下操作:

  1. 安装所需的依赖项
  2. 使用boto3 API和过滤器创建防护,以满足前面提到的用例。
  3. 为导入的模型配置分词器。
  4. 使用提示测试Amazon Bedrock Guardrails,展示各种Amazon Bedrock防护过滤器的作用。

这种方法将防护集成到用户输入和模型输出中,确保在交互的两个阶段拦截任何潜在有害或不当内容。对于使用Amazon Bedrock Custom Model ImportAmazon Bedrock MarketplaceAmazon SageMaker JumpStart导入的开放权重精炼模型,需实施的关键过滤器包括提示攻击、内容审核、主题限制和敏感信息保护。

使用亚马逊云科技服务实施纵深防御策略

虽然Amazon Bedrock Guardrails提供了必要的内容和提示安全控制,但在部署任何基础模型(特别是像DeepSeek-R1这样的开放权重模型)时,实施全面的纵深防御策略至关重要。有关与OWASP Top 10 for LLMs一致的纵深防御方法的详细指导,请参阅我们之前的blog post,关于构建安全的生成式AI应用程序。
关键亮点包括:

  • 通过从安全角度出发,发展组织的韧性
  • 使用亚马逊云科技服务构建安全的云基础
  • 在多个信任边界应用分层防御策略
  • 解决LLM应用程序的OWASP Top 10风险
  • 在整个AI/ML生命周期中实施安全最佳实践
  • 结合AI和机器学习(AI/ML)特定功能使用亚马逊云科技安全服务
  • 考虑不同视角并将安全与业务目标对齐
  • 准备并缓解提示注入和数据污染等风险

模型级控制(防护)与纵深防御策略的结合创造了一个强大的安全态势,可以帮助防范:

  • 数据泄露尝试
  • 未经授权访问微调模型或训练数据
  • 模型实施中的潜在漏洞
  • AI代理和集成的恶意使用

我们建议在部署任何新的AI/ML解决方案之前,使用Amazon guidance for generative AI workloads进行彻底的威胁建模练习。这有助于将安全控制与特定风险场景和业务需求对齐。

结论

为包括DeepSeek-R1模型在内的LLMs实施安全保护对于维护安全和道德的AI环境至关重要。通过结合Amazon Bedrock InvokeModel APIApplyGuardrails API使用Amazon Bedrock Guardrails,你可以帮助减轻与高级语言模型相关的风险,同时仍利用其强大功能。然而,重要的是要认识到,模型级保护只是全面安全策略的一个组成部分。
本文概述的策略解决了使用Amazon Bedrock Custom Model ImportAmazon Bedrock MarketplaceAmazon SageMaker JumpStart托管在Amazon Bedrock上的各种开放权重模型常见的几个关键安全问题。这些包括对提示注入攻击的潜在漏洞、有害内容的生成以及最近评估中识别的其他风险。通过结合防护措施和纵深防御方法,组织可以显著降低滥用风险,并更好地使其AI应用程序与道德标准和法规要求保持一致。

随着AI技术的不断发展,优先考虑生成式AI的安全和负责任使用至关重要。Amazon Bedrock Guardrails提供了一个可配置且强大的框架,用于实施这些防护措施,使开发人员能够根据其特定用例和组织政策定制保护措施。我们强烈建议使用亚马逊云科技指导对你的AI工作负载进行彻底的威胁建模,以评估安全风险,并在整个技术堆栈中实施适当的控制。

请记住,定期审查和更新不仅是你的防护措施,还有所有安全控制,以应对新的潜在漏洞,并帮助防范AI安全快速发展的环境中不断出现的新威胁。虽然今天我们关注的是DeepSeek-R1模型,但AI领域在不断发展,新的模型定期出现。Amazon Bedrock Guardrails结合亚马逊云科技安全服务和最佳实践,提供了一个一致的安全框架,可以适应保护你当前的和未来的各种开放权重模型的生成式AI应用程序。通过将安全视为评估、改进和适应的持续过程,组织可以自信地部署创新AI解决方案,同时保持强大的安全控制。如需访问更多产品,请访问亚马逊云科技官网。

免费使用DeepSeek满血版

如果你对这篇文章有什么疑问或建议,欢迎下面留言提出,我看到会立刻回复!

打赏
未经允许不得转载:马春杰杰 » 使用Amazon Bedrock Guardrails保护你的DeepSeek模型部署

留个评论吧~ 抢沙发 评论前登陆可免验证码!

私密评论
  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址(选填,便于回访^_^)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

登录

忘记密码 ?

切换登录

注册