马春杰杰 Exit Reader Mode

DeepSeek-R1模型现已在Amazon上提供

在过去的Amazon re:Invent大会上,AmazonCEO Andy Jassy分享了宝贵的经验教训,这些经验来自Amazon自身开发公司内近1,000生成式AI应用的实践。基于这种大规模AI部署的经验,Jassy提出了三个关键观察,这些观察塑造了Amazon对企业AI实施的方法。

首先,随着生成式AI应用规模的扩大,计算成本变得非常重要。人们非常渴望获得更好的性价比。第二,构建一个真正优秀的生成式AI应用实际上相当困难。第三是当我们给予开发者自由选择时,他们使用的模型多样性。这并不让我们感到惊讶,因为我们不断学习同一个教训,那就是永远不会有一种工具能统治整个世界。

正如Andy强调的,Amazon云科技提供的广泛而深入的模型范围使客户能够选择最能满足其独特需求的精确功能。通过密切关注客户需求和技术进步,Amazon定期扩展我们精选的模型,将有前景的新模型与已建立的行业最爱一起纳入其中。这种高性能和差异化模型产品的持续扩展帮助客户保持在AI创新的前沿。

这就引出了中国AI初创公司DeepSeekDeepSeek202412月推出了DeepSeek-V3,随后于2025120日发布了DeepSeek-R1、拥有6710亿参数的DeepSeek-R1-Zero,以及参数范围从15亿到700亿的DeepSeek-R1-Distill模型。他们于2025127日添加了基于视觉的Janus-Pro-7B模型。这些模型是公开可用的,并且据报道比可比较的模型便宜90-95%,更具成本效益。根据DeepSeek的说法,他们的模型以推理能力著称,这是通过强化学习等创新训练技术实现的。

今天,你现在可以在Amazon BedrockAmazon SageMaker AI中部署DeepSeek-R1模型Amazon Bedrock最适合寻求通过API快速集成预训练基础模型的团队。Amazon SageMaker AI非常适合希望进行高级定制、训练和部署,同时访问底层基础设施的组织。此外,你还可以使用Amazon TrainiumAmazon Inferentia通过Amazon Elastic Compute Cloud (Amazon EC2)Amazon SageMaker AI经济高效地部署DeepSeek-R1-Distill模型。

借助Amazon云科技,你可以使用DeepSeek-R1模型以最少的基础设施投资,构建、实验并负责任地扩展你的生成式AI创意,利用这个强大、高效的模型。你还可以通过构建在专为安全而设计的Amazon云科技服务上,自信地推动生成式AI创新。我们强烈建议将DeepSeek-R1模型的部署与Amazon Bedrock Guardrails集成,为你的生成式AI应用添加一层保护,这可以被Amazon BedrockAmazon SageMaker AI客户使用。

你可以通过几种方式在Amazon云科技上部署DeepSeek-R1模型:1/Amazon Bedrock Marketplace用于DeepSeek-R1模型2/Amazon SageMaker JumpStart用于DeepSeek-R1模型3/Amazon Bedrock Custom Model Import用于DeepSeek-R1-Distill模型,以及4/Amazon EC2 Trn1实例用于DeepSeek-R1-Distill模型

让我带你了解在Amazon云科技上开始使用DeepSeek-R1模型的各种途径。无论你是构建第一个AI应用还是扩展现有解决方案,这些方法都根据你团队的专业知识和需求提供灵活的起点。第一步需要先注册亚马逊云科技的账号:点击注册

1. Amazon Bedrock Marketplace中的DeepSeek-R1模型 Amazon Bedrock Marketplace提供超过100个流行、新兴和专业的基础模型,与Amazon Bedrock中现有的行业领先模型一起。你可以在单一目录中轻松发现模型,订阅模型,然后在托管端点上部署模型。

要在Amazon Bedrock Marketplace中访问DeepSeek-R1模型,请转到Amazon Bedrock控制台,在基础模型部分下选择模型目录。你可以通过搜索或按模型提供商筛选快速找到DeepSeek

在查看包括模型功能和实施指南的模型详情页面后,你可以通过提供端点名称、选择实例数量和选择实例类型直接部署模型。

你还可以配置高级选项,让你自定义DeepSeek-R1模型的安全和基础设施设置,包括VPC网络、服务角色权限和加密设置。对于生产部署,你应该审查这些设置,以符合组织的安全和合规要求。

使用Amazon Bedrock Guardrails,你可以独立评估用户输入和模型输出。你可以通过过滤生成式AI应用中不良和有害内容,用你定义的一系列策略控制用户与DeepSeek-R1之间的交互。Amazon Bedrock Marketplace中的DeepSeek-R1模型只能与BedrockApplyGuardrail API一起使用,以评估Amazon Bedrock外部可用的自定义和第三方基础模型的用户输入和模型响应。要了解更多信息,请阅读使用Amazon Bedrock Guardrails实施与模型无关的安全措施

Amazon Bedrock Guardrails还可以与其他Bedrock工具集成,包括Amazon Bedrock AgentsAmazon Bedrock Knowledge Bases,构建与负责任AI政策一致的更安全、更可靠的生成式AI应用。要了解更多信息,请访问Amazon云科技负责任AI页面。

21日更新 – 你可以使用Bedrock playground了解模型如何响应各种输入,让你优化提示以获得最佳结果。

使用BedrockplaygroundInvokeModel APIDeepSeek-R1模型时,请使用DeepSeek的聊天模板以获得最佳结果。例如,<|begin_of_sentence|><|User|>用于推理的内容<|Assistant|>

参考这个分步指南,了解如何在Amazon Bedrock Marketplace中部署DeepSeek-R1模型。要了解更多信息,请访问Amazon Bedrock Marketplace中部署模型

2. Amazon SageMaker JumpStart中的DeepSeek-R1模型 Amazon SageMaker JumpStart是一个机器学习(ML)中心,提供基础模型、内置算法和预构建的ML解决方案,你只需点击几下即可部署。要在SageMaker JumpStart中部署DeepSeek-R1,你可以在SageMaker Unified StudioSageMaker StudioSageMaker AI控制台中发现DeepSeek-R1模型,或通过SageMaker Python SDK以编程方式进行。

Amazon SageMaker AI控制台中,打开SageMaker Studio并选择JumpStart,然后在所有公共模型页面中搜索”DeepSeek-R1“。

你可以选择模型并选择部署,使用默认设置创建端点。当端点变为InService状态时,你可以通过向其端点发送请求进行推理。

你可以使用Amazon SageMaker AI功能获得模型性能和ML操作控制,例如Amazon SageMaker PipelinesAmazon SageMaker Debugger容器日志。该模型部署在Amazon云科技安全环境中,并受你的虚拟私有云(VPC)控制,有助于支持数据安全。

Bedrock Marketplace一样,你可以在SageMaker JumpStart中使用ApplyGuardrail API,将生成式AI应用的安全措施与DeepSeek-R1模型分离。你现在可以在不调用基础模型的情况下使用护栏,这为将标准化和经过全面测试的企业安全措施集成到应用流程中开辟了道路,而不考虑所使用的模型。

参考这个分步指南,了解如何在Amazon SageMaker JumpStart中部署DeepSeek-R1模型。要了解更多信息,请访问SageMaker Unified Studio中发现SageMaker JumpStart模型SageMaker Studio中部署SageMaker JumpStart模型

3. 使用Amazon Bedrock Custom Model ImportDeepSeek-R1-Distill模型 Amazon Bedrock Custom Model Import提供了导入和使用自定义模型的能力,这些模型可以与现有基础模型一起通过单一无服务器统一API使用,无需管理底层基础设施。使用Amazon Bedrock Custom Model Import,你可以导入参数范围从15亿到700亿的DeepSeek-R1-Distill模型。正如我在关于Amazon Bedrock模型蒸馏的博客文章中强调的那样,蒸馏过程涉及训练更小、更高效的模型,通过使用6710亿参数的较大DeepSeek-R1模型作为教师模型,模仿其行为和推理模式。

将这些公开可用的模型存储在Amazon Simple Storage Service (Amazon S3)存储桶或Amazon SageMaker Model Registry中后,转到Amazon Bedrock控制台基础模型下的导入模型,并通过Amazon Bedrock将它们导入并部署在完全托管的无服务器环境中。这种无服务器方法消除了基础设施管理的需求,同时提供企业级安全和可扩展性。

21日更新 – 导入蒸馏模型后,你可以使用Bedrock playground了解蒸馏模型对你输入的响应。

观看由我的同事Du'An Lightfoot制作的演示视频,了解如何导入模型并在Bedrock playground中进行推理。

参考这个分步指南,了解如何使用Amazon Bedrock Custom Model Import部署DeepSeek-R1-Distill模型。要了解更多信息,请访问将自定义模型导入Amazon Bedrock
4. 使用Amazon TrainiumAmazon InferentiaDeepSeek-R1-Distill模型 Amazon Deep Learning AMIs (DLAMI)提供定制的机器映像,你可以在各种Amazon EC2实例中使用这些映像进行深度学习,从小型仅CPU实例到最新的高功率多GPU实例。你可以在Amazon Trainuim1Amazon Inferentia2实例上部署DeepSeek-R1-Distill模型,以获得最佳性价比。

要开始,请转到Amazon EC2控制台,使用名为Deep Learning AMI Neuron (Ubuntu 22.04)的Neuron多框架DLAMI启动trn1.32xlarge EC2实例。

连接到已启动的EC2实例后,安装vLLM(一个开源工具,用于服务大型语言模型(LLM))并从Hugging Face下载DeepSeek-R1-Distill模型。你可以使用vLLM部署模型并调用模型服务器。

要了解更多信息,请参考这个分步指南,了解如何在Amazon InferentiaTrainium上部署DeepSeek-R1-Distill Llama模型。

你也可以访问 Hugging Face上的DeepSeek-R1-Distill模型卡片 ,例如 DeepSeek-R1-Distill-Llama-8Bdeepseek-ai/DeepSeek-R1-Distill-Llama-70B。选择 Deploy 然后选择 Amazon SageMaker。从 Amazon Inferentia and Trainium 选项卡中,复制部署DeepSeek-R1-Distill模型的示例代码。

DeepSeek-R1发布以来,已经发布了各种关于其在Amazon EC2Amazon Elastic Kubernetes Service (Amazon EKS) 上部署的指南。以下是一些值得查看的额外资料:

需要了解的事项 以下是一些重要的注意事项。

现已推出 DeepSeek-R1现已在美国东部(俄亥俄州)和美国西部(俄勒冈州)Amazon云科技区域的Amazon Bedrock MarketplaceAmazon SageMaker JumpStart中全面可用。你还可以使用配备Amazon TrainumInferent芯片的Amazon Bedrock自定义模型导入和Amazon EC2实例来使用DeepSeek-R1-Distill模型。如需访问更多产品,请访问亚马逊云科技官网。

立即在 Amazon Bedrock控制台Amazon SageMaker AI控制台Amazon EC2控制台中尝试DeepSeek-R1模型,并通过 Amazon re:Post for Amazon BedrockAmazon re:Post for SageMaker AI 或通过你常用的Amazon云科技支持联系人发送反馈。