赛尔校园公共服务平台 Logo
平台使用
阿里云
百度云
移动云
智算服务
教育生态
登录 →
赛尔校园公共服务平台 Logo
平台使用 阿里云 百度云 移动云 智算服务 教育生态
登录
  1. 首页
  2. 阿里云
  3. 函数计算 FC 3.0
  4. 实践教程
  5. AI推理
  6. 0代码,2种方式,一键部署DeepSeek系列模型

0代码,2种方式,一键部署DeepSeek系列模型

  • AI推理
  • 发布于 2025-04-16
  • 0 次阅读
文档编辑
文档编辑

DeepSeek凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill是使用DeepSeek-R1生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。云原生应用开发平台 CAP提供模型服务、应用模板两种部署方式辅助您部署DeepSeek R1系列模型。完成模型部署后,您可以与模型进行对话体验,或以API形式进行调用,接入AI应用中。

支持的模型列表

部署方式说明:

Ollama:轻量级推理框架,专注于量化模型部署及各种开源LLM部署。

Transformer:由Hugging Face提供的模型推理框架,支持 PyTorch、TensorFlow 等主流深度学习框架的模型部署。

模型

部署方式

最低配置

DeepSeek-R1-Distill-Qwen-1.5B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-7B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-1.5B-GGUF

Ollama

Tesla 8GB

DeepSeek-R1-Distill-Qwen-7B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B-GGUF

Ollama

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B-GGUF

Ollama

Ada 48GB

前置准备

  1. 首次使用云原生应用开发平台 CAP会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。

  2. 本教程在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式等同于函数计算的闲置预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述。

部署说明

本文通过应用模板和模型服务两种方式部署DeepSeeK服务,这两种方式支持的模型列表的是相同的,您可以通过以下任一方式部署DeepSeek蒸馏模型至函数计算。

方式一:应用模板部署:基于云原生应用开发平台 CAP的模板进行一键部署,部署方式简单快捷。但是由于基于模板进行部署,初次部署使用模板默认提供的DeepSeek-R1-Distill-Qwen-7B模型,导致无法自选模型。部署完成后,可在基础配置中更改模型。

方式二:模型服务部署:在部署的时候可以灵活选择模型,但是操作步骤相对较多,在部署时,需要灵活选择模型参数,有可能配置参数输入错误导致部署失败。

方式一:应用模板部署

1. 创建项目

登录函数计算3.0控制台,在左侧导航栏选择应用,在应用页面选择CAP 应用平台页签,然后单击创建项目 > 基于模板创建。

说明

当左上角显示函数计算FC 3.0时,表示当前控制台为3.0控制台。

image

2. 部署模板

  1. 在搜索栏输入DeepSeek进行搜索,单击基于 DeepSeek-R1 构建AI 聊天助手,进入模板详情页,单击立即部署。

    image

    image

  2. 选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。

    说明
    • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。

    • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。

    image

    image

3. 验证应用

部署完毕后,点击Open-WebUI服务,在访问地址内找到公网访问单击访问。

image

image

方式二:模型服务部署

本文将以DeepSeek-R1-Distill-Qwen-7B-GGUF模型为例演示部署流程。使用API形式进行模型调用,接入线上业务应用。

1. 创建空白项目

登录函数计算3.0控制台,在左侧导航栏选择应用,在应用页面选择CAP 应用平台页签,然后单击创建项目 > 创建空白项目。

说明

当左上角显示函数计算FC 3.0时,表示当前控制台为3.0控制台。

image

image

2. 选择模型服务

image

3. 部署模型服务

  1. 选择模型DeepSeek-R1-Distill-Qwen-7B-GGUF。

    image

  2. 单击资源配置,DeepSeek-R1-Distill-Qwen-7B-GGUF推荐使用Tesla系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。

    image

  3. 单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待10分钟左右即可完成。

    image

    image

4. 尝试更多模型部署

  1. 如果您希望部署更多模型,但是支持列表中没有,您可以选择更多模型来源。

    image

  2. 您可以选择更多模型,支持的模型列表请参见支持的模型列表,假设您选择DeepSeek-R1-Distill-Qwen-7B-GGUF模型,其参考信息如下。

    配置名称

    值

    ModelScope ID

    lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF

    执行框架

    Ollama

    模型加载方式

    单文件加载

    GGUF 文件

    DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf

    image

  3. 您可以登录ModelScope官网获取相关模型 ID、GGUF文件。以DeepSeek 14B为例,如希望部署14B模型可将配置改为以下参数。

    配置名称

    值

    ModelScope ID

    lmstudio-community/DeepSeek-R1-Distill-Qwen-14B-GGUF

    GGUF 文件

    DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf

    在下图中,其中①表示为ModelScope ID的值,②表示为GGUF 文件,列表为不同的量化精度型文件,根据需求任选其一即可。

    image

    更多ollama参数配置如params,template 等,可参考DeepSeek ollama library。14B及以上模型需在资源配置中使用Ada系列显卡,并且使用全卡预留48G显存。

5. 验证模型服务

单击调试,即可测试和验证相关模型调用。

image

lQLPJxF27Kk6I83NA27NA8KwgdJV2l5C1jkHio2Ik9RCAA_962_878

在本地命令行窗口中验证模型调用。

image

6. 第三方平台 API 调用

您可以选择在Chatbox等其他第三方平台中验证和应用模型调用,以下以Chatbox为例。

image

image

删除项目

您可以使用以下步骤删除应用,以降低产生的费用。

  1. 进入项目详情 > 点击删除,会进入到删除确认对话框。

    image

  2. 您可以看到要删除的资源。默认情况下,云原生应用开发平台 CAP会删除项目下的所有服务。如果您希望保留资源,可以取消勾选指定的服务,删除项目时只会删除勾选的服务。

    image

  3. 勾选我已知晓:删除该项目及选中的服务将立刻中断其所服务的线上业务,并且不可恢复,同时将彻底删除其所依赖的云产品资源,然后单击确定删除。

相关文章

一键部署QwQ-32B推理模型,2种方式简单、快速体验 2025-04-16 14:38

QwQ-32B推理模型正式发布并开源,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度。基于阿里云函数计算 FC提供算力,Serverless+ AI 云原生应用开发平台 CAP现已提供模型服务、应用模板两种部署方式辅助您部

0代码,2种方式,一键部署DeepSeek系列模型 2025-04-16 14:38

DeepSeek凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill是使用DeepSeek-R1生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。云原生应

通过函数计算部署Flux文本生成图像模型 2025-04-16 14:38

本实践教程展示了如何通过函数计算部署Flux模型,并通过ComfyUI界面体验Flux的AIGC创作能力。Flux是由Black Forest Labs推出的文本生成图像模型,该模型以其高清晰度图像生成和优秀的提示词遵循能力而受到关注。ComfyUI 是一个为Stable Diffusion模型设计

基于函数计算部署GPT-Sovits语音生成模型实现AI克隆声音 2025-04-16 14:38

GPT-Sovits是一个热门的文本生成语音的大模型,只需要少量样本的声音数据源,就可以实现高度相似的仿真效果。通过函数计算部署GPT-Sovits模型,您无需关心GPU服务器维护和环境配置,即可快速部署和体验模型,同时,可以充分利用

基于函数计算构建ComfyUI+SDFLUX文生图服务 2025-04-16 14:38

本文通过自行构建ComfyUI + SD/FLUX镜像,基于函数计算的GPU函数能力,快速搭建一个文生图服务。 方案概览 使用阿里云函数计算快速搭建一个文生图服务,仅需以下两步: 选择公共镜像或者构建并推送镜像。 选择一

通过函数计算部署ComfyUI以实现一个AIGC图像生成系统 2025-04-16 14:38

方案概览 ComfyUI是一款基于节点工作流稳定扩散算法的全新WebUI。如果您需要高质量的图像生成功能,建议您使用函数计算提供的ComfyUI模型,也可以自定义ComfyUI模型、安装插件以满足定制化创作需求。函数计算基于Serverless应用中心开发“ComfyUI应用模板”,简化开发者的部署

目录
Copyright © 2025 your company All Rights Reserved. Powered by 赛尔网络.
京ICP备14022346号-15
gongan beian 京公网安备11010802041014号