• 使用DeepGPU-LLM镜像构建模型的推理环境 2025-04-14 19:17

    在GPU实例上配置DeepGPU-LLM容器镜像后,可以帮助您快速构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分析、编程辅助等自然语言处理业务场景,您无需深入了解底层的硬件优化细节,镜像拉取完成后,无

  • 使用SD-WebUI容器镜像加速文生图 2025-04-14 19:17

    对于需要文生图的业务场景,通过使用Stable Diffusion模型可以实现文生图功能。相比未使用DeepGPU加速的情况,借助DeepGPU可以加速Stable Diffusion模型的计算和推理性能。例如,文本生成分辨率为512x512图像的情况下,使用DeepGPU功能其加速性能可能提升约8

  • 使用FastGPU一键部署并训练应用 2025-04-14 19:17

    在开发者实验室中,阿里云为您提供了使用FastGPU进行一键部署并训练应用的相关实验教程,例如针对图像分类应用、bert-perseus应用以及手势识别应用的教程。该教程基于 Cloud Shell提供的真实环境,您可以通过在线Web IDE(Cloud Shell内置的代码编辑器)、命令行以及步骤

  • 使用eRDMA镜像快速配置eRDMA 2025-04-14 19:17

    eRDMA(Elastic Remote Direct Memory Access)是一种高性能网络通信技术,将eRDMA功能引入容器(Docker)环境可以实现容器应用程序绕过操作系统内核直接访问主机的物理eRDMA设备,从而提供更快的数据传输和通信效率,适用于在容器中需要大规模数据传输和高性能网

  • 使用vLLM镜像快速构建模型的推理环境 2025-04-14 19:17

    在GPU的实例上部署vLLM镜像后,可以帮助您快速且方便地构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分类或分析等自然语言处理业务场景,您无需深入了解底层硬件,也无需额外配置即可开箱即用。本文为您介绍

  • 使用TensorRT-LLM构建模型的推理环境 2025-04-14 19:17

    在GPU的实例上安装推理引擎TensorRT-LLM,可以帮助您快速且方便地构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分析等自然语言处理业务场景。本文为您介绍如何在GPU实例上安装和使用Tensor

  • 基于GPU实例双机分布式部署满血版Deepseek模型 2025-04-14 19:17

    DeepSeek-V3/R1是一个具有超过600亿参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用vllm作为DeepSeek模型的推理框架,在两台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。您无需进行额外配置,即可实现开箱即用。 操作步骤 步骤一:准备环境

  • 基于GPU实例单机部署满血版DeepSeek模型 2025-04-14 19:17

    DeepSeek-V3/R1是一个具有超过600亿参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用SGLang作为DeepSeek模型的推理框架,在一台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。您无需进行额外配置,即可实现开箱即用。 核心工具介绍

  • 在GPU实例上部署DeepSeek-R1蒸馏模型 2025-04-14 19:17

    DeepSeek-V3/R1是拥有600B以上参数量的专家混合(MoE)模型,并已经开源了模型权重。本文为您介绍在GPU实例上部署DeepSeek-R1蒸馏模型推理服务。 背景信息 估算模型所需配置 模型的参数量越大,其处理数据和生成内容的复杂性也随之增加

  • 基于异构机密计算实例构建安全大语言模型推理环境 2025-04-14 19:17

    随着大语言模型技术的普及,越来越多的企业开始尝试利用该技术来提升业务能力。因此,如何构建安全的大模型推理服务,确保推理过程中的数据安全,已成为企业关注的热点话题。本文将介绍如何基于阿里云异构机密计算实例及Confidential AI方案(以下简称CAI),快速构建安全的大语言模型推理环境。 背景说