• API参考 2025-04-14 19:17

    如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的云上资源和开发自己的应用程序。 GPU云服务器适用的API和云服务器ECS一致,详情请参见ECS API简介和ECS API概览。

  • 安装并使用DeepNCCL 2025-04-14 19:17

    DeepNCCL是阿里云神龙异构产品开发的用于多GPU互联的AI通信加速库,能够无感地加速基于NCCL进行通信算子调用的分布式训练或多卡推理等任务。开发人员可以根据实际业务情况,在不同的GPU云服务器上安装DeepNCCL通信库,以加速分布式训练或推理性能。本文主要介绍在Ubuntu或CentOS操

  • 命令行使用说明 2025-04-14 19:17

    您可以通过FastGPU的命令行,快速地部署云上GPU集群,管理资源的生命周期。还可以便捷地为集群安装深度学习环境,在集群运行代码,查看运行日志以及释放资源。 前提条件

  • Python SDK使用说明 2025-04-14 19:17

    您可以通过FastGPU提供的Python接口,将FastGPU集成到您的人工智能训练或推理脚本中,从而快速地实现云上部署和资源管理。本文为您介绍FastGPU的Python SDK相关使用说明。 前提条件

  • DeepGPU-LLM API接口说明及示例 2025-04-14 19:17

    DeepGPU-LLM作为阿里云开发的一套推理引擎,旨在优化大语言模型在GPU云服务器上的推理过程,为您提供免费的高性能、低延迟推理服务。DeepGPU-LLM提供了一系列的API接口(例如模型加载、模型推理等功能),在GPU云服务器上成功安装DeepGPU-LLM后,您可以调用对应API接口进行模

  • 安装并使用DeepGPU-LLM 2025-04-14 19:17

    在处理大语言模型(LLM)任务中,您可以根据实际业务部署情况,选择在不同环境(例如GPU云服务器环境或Docker环境)下安装推理引擎DeepGPU-LLM,然后通过使用DeepGPU-LLM实现大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)在G

  • 安装和使用Deepytorch Training 2025-04-14 19:17

    Deepytorch Training是阿里云自研的AI加速器,面向传统AI和生成式AI场景,在模型训练过程中,可提供显著的训练加速能力。本文主要介绍安装并使用Deepytorch Training的操作方法。 说明

  • 安装和使用Deepytorch Inference 2025-04-14 19:17

    Deepytorch Inference是阿里云自研的AI推理加速器,针对Torch模型,可提供显著的推理加速能力。本文主要介绍安装并使用Deepytorch Inference的操作方法,以及推理效果展示。 背景信息 Deepytorch Inference通过调用

  • 安装并使用cGPU服务 2025-04-14 19:17

    使用cGPU服务可以隔离GPU资源,实现多个容器共用一张GPU卡。该服务作为阿里云容器服务Kubernetes版ACK(Container Service for Kubernetes)的组件对外提供服务,应用于高性能计算能力的场景,例如机器学习、深度学习、科学计算等,方便您更高效地利用GPU资源,