赛尔校园公共服务平台 Logo
平台使用
阿里云
百度云
移动云
智算服务
教育生态
登录 →
赛尔校园公共服务平台 Logo
平台使用 阿里云 百度云 移动云 智算服务 教育生态
登录
  1. 首页
  2. 阿里云
  3. GPU云服务器
  4. 实践教程
  5. 使用FastGPU一键部署并训练应用

使用FastGPU一键部署并训练应用

  • 实践教程
  • 发布于 2025-04-14
  • 0 次阅读
文档编辑
文档编辑

在开发者实验室中,阿里云为您提供了使用FastGPU进行一键部署并训练应用的相关实验教程,例如针对图像分类应用、bert-perseus应用以及手势识别应用的教程。该教程基于 Cloud Shell提供的真实环境,您可以通过在线Web IDE(Cloud Shell内置的代码编辑器)、命令行以及步骤式的教程指引,体验并完成所需教程的学习与实验。

说明
  • FastGPU是一套构建在阿里云上的人工智能计算极速部署工具,其提供便捷的接口和自动化工具,实现人工智能训练或推理计算在阿里云IaaS资源上的快速部署。

  • Cloud Shell已预装了FastGPU工具,关于Cloud Shell的更多信息,请参见什么是云命令行。

FastGPU适用场景

适用场景

教程说明

难易程度

操作时长

图像分类应用场景

本教程介绍了通过阿里云FastGPU创建图像(tf-image-classification-perseus)AI任务的全流程方案,您可以通过CLI自动创建并管理GPU实例。

基础级别

10~30分钟

bert-perseus应用场景

本教程介绍了通过阿里云FastGPU创建文本分类bert-perseusAI任务的全流程方案,您可以通过CLI自动创建并管理GPU实例。

入门级别

10~30分钟

手势识别应用场景

本教程介绍了通过阿里云FastGPU创建手势识别AI任务的全流程方案,您可以通过CLI自动创建和管理GPU实例。

入门级别

<10分钟

操作步骤

本操作以使用FastGPU一键部署并训练手势识别应用场景为例,其他场景请参考以下操作。

  1. 前往开发者实验室。

  2. 在AIACC加速实战页签下,单击使用FastGPU一键部署并训练手势识别应用。

  3. 在对应训练教程面板下,单击开始实验。

  4. 在弹出的git clone确认对话框,单击确认。

    对话框.jpg

  5. (条件必选)首次进入Cloud Shell时,会弹出挂载存储空间对话框,单击创建并绑定或暂不创建。

    重要

    Cloud Shell支持关联并挂载一个NAS文件系统实例,该NAS可以帮助您持续化存储常用脚本和文件,否则您的文件会随GPU实例释放而销毁。如果后续需要挂载或解绑NAS,请参见持久化存储。

    Dingtalk_20240903130934.jpg

  6. 在Cloud Shell页面,根据教程指导体验使用FastGPU一键部署并训练应用的具体过程。

    流程.jpg

相关文章

使用DeepGPU-LLM镜像构建模型的推理环境 2025-04-14 19:17

在GPU实例上配置DeepGPU-LLM容器镜像后,可以帮助您快速构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分析、编程辅助等自然语言处理业务场景,您无需深入了解底层的硬件优化细节,镜像拉取完成后,无

使用SD-WebUI容器镜像加速文生图 2025-04-14 19:17

对于需要文生图的业务场景,通过使用Stable Diffusion模型可以实现文生图功能。相比未使用DeepGPU加速的情况,借助DeepGPU可以加速Stable Diffusion模型的计算和推理性能。例如,文本生成分辨率为512x512图像的情况下,使用DeepGPU功能其加速性能可能提升约8

使用FastGPU一键部署并训练应用 2025-04-14 19:17

在开发者实验室中,阿里云为您提供了使用FastGPU进行一键部署并训练应用的相关实验教程,例如针对图像分类应用、bert-perseus应用以及手势识别应用的教程。该教程基于 Cloud Shell提供的真实环境,您可以通过在线Web IDE(Cloud Shell内置的代码编辑器)、命令行以及步骤

使用eRDMA镜像快速配置eRDMA 2025-04-14 19:17

eRDMA(Elastic Remote Direct Memory Access)是一种高性能网络通信技术,将eRDMA功能引入容器(Docker)环境可以实现容器应用程序绕过操作系统内核直接访问主机的物理eRDMA设备,从而提供更快的数据传输和通信效率,适用于在容器中需要大规模数据传输和高性能网

使用vLLM镜像快速构建模型的推理环境 2025-04-14 19:17

在GPU的实例上部署vLLM镜像后,可以帮助您快速且方便地构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分类或分析等自然语言处理业务场景,您无需深入了解底层硬件,也无需额外配置即可开箱即用。本文为您介绍

使用TensorRT-LLM构建模型的推理环境 2025-04-14 19:17

在GPU的实例上安装推理引擎TensorRT-LLM,可以帮助您快速且方便地构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分析等自然语言处理业务场景。本文为您介绍如何在GPU实例上安装和使用Tensor

目录
Copyright © 2025 your company All Rights Reserved. Powered by 赛尔网络.
京ICP备14022346号-15
gongan beian 京公网安备11010802041014号