使用AMD CPU实例部署ChatGLM-6B
2025-04-01 11:57
本文以搭建AI对话机器人为例,介绍如何使用阿里云AMD CPU云服务器(g8a)部署ChatGLM-6B语言模型。
本文以搭建AI对话机器人为例,介绍如何使用阿里云AMD CPU云服务器(g8a)部署ChatGLM-6B语言模型。
本文介绍如何使用阿里云AMD CPU云服务器(g8a)和龙蜥容器镜像,并基于Stable Diffusion模型搭建个人版文生图服务。
本文以搭建AI对话机器人为例,介绍如何使用阿里云AMD CPU云服务器(g8a)部署Qwen-7B模型。
本文介绍如何使用阿里云AMD CPU云服务器(g8a)和龙蜥容器镜像,基于通义千问Qwen-Audio-Chat搭建语音AI服务助手。
本文介绍如何使用阿里云AMD CPU云服务器(g8a)和龙蜥容器镜像,基于通义千问Qwen-VL-Chat搭建个人版视觉AI服务助手。
本文介绍使用阿里云第八代Intel实例,基于xFasterTransformer单机部署通义千问Qwen-1.8B-Chat语言模型,并使用Qwen-1.8B-Chat推荐系统进行Query改写演示。 背景信息 通义千问-1.8B(Qwen-1.8B-Chat)
本文介绍如何使用GPU云服务器,使用Megatron-DeepSpeed框架训练GPT-2模型并生成文本。 背景信息 GPT-2模型是OpenAI于2018年在GPT模型的基础上发布的新的无监督NLP模型,当时被称为“史上最强通用NLP模型”。该模型可以生成连贯的文本段落,并且能在未经预训练的情况下
本文介绍如何使用基于Intel CPU的g8i实例,以DreamShaper8_LCM(基于Stable Diffusion v1-5微调后得到的模型)模型为例,结合系统级优化及IPEX技术加速文生图模型的推理速度,在Intel CPU云服务器上搭建高效的文生图服务。
本文以搭建AI对话机器人为例,介绍如何使用基于英特尔CPU的c8i实例,基于xFasterTransformer框架单机部署ChatGLM2-6B语言模型。 背景信息<
本文介绍如何使用阿里云第八代Intel实例,基于BigDL-LLM单机部署通义千问Qwen-72B-Chat语言模型进行AI对话。 背景信息