• 在Knative中部署AI模型推理服务的最佳实践 2025-04-18 14:49

    Knative和AI结合提供了快速部署、高弹性和低成本的技术优势,适用于需要频繁调整计算资源的AI应用场景,例如模型推理等。您可以通过Knative Pod部署AI模型推理任务,配置自动扩缩容、灵活分配GPU资源等功能,提高AI推理服务能力和GPU资源利用率。 加速模型部署 为了保证Knative

  • 基于KServe快速部署一个推理服务 2025-04-18 14:49

    KServe是一个基于Kubernetes的机器学习模型服务框架,支持以Kubernetes CRD的形式将单个或多个经过训练的模型(例如TFServing、TorchServe、Triton等推理服务器)部署到模型服务运行时,使得模型的部署、更新和扩展变得更加简单快捷。本文介绍如何在Knative

  • 查看Knative服务监控大盘 2025-04-18 14:49

    ACK集群已经兼容阿里云Prometheus和Grafana,无需您自建监控系统和可视化大盘。在Knative中部署业务应用后,您可以将Knative服务的监控数据接入Prometheus,通过Grafana大盘实时查看Kantive的响应延迟、请求并发数、CPU和内存资源用量等数据。

  • 通过Knative事件驱动实现消息发送 2025-04-18 14:49

    Knative是一款基于Kubernetes的开源Serverless应用编排框架。在完全兼容社区Knative的同时,ACK支持事件驱动、自动弹性等特性。本文结合一个弹幕服务介绍如何通过Knative实现弹幕消息的发送。 前提条件