lomtom

专栏

云计算 K8s go Ai

关于

关于我 algorithm 今日热榜
  • 文库
  • 分类
  • 标签
  • 文档
Ai 5 Huggingface 3 K8s 29 Cka 2 Java 7 Easypoi 2 Es 6 Go 12 并发 1 网络 2 数据库 7 Redis 1 Jvm 1 Docker 14 Kata 1 Containerd 1 Mongodb 5 Tekton 3 Mysql 1 Ffmpeg 1 Github 1 二叉树 1 Mybatis 5 Pip 2 Python 7 爬虫 3 邮件 1 Maven 2 Spring 4 Springmvc 5 Springboot 4 Thymeleaf 2 Hexo 1 Spark 1 Idea 1 插件 2 Swagger 1 浏览器 1 力扣 4 Linux 6 故障排查 1 Windows 1 Oss 1 多网络 1 Submariner 1 Nfs 1 容器 1 镜像 2 Mac 1 设计模式 2 Kaniko 1 Buildkit 1
  • 5天前
    • Ai

Ascend 910C 算力卡 Kubernetes 接入实践指南

围绕 Ascend 910C 算力卡在 Kubernetes 集群中的接入实践展开,涵盖驱动与固件安装、Ascend Docker Runtime 配置、Kubernetes 组件部署、NPU 资源验

阅读全文 →
  • 11/28/2025
    • Ai

分布式数据集编排和加速引擎fluid

围绕Fluid v1.0.8,详述K8s环境部署(含Helm安装、ARM64镜像构建)、测试准备(PVC与Pod创建、大文件上传)、数据集配置与缓存加速,性能测试显示缓存使3.3GB文件复制耗时降8.

阅读全文 →
  • 11/16/2025
    • Ai

K8s 基于 HAMi 的 GPU/NPU 算力切分实践指南

K8s生态的HAMi方案可实现GPU/NPU算力精细化切分,含组件介绍、部署配置与验证流程,能提升异构资源利用率,适配AI场景需求。

阅读全文 →
  • 11/12/2025
    • Ai

K8s 基于 Volcano 优先级调度的 NPU 算力切分实践指南

该指南介绍K8s生态下,Volcano调度器与hami-ascend-device-plugin、Ascend Docker Runtime协同,实现NPU算力精细化切分与优先级调度的方案。

阅读全文 →
  • 11/10/2025
    • Ai

K8s 基于 Volcano 优先级调度的 GPU 算力切分实践指南

该指南介绍K8s生态中Volcano调度器结合volcano-vgpu-device-plugin的GPU算力切分方案,涵盖运行时配置、Volcano与插件部署流程,支持按显存和核心切分vGPU,通过

阅读全文 →

LOMTOM.CN

© 2019 - 2026 Made with love By lomtom