- 5天前
Ascend 910C 算力卡 Kubernetes 接入实践指南
围绕 Ascend 910C 算力卡在 Kubernetes 集群中的接入实践展开,涵盖驱动与固件安装、Ascend Docker Runtime 配置、Kubernetes 组件部署、NPU 资源验
围绕 Ascend 910C 算力卡在 Kubernetes 集群中的接入实践展开,涵盖驱动与固件安装、Ascend Docker Runtime 配置、Kubernetes 组件部署、NPU 资源验
围绕Fluid v1.0.8,详述K8s环境部署(含Helm安装、ARM64镜像构建)、测试准备(PVC与Pod创建、大文件上传)、数据集配置与缓存加速,性能测试显示缓存使3.3GB文件复制耗时降8.
K8s生态的HAMi方案可实现GPU/NPU算力精细化切分,含组件介绍、部署配置与验证流程,能提升异构资源利用率,适配AI场景需求。
该指南介绍K8s生态下,Volcano调度器与hami-ascend-device-plugin、Ascend Docker Runtime协同,实现NPU算力精细化切分与优先级调度的方案。
该指南介绍K8s生态中Volcano调度器结合volcano-vgpu-device-plugin的GPU算力切分方案,涵盖运行时配置、Volcano与插件部署流程,支持按显存和核心切分vGPU,通过
Higress是阿里出身的AI原生云原生API网关,基于Istio和Envoy,集多网关功能,支持AI集成与热更新,提供多样安装使用方式,适配云原生与AI场景。
特斯拉CEO马斯克的xAI公司发布了史上最大开源大语言模型Grok-1,参数量达3140亿。Grok-1在发布10小时内获得10000个GitHub Star,展现了其受欢迎程度。该模型基于Apach
这篇博客介绍了如何在离线环境下运行大模型StarCoder,提供了两种方法:使用text-generation-inference和transformers库。text-generation-infe
博客提供了在本地部署Hugging Face的StarCoder大模型的步骤。首先,介绍了StarCoder的代码补全功能,并建议使用NVIDIA A800 GPU和CentOS 7.9。然后,指导如