在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Docker運行GPUStack的詳細教程

馬哥Linux運維 ? 來源:CSDN技術社區 ? 2025-06-06 11:45 ? 次閱讀

Docker 運行 GPUStack 的詳細教程

GPUStack

GPUStack 是一個用于運行 AI 模型的開源 GPU集群管理器。它具有廣泛的硬件兼容性,支持多種品牌的 GPU,并能在 Apple MacBook、Windows PC 和 Linux 服務器上運行。GPUStack 支持各種 AI 模型,包括大型語言模型(LLMs)、擴散模型、音頻模型、嵌入模型和重新排序模型。GPUStack 可以輕松擴展,只需添加更多 GPU 或節點即可擴展操作。它支持單節點多 GPU 和多節點推理和服務,并提供多種推理后端,如llama-box、vox-box和vLLM。GPUStack 是一個輕量級的 Python 包,具有最小的依賴項和操作開銷,并且提供與 OpenAI 標準兼容的 API。此外,它還簡化了用戶和 API 密鑰的管理,提供了 GPU 性能和利用率的實時監控,以及令牌使用和速率限制的有效跟蹤。

關鍵特性

?廣泛的硬件兼容性:支持管理 Apple Mac、Windows PC 和 Linux 服務器上不同品牌的 GPU。

?廣泛的模型支持:支持從大語言模型(LLMs)、多模態模型(VLMs)、擴散模型、語音模型到嵌入和重新排序模型的廣泛模型。

?異構 GPU 支持與擴展:能夠輕松添加異構 GPU 資源,并按需擴展算力規模。

?分布式推理:支持單機多卡并行和多機多卡并行推理。

?多推理后端支持:支持llama-box(基于 llama.cpp 和 stable-diffusion.cpp)、vox-box和vLLM作為推理后端。

?輕量級 Python 包:最小的依賴和操作開銷。

?OpenAI 兼容 API:提供兼容 OpenAI 標準的 API 服務。

?用戶和 API 密鑰管理:簡化用戶和 API 密鑰的管理流程。

?GPU 指標監控:實時監控 GPU 性能和利用率。

?Token 使用和速率統計:有效跟蹤 token 使用情況,并管理速率限制。

支持的硬件平臺

?Apple Metal(M 系列芯片)

?NVIDIA CUDA(計算能力 6.0 及以上)

?AMD ROCm

?華為昇騰CANN)

?摩爾線程(MUSA)

?海光 DTK

支持的模型類型

?大語言模型(LLMs):如 Qwen、LLaMA、Mistral、Deepseek、Phi、Yi 等。

?多模態模型(VLMs):如 Llama3.2-Vision、Pixtral、Qwen2-VL、LLaVA、InternVL2.5 等。

?擴散模型:如 Stable Diffusion、FLUX 等。

?嵌入模型:如 BGE、BCE、Jina 等。

?重新排序模型:如 BGE、BCE、Jina 等。

?語音模型:如 Whisper(語音轉文本)、CosyVoice(文本轉語音)等。

使用場景

GPUStack 適用于需要高效管理和調度 GPU 資源的場景,特別是在運行 AI 模型時。它支持單節點多 GPU 和多節點推理及服務,并提供多種推理后端,如llama-box、vox-box和vLLM。GPUStack 是一個輕量級的 Python 包,具有最小的依賴項和操作開銷,并且提供與 OpenAI 標準兼容的 API。此外,它還簡化了用戶和 API 密鑰的管理,提供了 GPU 性能和利用率的實時監控,以及令牌使用和速率限制的有效跟蹤。

Docker 運行 GPUStack 的詳細教程

https://docs.gpustack.ai/latest/installation/docker-installation/

以下是使用 Docker 運行 GPUStack 的詳細教程,結合官方文檔與社區實踐整理而成。通過本指南,您可以在支持 NVIDIA GPU 的 Linux 環境中快速部署 GPUStack,并實現異構 GPU 集群的管理與大模型服務。

d0f627c8-4061-11f0-b715-92fbcf53809c.png

在這里插入圖片描述

d11c2b44-4061-11f0-b715-92fbcf53809c.png

在這里插入圖片描述

一、環境準備

1.硬件與系統要求

? 確保系統已安裝 NVIDIA GPU,并驗證驅動兼容性(支持 CUDA 11.0 及以上版本)。

? 推薦使用 Ubuntu 22.04 LTS 或 CentOS 7+ 系統。

2.驗證 GPU 與依賴項

# 檢查 NVIDIA GPU 是否識別
lspci | grep -i nvidia

root@i-28e6iose:/home/ubuntu# lspci | grep -i nvidia
00:0c.0 VGA compatible controller: NVIDIA Corporation TU102 [GeForce RTX 2080 Ti] (rev a1)
00:0d.0 Audio device: NVIDIA Corporation TU102 High Definition Audio Controller (rev a1)

# 確認 GCC 已安裝
gcc --version

root@i-28e6iose:/home/ubuntu# gcc --version
gcc (Ubuntu 9.5.0-6ubuntu2) 9.5.0
Copyright (C) 2019 Free Software Foundation, Inc.
This is free software; see thesourceforcopying conditions. There is NO
warranty; not evenforMERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.

二、安裝 NVIDIA 驅動與 Docker

1.安裝 NVIDIA 驅動

# 安裝內核頭文件
sudoapt-get install linux-headers-$(uname-r)
# 添加 CUDA 倉庫并安裝驅動
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
sudodpkg -i cuda-keyring_1.1-1_all.deb
sudoapt-get update
sudoapt-get install nvidia-driver-535 -y
sudoreboot
# 驗證驅動
nvidia-smi


root@i-28e6iose:/home/ubuntu# nvidia-smi
Sun Mar 9 2043 2025
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 570.124.06       Driver Version: 570.124.06   CUDA Version: 12.8   |
|-----------------------------------------+------------------------+----------------------+
| GPU Name         Persistence-M | Bus-Id     Disp.A | Volatile Uncorr. ECC |
| Fan Temp  Perf     Pwr:Usage/Cap |      Memory-Usage | GPU-Util Compute M. |
|                     |            |        MIG M. |
|=========================================+========================+======================|
|  0 NVIDIA GeForce RTX 2080 Ti   Off |  000000000C.0 Off |         N/A |
| 22%  29C  P8       20W / 250W |    4MiB / 11264MiB |   0%   Default |
|                     |            |         N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes:                                       |
| GPU  GI  CI       PID  Type  Process name            GPU Memory |
|    ID  ID                                Usage   |
|=========================================================================================|
| No running processes found                               |
+-----------------------------------------------------------------------------------------+

2.安裝 Docker Engine

# 卸載舊版本 Docker(如有)
sudoapt-get remove docker.io docker-doc containerd
# 添加 Docker 官方源
curl -fsSL https://download.docker.com/linux/ubuntu/gpg |sudogpg --dearmor -o /etc/apt/keyrings/docker.gpg
echo"deb [arch=$(dpkg --print-architecture)signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu$(lsb_release -cs)stable"|sudotee/etc/apt/sources.list.d/docker.list > /dev/null
sudoapt-get update
sudoapt-get install docker-ce docker-ce-cli containerd.io -y
# 驗證 Docker
docker info

root@i-28e6iose:/home/ubuntu# docker info
Client: Docker Engine - Community
Version:  28.0.1
Context:  default
Debug Mode:false
Plugins:
 buildx: Docker Buildx (Docker Inc.)
  Version: v0.21.1
  Path:   /usr/libexec/docker/cli-plugins/docker-buildx
 compose: Docker Compose (Docker Inc.)
  Version: v2.33.1
  Path:   /usr/libexec/docker/cli-plugins/docker-compose

Server:
Containers: 10
 Running: 10
 Paused: 0
 Stopped: 0
Images: 10
Server Version: 28.0.1

3.配置 NVIDIA Container Toolkit

d1391290-4061-11f0-b715-92fbcf53809c.png

在這里插入圖片描述 nvidia/cuda:12.2.0-base-ubuntu22.04是一個基于 Ubuntu 22.04 操作系統的 NVIDIA CUDA 基礎鏡像,用于運行需要GPU 加速的計算環境。CUDA(Compute Unified Device Architecture)是 NVIDIA 提供的一個并行計算平臺和編程模型,它使開發者可以使用 NVIDIA GPU 進行高性能計算。這個鏡像提供了 CUDA 12.2.0 版本,適用于需要利用 NVIDIA GPU 進行深度學習、科學計算和其他計算密集型任務的場景。CUDA 12.2.0 版本帶來了許多改進和新特性,包括對新架構的支持、性能優化和新 APIhttps://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html

# 添加倉庫并安裝工具包
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey |sudogpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list |sudotee/etc/apt/sources.list.d/nvidia-container-toolkit.list
sudoapt-get update
sudoapt-get install nvidia-container-toolkit -y
# 配置 Docker 運行時
sudonvidia-ctk runtime configure --runtime=docker
sudosystemctl restart docker

root@i-28e6iose:/home/ubuntu#sudonvidia-ctk runtime configure --runtime=docker
INFO[0000] Loading config from /etc/docker/daemon.json
INFO[0000] Wrote updated config to /etc/docker/daemon.json
INFO[0000] It is recommended that docker daemon be restarted.

# 驗證 CUDA 容器
docker run --rm--gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi

root@i-28e6iose:/home/ubuntu# docker run --rm--gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi
Sun Mar 9 1355 2025
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 570.124.06       Driver Version: 570.124.06   CUDA Version: 12.8   |
|-----------------------------------------+------------------------+----------------------+
| GPU Name         Persistence-M | Bus-Id     Disp.A | Volatile Uncorr. ECC |
| Fan Temp  Perf     Pwr:Usage/Cap |      Memory-Usage | GPU-Util Compute M. |
|                     |            |        MIG M. |
|=========================================+========================+======================|
|  0 NVIDIA GeForce RTX 2080 Ti   Off |  000000000C.0 Off |         N/A |
| 22%  26C  P8       21W / 250W |    4MiB / 11264MiB |   0%   Default |
|                     |            |         N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes:                                       |
| GPU  GI  CI       PID  Type  Process name            GPU Memory |
|    ID  ID                                Usage   |
|=========================================================================================|
| No running processes found                               |
+-----------------------------------------------------------------------------------------+

三、部署 GPUStack 容器

1.運行 GPUStack 主節點

docker run -d 
 --gpus all 
 -p 890:80 
 --ipc=host 
 --name gpustack 
 -v gpustack-data:/var/lib/gpustack 
 gpustack/gpustack:latest

?參數說明

?--gpus all:啟用所有 GPU 資源。

?--ipc=host:共享主機 IPC 命名空間,提升性能。

?-v gpustack-data:持久化存儲配置與模型數據。

2.獲取初始密碼

dockerexec-it gpustackcat/var/lib/gpustack/initial_admin_password

root@i-28e6iose:/home/ubuntu# dockerexec-it gpustackcat/var/lib/gpustack/initial_admin_password
rjl@Ainm3dtQ

#賬戶信息:
admin/rjl@Ainm3dtQ
#修改密碼:P@88w0rd
訪問http://<服務器IP>,使用用戶名admin和上述密碼登錄,首次需重置密碼。

d17ab7d6-4061-11f0-b715-92fbcf53809c.png

在這里插入圖片描述

四、擴展 GPU 集群

1.添加 Worker 節點

? 在主節點獲取 Token:

dockerexec-it gpustackcat/var/lib/gpustack/token

? 在 Worker 節點運行:

docker run -d 
 --gpus all 
 --network=host 
 --ipc=host 
 gpustack/gpustack 
 --server-url http://<主節點IP> 
 --token <獲取的Token>

五、功能使用示例

1.部署大模型
在 GPUStack 控制臺的Models頁面,支持從 Hugging Face 或本地導入模型。例如部署 Llama3.2 模型時,系統會自動分配 GPU 資源并生成 API 端點。

2.Playground 調測
在 Playground 中可測試多模態模型(如 Stable Diffusion)、文本嵌入模型(BERT)等,支持多模型對比與參數優化。

六、常見問題

?GPU 未識別:檢查nvidia-smi是否正常,并確認 Docker 運行時配置正確。

?容器啟動失敗:確保已啟用--ipc=host并掛載持久化卷。

?網絡問題:跨節點通信需開放防火墻的 80 端口及內部 RPC 端口(默認為 6789)。

七、參考資源

?GPUStack 官方 Docker 部署文檔

?NVIDIA Container Toolkit 配置指南

通過以上步驟,您可快速搭建一個支持異構 GPU 資源調度的企業級大模型服務平臺,實現從單機到集群的高效擴展。

鏈接:https://blog.csdn.net/shenhonglei1234/article/details/146139022

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4916

    瀏覽量

    130744
  • 開源
    +關注

    關注

    3

    文章

    3624

    瀏覽量

    43543
  • 模型
    +關注

    關注

    1

    文章

    3499

    瀏覽量

    50079
  • Docker
    +關注

    關注

    0

    文章

    512

    瀏覽量

    12760

原文標題:告別環境折磨!Docker+GPUStack一鍵部署教程,NVIDIA顯卡秒變AI工作站

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    docker運行datax實現數據同步方案

    docker運行datax實現數據同步方案 --docker commit方式測試
    發表于 04-21 15:07

    docker運行之jar包

    docker運行jar包
    發表于 07-18 13:20

    在Ubuntu 18.04 for Arm上運行的TensorFlow和PyTorch的Docker映像

    入門要構建和運行 Docker 映像,請確保使用的機器是 Arm AArch64。$ uname -maarch64任何由Graviton提供支持的 AWS EC2 實例 均可
    發表于 10-14 14:25

    Docker鏡像的詳細講解

    本文是對 Docker 鏡像的詳細講解,講解了如何安裝 Docker、配置 Docker 鏡像加速以及操作 Docker 鏡像。希望對大家有
    的頭像 發表于 08-02 10:00 ?2460次閱讀

    開源的Docker運行Mac OS是什么體驗?

    使用沙箱機制,相互之間不會有任何接口。 相信大家對 Docker 并不陌生,有時候想把玩一些開源項目,如果對應的項目提供 Docker 的啟動方式的話,你可以非常容易的將對應項目跑起來。所以,你有沒有想過使用 Docker
    的頭像 發表于 11-14 17:51 ?1197次閱讀

    如何在Docker容器中運行Nginx

    在本教程中,您將學習如何將 Nginx 作為 Docker 容器運行,并將其公開給您的本地網絡。此外,您將學習如何創建 Docker 數據卷以在容器和主機文件系統之間共享信息。
    的頭像 發表于 02-17 09:30 ?2280次閱讀

    Docker 教程:如何將Helix QAC作為容器創建并運行

    在此 Docker 教程中,你將學習如何創建 Helix QAC 并將其作為容器化鏡像運行Docker 的基本定義是一種開源和流行的操作系統級虛擬化(通常稱為“容器化”)技術,它是輕量級的,可
    的頭像 發表于 10-31 09:36 ?1230次閱讀
    <b class='flag-5'>Docker</b> 教程:如何將Helix QAC作為容器創建并<b class='flag-5'>運行</b>

    如何在macOS系統中用Docker運行macOS鏡像呢?

    macOS Containers 是一群開發者基于 chroot 打造的工具,能讓你在 macOS 用 Docker 運行 macOS 鏡像。
    的頭像 發表于 09-28 09:24 ?1599次閱讀
    如何在macOS系統中用<b class='flag-5'>Docker</b><b class='flag-5'>運行</b>macOS鏡像呢?

    docker exec命令的使用方法

    有用的命令,用于在正在運行的容器中執行命令。 在本文中,我將詳細介紹Docker exec命令的使用方法,包括命令格式、參數選項、使用示例等。 Docker exec命令格式
    的頭像 發表于 11-23 09:33 ?2192次閱讀

    linux關閉docker的命令

    在 Linux 系統中,關閉 Docker 的操作可以通過以下多種方式進行。本文將詳細講解每一種方式,并提供示例代碼和命令,以幫助讀者更好地理解和實踐。 使用 docker 命令 最常用的方法
    的頭像 發表于 11-23 09:39 ?3472次閱讀

    如何啟動本機docker服務

    Docker是一個開源項目,可以幫助開發者打包應用程序及其依賴,并且能夠將其作為獨立的容器來運行。本文將詳細介紹如何在本機上啟動Docker服務。 第一步:安裝
    的頭像 發表于 11-23 09:43 ?2679次閱讀

    docker進入容器的方法有哪些

    Docker是一種流行的容器化平臺,它能夠快速構建、交付和運行應用程序。在使用Docker時,我們經常需要進入容器進行調試、管理和運行命令等操作。本文將
    的頭像 發表于 11-23 09:45 ?1.2w次閱讀

    docker核心組件有哪些

    Docker Image、Docker Container、Docker Registry 和 Docker Compose。以下將詳細
    的頭像 發表于 11-23 09:47 ?2348次閱讀

    【鴻蒙】OpenHarmony運行docker詳細步驟

    1.環境和設備 系統版本: 3.2release(64 位) OpenHarmony 內核版本:5.10 標準系統設備: DAYU200 Docker:18.03.1 (64 位) sd 卡一張
    的頭像 發表于 03-02 15:10 ?3582次閱讀
    【鴻蒙】OpenHarmony<b class='flag-5'>運行</b><b class='flag-5'>docker</b><b class='flag-5'>詳細</b>步驟

    Docker運行環境安裝

    作者:京東科技 林中 Docker是一個開放的平臺,用于開發、發布和運行應用程序。Docker分離了應用程序和運行應用的基礎設施,從而實現了軟件的快速交付。利用
    的頭像 發表于 10-29 11:28 ?591次閱讀
    主站蜘蛛池模板: 男人j进入女人j视频大全 | 久草视频资源在线 | 香蕉视频vip | 女人张开双腿让男人桶完整 | 乌克兰一级毛片 | 成人欧美一区二区三区的电影 | 日本黄视频在线播放 | 日本美女搞黄 | 久久久久久久免费 | 人人爽人人看 | 免费在线观看黄色 | 毛片.com| 操片免费 | 国产亚洲精品久久yy5099 | 末发育女一区二区三区 | 夜夜爱夜夜做夜夜爽 | 人人人草 | 在线看片地址 | 午夜一区二区在线观看 | 白丝丝袜高跟国产在线视频 | 欧美精品首页 | 一级做受毛片免费大片 | 99热久久精品免费精品 | 亚洲人成www在线播放 | 中国一级特黄特级毛片 | 一级片免费观看视频 | 国产免费好大好硬视频 | 五月婷婷丁香久久 | 免费看色视频 | 狠狠色噜噜狠狠狠97影音先锋 | 亚洲a影院| 亚洲天天看 | 欧美日韩一区二区三区视视频 | 亚洲狠狠婷婷综合久久久久图片 | 你懂的在线观看视频 | 国产老头和美女在线观看 | 四虎精品免费国产成人 | 欧美一级片手机在线观看 | 91大神精品长腿在线观看网站 | 国产亚洲视频在线播放大全 | aa三级动态图无遮无挡 |