在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

“輕松上手!5分鐘學會用京東云打造你自己的專屬DeepSeek”

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2025-02-10 17:41 ? 次閱讀

#從第?步驟到第四步驟是完成DeepSeek本地部署和使?,可以滿?中?企業環境的穩定 使?,第五步驟為基于AnythingLLM和本地數據進?訓練(基于本地數據搭建本地知識 庫): ?:京東云GPU云主機環境準備 ?:部署Ollama 三:運?DeepSeek模型 四:圖形客戶端使? #第五步驟可以不執? 五:本地數據投喂

?:京東云GPU云主機環境準備:

DeepSeek的不同版本模型對主機硬件(主要是CPU、內存和GPU)的要求不?樣,推薦使?擁有單獨GPU的主機進?部署以獲得更好的使?體驗,顯卡推薦使?如NVIDIA RTX 3090或同等以上規格的顯卡,CPU需要?持AVX2、AVX-512等指令集可以進?步提?響應性能, 如已有符合業務需求的主機環境可以跳過當前的主機環境準備步驟。

wKgZO2epyYSAVua2AACHKUYIIfM995.png

1.1: 京東云創建GPU云主機:

基于實際業務需求選擇云主機計費模式、地域、可?區、CPU架構、系統鏡像及系統版本, 企業環境對于穩定性要求?較?通常使?Linux系統運?業務系統, 本步驟以Ubuntu 22.04 LTS系統版本為例(Rocky Linux及RHEL的操作步驟?致)、GPU為vidia Tesla P40, 演示基于Ollama部署DeepSeek-R1 :

wKgZPGepyYSAUNkuAADmECtRB2w788.png

選擇GPU實例規格類型,可選自動安裝GPU驅動、或云主機運行成功后單獨安裝GPU驅動(本文檔為單獨安裝GPU驅動)

wKgZO2epyYWAcQV6AACIdScYkCo237.png

自定義云盤類型及大小、然后下一步

wKgZPGepyYaAdOrDAABrPQpn2j4941.png

自定義云主機網絡、安全組、彈性公網IP, 安全組需要允許客戶端訪問11434端口, 然后下一步

?

wKgZO2epyYeAcBzmAAC5GrPldkA316.png

自定義主機密碼、主機名稱等信息, 然后點擊立即購買

wKgZPGepyYeAOI_OAACppdEEI1Y420.png

勾選已閱讀并同意并確認開通

wKgZO2epyYiAbJoWAACCY1LPKYg067.png

創建完成:

wKgZPGepyYmAE-HDAABkU3PsKz4281.png

然后在云主機控制臺驗證主機運行成功

wKgZO2epyYmAVDwAAABHliDHokY641.png

1.2:安裝GPU顯卡驅動:

使?SSH?具遠程連接到實例, 安裝顯卡驅動(以下為在Ubuntu 2204的顯卡驅動安裝過程)

root@deepseek-vm:~# apt update
root@deepseek-vm:~# ubuntu-drivers devices
== /sys/devices/pci0000:00/0000:00:0a.0 ==
modalias : pci:v000010DEd00001B38sv000010DEsd000011D9bc03sc02i00
vendor   : NVIDIA Corporation
model    : GP102GL [Tesla P40]
driver   : nvidia-driver-470-server - distro non-free
driver   : nvidia-driver-450-server - distro non-free
driver   : nvidia-driver-550 - distro non-free recommended
driver   : nvidia-driver-535-server - distro non-free
driver   : nvidia-driver-418-server - distro non-free
driver   : nvidia-driver-545 - distro non-free
driver   : nvidia-driver-470 - distro non-free
driver   : nvidia-driver-535 - distro non-free
driver   : nvidia-driver-390 - distro non-free
driver   : xserver-xorg-video-nouveau - distro free builtin

root@deepseek-vm:~# apt install nvidia-driver-550 -y #通過ubuntu倉庫安裝推薦的驅動版本或使用其它方式安裝顯卡驅動
root@deepseek-vm:~# reboot  #重啟服務器以使顯卡驅動生效

root@deepseek-vm:~# nvidia-smi #重啟后驗證驅動及顯卡狀態(當前演示主機為兩塊NVIDIA Tesla P40顯卡)
Thu Feb  6 16:45:28 2025       
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 550.120                Driver Version: 550.120        CUDA Version: 12.4     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  Tesla P40                      Off |   00000000:00:09.0 Off |                    0 |
| N/A   24C    P8              9W /  250W |       0MiB /  23040MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
|   1  Tesla P40                      Off |   00000000:00:0A.0 Off |                    0 |
| N/A   23C    P8              9W /  250W |       0MiB /  23040MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
                                                                                         
+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI        PID   Type   Process name                              GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|  No running processes found                                                             |
+-----------------------------------------------------------------------------------------+

二:部署Ollama:

Ollama是一個開源的 LLM(large language model、大型語言模型)服務工具, 用于簡化和降低在本地的部署和使用門檻, 可以快速在本地環境部署和管理LLM運行環境,。

官方地址:Ollama

下載地址:Download Ollama on macOS

ollama官方在linux 系統的安裝是基于腳本從github下載安裝包進行安裝(https://ollama.com/install.sh、受網絡環境因素安裝過程不穩定),可以使用二進制安裝包直接安裝跳過在線下載過程。

2.1:下載?進制安裝包:

Ollama可以運?在Windows、Linux以及MacOS, 官?均提供對應的安裝?件, ?產 環境對穩定性要求?較?因此會通常使?Linux系統, 本?的以Ubuntu 2204作為演 示環境:

https://myserver.s3.cn-north-1.jdcloud-oss.com/ollama-linuxamd64. tgz #ollama v0.5.7版本、已經上傳到京東云OSS作為臨時下載地址 https://github.com/ollama/ollama/releases #github下載地址

?編輯

root@deepseek-vm:~# cd /usr/local/src/ root@deepseek-vm:/usr/local/src# wget https://myserver.s3.cnnorth- 1.jdcloud-oss.com/ollama-linux-amd64.tgz

2.2: 部署ollama:

ollama/docs/linux.md at main · ollama/ollama · GitHub

root@deepseek-vm:/usr/local/src# tar -C /usr -xzf ollama-linux-amd64.tgz #解壓安裝文件
root@deepseek-vm:/usr/local/src# ollama serve 測試啟動 Ollama
Couldn't find '/root/.ollama/id_ed25519'. Generating new private key.
Your new public key is: 

ssh-ed25519 AAAA.....

2025/02/06 17:08:47 routes.go:1187: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://127.0.0.1:11434 OLLAMA_INTEL_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:/root/.ollama/models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://*] OLLAMA_SCHED_SPREAD:false ROCR_VISIBLE_DEVICES: http_proxy: https_proxy: no_proxy:]"
time=2025-02-06T17:08:47.465+08:00 level=INFO source=images.go:432 msg="total blobs: 0"
time=2025-02-06T17:08:47.465+08:00 level=INFO source=images.go:439 msg="total unused blobs removed: 0"
[GIN-debug] [WARNING] Creating an Engine instance with the Logger and Recovery middleware already attached.

[GIN-debug] [WARNING] Running in "debug" mode. Switch to "release" mode in production.
 - using env:   export GIN_MODE=release
 - using code:  gin.SetMode(gin.ReleaseMode)

[GIN-debug] POST   /api/pull                 --> github.com/ollama/ollama/server.(*Server).PullHandler-fm (5 handlers)
[GIN-debug] POST   /api/generate             --> github.com/ollama/ollama/server.(*Server).GenerateHandler-fm (5 handlers)
[GIN-debug] POST   /api/chat                 --> github.com/ollama/ollama/server.(*Server).ChatHandler-fm (5 handlers)
[GIN-debug] POST   /api/embed                --> github.com/ollama/ollama/server.(*Server).EmbedHandler-fm (5 handlers)
[GIN-debug] POST   /api/embeddings           --> github.com/ollama/ollama/server.(*Server).EmbeddingsHandler-fm (5 handlers)
[GIN-debug] POST   /api/create               --> github.com/ollama/ollama/server.(*Server).CreateHandler-fm (5 handlers)
[GIN-debug] POST   /api/push                 --> github.com/ollama/ollama/server.(*Server).PushHandler-fm (5 handlers)
[GIN-debug] POST   /api/copy                 --> github.com/ollama/ollama/server.(*Server).CopyHandler-fm (5 handlers)
[GIN-debug] DELETE /api/delete               --> github.com/ollama/ollama/server.(*Server).DeleteHandler-fm (5 handlers)
[GIN-debug] POST   /api/show                 --> github.com/ollama/ollama/server.(*Server).ShowHandler-fm (5 handlers)
[GIN-debug] POST   /api/blobs/:digest        --> github.com/ollama/ollama/server.(*Server).CreateBlobHandler-fm (5 handlers)
[GIN-debug] HEAD   /api/blobs/:digest        --> github.com/ollama/ollama/server.(*Server).HeadBlobHandler-fm (5 handlers)
[GIN-debug] GET    /api/ps                   --> github.com/ollama/ollama/server.(*Server).PsHandler-fm (5 handlers)
[GIN-debug] POST   /v1/chat/completions      --> github.com/ollama/ollama/server.(*Server).ChatHandler-fm (6 handlers)
[GIN-debug] POST   /v1/completions           --> github.com/ollama/ollama/server.(*Server).GenerateHandler-fm (6 handlers)
[GIN-debug] POST   /v1/embeddings            --> github.com/ollama/ollama/server.(*Server).EmbedHandler-fm (6 handlers)
[GIN-debug] GET    /v1/models                --> github.com/ollama/ollama/server.(*Server).ListHandler-fm (6 handlers)
[GIN-debug] GET    /v1/models/:model         --> github.com/ollama/ollama/server.(*Server).ShowHandler-fm (6 handlers)
[GIN-debug] GET    /                         --> github.com/ollama/ollama/server.(*Server).GenerateRoutes.func1 (5 handlers)
[GIN-debug] GET    /api/tags                 --> github.com/ollama/ollama/server.(*Server).ListHandler-fm (5 handlers)
[GIN-debug] GET    /api/version              --> github.com/ollama/ollama/server.(*Server).GenerateRoutes.func2 (5 handlers)
[GIN-debug] HEAD   /                         --> github.com/ollama/ollama/server.(*Server).GenerateRoutes.func1 (5 handlers)
[GIN-debug] HEAD   /api/tags                 --> github.com/ollama/ollama/server.(*Server).ListHandler-fm (5 handlers)
[GIN-debug] HEAD   /api/version              --> github.com/ollama/ollama/server.(*Server).GenerateRoutes.func2 (5 handlers)
time=2025-02-06T17:08:47.466+08:00 level=INFO source=routes.go:1238 msg="Listening on 127.0.0.1:11434 (version 0.5.7)"
time=2025-02-06T17:08:47.466+08:00 level=INFO source=routes.go:1267 msg="Dynamic LLM libraries" runners="[cpu cpu_avx cpu_avx2 cuda_v11_avx cuda_v12_avx rocm_avx]"
time=2025-02-06T17:08:47.466+08:00 level=INFO source=gpu.go:226 msg="looking for compatible GPUs"
time=2025-02-06T17:08:48.193+08:00 level=INFO source=types.go:131 msg="inference compute" id=GPU-a9100a2b-3c31-b1b4-0891-c11584b5a57f library=cuda variant=v12 compute=6.1 driver=12.4 name="Tesla P40" total="22.4 GiB" available="22.2 GiB"
time=2025-02-06T17:08:48.193+08:00 level=INFO source=types.go:131 msg="inference compute" id=GPU-d652ebd4-0571-78b9-bf01-9a8d1da592e5 library=cuda variant=v12 compute=6.1 driver=12.4 name="Tesla P40" total="22.4 GiB" available="22.2 GiB"

2.3:驗證Ollama是否正在運行:

新建另外?個終端、驗證Ollama是否正在運?: root@deepseek-vm:~# ollama -v ollama version is 0.5.7

2.4:添加 Ollama 作為啟動服務:

新建賬戶和組、名稱都叫ollama, 以普通賬戶的身份運?Ollama服務、并指定監聽在 0.0.0.0:11434,以?便外部客戶端訪問。

root@deepseek-vm:~# useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
root@deepseek-vm:~# usermod -a -G ollama root

創建/etc/systemd/system/ollama.service 啟動文件:
root@deepseek-vm:~# vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
Environment="OLLAMA_HOST=0.0.0.0:11434"
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=default.target

#Ctrl+C退出2.3步驟運行的ollama服務、并通過service文件啟動服務:
root@deepseek-vm:~# systemctl daemon-reload
root@deepseek-vm:~# systemctl enable ollama
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
root@deepseek-vm:~# systemctl  start ollama.service #啟動ollama服務

root@deepseek-vm:~# systemctl  status ollama.service #確認ollama服務處于運行狀態
● ollama.service - Ollama Service
     Loaded: loaded (/etc/systemd/system/ollama.service; enabled; vendor preset: enabled)
     Active: active (running) since Thu 2025-02-06 17:13:32 CST; 12min ago
   Main PID: 6871 (ollama)
      Tasks: 20 (limit: 132577)
     Memory: 980.6M
        CPU: 8.662s
     CGroup: /system.slice/ollama.service
             └─6871 /usr/bin/ollama serve
             
Feb 06 17:20:05 deepseek-vm ollama[6871]: time=2025-02-06T17:20:05.644+08:00 level=INFO sou>
Feb 06 17:23:01 deepseek-vm ollama[6871]: time=2025-02-06T17:23:01.005+08:00 level=INFO sou>
Feb 06 17:24:56 deepseek-vm ollama[6871]: time=2025-02-06T17:24:56.005+08:00 level=INFO sou>
Feb 06 17:25:16 deepseek-vm ollama[6871]: time=2025-02-06T17:25:16.005+08:00 level=INFO sou>
Feb 06 17:25:24 deepseek-vm ollama[6871]: time=2025-02-06T17:25:24.006+08:00 level=INFO sou

查看日志并確認無報錯:

root@deepseek-vm:~# journalctl -e -u ollama

wKgZPGepyYqAVvD9AAJzSfJnBF0416.png

驗證ollama服務進程和端?, 11434為ollama的默認監聽端?: root@deepseek-vm:~# netstat -tanlp

?

wKgZO2epyYuAfuHgAAFBiBNflBc406.png

三:運行DeepSeek模型:

https://ollama.com/search #ollama可以部署不同類型的模型和版本

wKgZPGepyYyAV1s7AACSoyLVAbs789.png

DeepSeek-R1在很多方面都已經達到或超越OpenAI-o1, 具體的模型版本可以根據實際業務需求進行安裝, 本次為安裝deepseek-r1:8b進行演示:

wKgZO2epyY2AXmhFAAGSz9zG8f8903.png

3.1:運行deepseek-r1:8b:

https://ollama.com/library/deepseek-r1 #官??檔

deepseek-r1:1.5b #需要在線下載1.1GB的數據,根據網絡環境和服務端負載、大約需要下載幾分鐘或更長時間 deepseek-r1:8b #需要在線下載4.9BG的數據,根據網絡環境和服務端負載、大約需要下載幾十分鐘或更長時間 root@deepseek-vm:~# ollama run deepseek-r1:1.5b #運行deepseek-r1:1.5b root@deepseek-vm:~# ollama run deepseek-r1:8b #運行deepseek-r1:8b,本操作只用于說明不同版本的安裝方式、可以不執行 根據模型的大小和網絡環境,需要一定的下載時間,下載過程中如果網絡中斷或取消, 再次執行支持斷點續傳。

deepseek-r1:1.5b下載中:

wKgZPGepyY2ACQkEAAAhunpArVQ806.png

deepseek-r1:8b下載中:

wKgZO2epyY6ALYFkAAAvbbu1BVQ291.png

?下載完成后會直接進入命令行交互式窗口,可以通過命令行窗口進行會話

wKgZPGepyY-AFYfwAAB_QdtBMyI012.png

3.2:對話驗證:

3.2.1:提問一:

請認真回答一下, 到底有沒有外星人?

wKgZO2epyZCARfI5AAFKmP5XTW0887.png

3.2.2:提問二:

介紹一下kubernetes的優缺點

wKgZPGepyZGAfCbiAAJbi9bi8nI141.png

四:圖形客戶端使用:

可以使用不同的圖形客戶端連接DeepSeek進行交互式使用,如Chatbox、LobeChat等, 本步驟以Chatbox為例

4.1:Windows環境Chatbox圖形客戶端:

Chatbox是一個通用的圖形客戶端,支持在MacOS、Windows、Linux、安卓手機、蘋果手機等系統環境安裝和使用, 只需要安裝在需要訪問DeepSeek的主機、并配置連接DeepSeek連接地址及模型版本即可, 甚至還可以直接啟動網頁版, 本步驟演示如何在windows系統安裝和使用Chatbox, 本步驟介紹如果在Windows系統安裝Chatbox及配置和使用過程。

https://chatboxai.app/zh#download #官方下載URL https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide #安裝文檔 https://github.com/Bin-Huang/chatbox/releases #安裝文件下載地址

wKgZO2epyZGANrYpAAE-kKsqiZ0677.png

4.1.1:下載安裝文件:

點擊免費下載:

wKgZPGepyZKACU1pAAFL3zmq2SA698.png

下載過程中:

wKgZO2epyZOAGIUvAABUvbYiR4o489.png

下載完成:

wKgZPGepyZOAX3HXAAA-8K6810M438.png

4.1.2:安裝Chatbox:

在下載目錄雙擊安裝文件執行安裝:

wKgZO2epyZSAI--sAABc6PGjw44087.png

可選擇為當前用戶還是所有用戶安裝、然后點擊下一步:

?

wKgZPGepyZWADjUbAACzcAJOebI689.png

可選安裝路徑、然后單機安裝:

wKgZO2epyZWAVgMsAADHSscamZo373.png

安裝過程中:

wKgZPGepyZaACON8AABWANo4Sa8208.png

安裝完成, 點擊完成并運行Chatbox:

wKgZO2epyZeAfZEzAAB8MjAP9Qk550.png

4.1.3:配置Chatbox:

首次打開要配置一下使用的模型, 選擇使用自己的API Key或模型:

wKgZPGepyZeAAoaxAAExvmc-CyU724.png

選擇使用Ollama API:

wKgZO2epyZiAYlvKAAD4mXnFy4g678.png

具體配置:

wKgZPGepyZmAWqHAAAE6dR24His618.png

上下文消息數(保存的歷史會話數量)可以不限制、然后點擊保存:

wKgZO2epyZqAJ4G1AAEI4shuKII390.png

4.1.4:對話測試:

Chatbox可以通過DeepSeek進行成功對話

4.1.4.1:提問一:

請認真回答一下, 到底有沒有外星人?

wKgZPGepyZuASMYUAAJR0D42wbs588.png

4.1.4.2:提問二:

介紹一下kubernetes項目,包括幾個主要的組件和功能?

wKgZO2epyZyAPnUkAAKE361k02Q007.png

4.1.4.3:提問三:

一個籠子里面有三只兔子和兩只鴨,后來逃走了一只兔子,請回答以下兩個問題:

1.在兔子逃走之前,籠子里一共有幾條腿?

2.在一只兔子逃走之后,籠子里一共還有幾條腿?

?

wKgZPGepyZ2AdmjtAAIOj3WUH04387.png

4.1.5:如果要切換模型版本:

如果在同一個DeepSeek服務器部署了不同版本的模型,可以在Chatbox右下角進行不同版本的切換

wKgZO2epyZ6AIV9XAAJZZxGjg50170.png

4.2:MacOS環境Chatbox圖形客戶端:

本步驟介紹如果在MacOS系統安裝Chatbox及配置和使用過程

4.2.1:下載安裝文件:

蘋果系統(Intel CPU)下載的Chatbox.CE-0.10.4-mac.zip,如果是windows系統則是下載Chatbox.CE-0.10.4-Setup.exe

wKgZPGepyZ-ACr31AACskIYjCJg027.png

4.2.2:安裝Chatbox:

蘋果系統下載后解壓, 會有個Chatbox CE程序:

?

wKgZO2epyaCAQ4UGAAA-twFf7qw561.png

可以拷貝到應用程序里面方便后期使用:

wKgZPGepyaGAKvIzAAETM2PLXW0040.png

然后雙擊打開,首次打開需要信任:

wKgZO2epyaKAJTuYAAFGWVYFq5k660.png

進入系統菜單,設置-->隱私與安全性-->仍要打開:

wKgZPGepyaOAK9TmAAFQC0bYWSY417.png

確認仍要打開:

wKgZO2epyaSAMfzWAAHtf_tyL7k744.png

輸入認證(密碼或指紋認證)信息確認:

wKgZPGepyaWAUUA7AAEo9pGqn_c729.png

4.2.3:配置Chatbox:

首次使用需要配置Chatbox連接deepseek模型, 點擊左側菜單Settings:

wKgZO2epyaWAfLx2AACs64w3UzQ674.png

Chatbox配置信息如下:

wKgZPGepyaaAVMuqAAGlQkIuo2M409.png

4.2.4:對話測試:

可選新建一個對話:

wKgZO2epyaeANOhSAACreLUCNEw665.png

對話驗證:

wKgZPGepyamANoy1AAIMxrSvwzI843.png

五:本地數據投喂:

基于AnythingLLM+DeepSeek進行數據投喂訓練, 用于搭建本地離線知識庫等場景, 本步驟是測試搭建本地知識庫,非必須不需要執行。

https://anythingllm.com/

https://github.com/Mintplex-Labs/anything-llm

5.1:下載并安裝AnythingLLM:

wKgZO2epyaqAfIINAAIwtAm6uXU363.png

5.2:AnythingLLM基礎配置:

初始化AnythingLLM對接DeepSeek的配置

5.2.1:LLMPreference:

wKgZPGepyauAerXaAAFvrOKnTn8445.png

5.2.2:工作區對話設置:

將聊天模式從聊天改為查詢, 將會根據本地上傳和識別后的數據進行響應

wKgZO2epyayAWWjEAAC2_whJLs0890.png

更新保存配置:

wKgZPGepya2ATgVrAABg9Qu0wss031.png

5.2.3:配置embedder首選項為ollama:

wKgZO2epya6ABGYMAAFSFWCKIrY326.png

5.2.4:代理配置:

wKgZPGepya-AXk3SAADoHu35dns930.png

5.2.5:工作區上傳測試訓練文檔:

上傳本地文檔之前無法回答問題,因此要上傳本地文檔進行訓練(支持PDF、Txt、Word、Excel、PPT等常見文檔格式):

wKgZO2epybCAWMftAABd_FypwBA261.png

本地文檔上傳中:

wKgZO2epybGAWpJAAACEHKP7At4572.png

本地文檔上傳完成:

wKgZPGepybGAIlDJAACKLqO1AOQ046.png

選擇指定的文檔并移動到工作區:

wKgZO2epybKAftjdAACXOop4vN4789.png

?

wKgZPGepybOAOmgKAACKKeekJGY444.png

保存并導入:

wKgZO2epybSAQdoEAACJsR00-aU531.png

導入并識別中:

wKgZPGepybWAKCYVAACslNk8KzE906.png

識別完成:

wKgZO2epybaAZudoAACZKPpBx28867.png

關閉窗口:

wKgZPGepybeAMvnXAACFPbfVt4E986.png

返回到對話窗口:

wKgZO2epybiAdqmUAABtGJtNnxs864.png

5.3:對話驗證:

DeepSeek可以根據本地的知識內容進行匹配和回答

5.3.1:基于本地文檔回答成功的:

wKgZPGepybmAFaR3AAFQ_XDhE2s669.png

5.3.2:本地沒有的內容提問及對話:

經過多次提問、DeepSeek會盡可能使用本地文檔內容進行回復

wKgZPGepybqAHRJvAAEDSx0ACQo668.png

wKgZO2epybuAct7FAADkTOsixl4943.png


審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4861

    瀏覽量

    130206
  • 京東云
    +關注

    關注

    0

    文章

    162

    瀏覽量

    95
  • DeepSeek
    +關注

    關注

    1

    文章

    716

    瀏覽量

    797
收藏 人收藏

    評論

    相關推薦

    5分鐘學會使用CPLD教程

    5分鐘學會使用CPLD教程
    發表于 08-19 11:03

    京東回應馬“悲劇說”: 不必妄自多情

    今日,《馬預言:京東將會成為悲劇》一言又刷爆了微博。在最新出版的《阿里巴巴正傳》一書中,作者提到自己與馬聊天時,他如此評價競爭對手京東
    發表于 01-09 11:06

    60分鐘學會ORCAD

    60分鐘學會ORCAD的文檔教程
    發表于 03-11 09:44

    新手十分鐘學會用FPGA

    告訴怎樣學會用,從工程建立到最后的下板測試程序。
    發表于 03-12 09:47

    10分鐘學會FPGA設計

    10分鐘學會FPGA設計
    發表于 09-27 10:57

    10分鐘學會FPGA設計

    本帖最后由 lee_st 于 2017-10-31 09:00 編輯 10分鐘學會FPGA設計
    發表于 10-21 20:23

    快速學會用python寫游戲

    10分鐘學會用python寫游戲!Python其實很簡單!
    發表于 07-01 15:24

    60分鐘學會OrCAD Capture CIS

    于爭博士60分鐘學會ORCAD,內容簡單詳實,上手很容易,Cadence相對protel更專業,值得大家學習......
    發表于 09-27 08:27

    5個步驟輕松學會用CAM做鑼帶文件

    5個步驟輕松學會用CAM做鑼帶文件
    發表于 04-15 11:36 ?3698次閱讀

    通信原理易入門 上手 輕松學會現代通信原理

    通信原理易入門 上手 輕松學會現代通信原理
    發表于 09-04 14:36 ?37次下載
    通信原理易入門 <b class='flag-5'>上手</b> <b class='flag-5'>輕松</b><b class='flag-5'>學會</b>現代通信原理

    如何利用SRC核心控制器來打造自己專屬移動機器人

    覺得打造移動機器人難嗎?你想知道輕松如何打造移動機器人?你想打造屬于自己
    發表于 01-31 10:40 ?2671次閱讀

    SRC核心控制器,輕松打造專屬移動機器人

    覺得打造移動機器人難嗎?你想知道輕松如何打造移動機器人?你想打造屬于自己
    的頭像 發表于 12-26 09:57 ?1438次閱讀

    分鐘學會FastZigBee

    電子發燒友網站提供《一分鐘學會FastZigBee.pdf》資料免費下載
    發表于 10-17 10:38 ?0次下載
    一<b class='flag-5'>分鐘</b><b class='flag-5'>學會</b>FastZigBee

    京東正式上線DeepSeek系列模型

    實際需求,在京東官網上輕松實現一鍵部署。通過進入言犀AI開發計算平臺的“AI資產市場”,開發者和企業可以便捷地選用DeepSeek系列模型,進行快速調用和應用。 為了滿足不同場景下的
    的頭像 發表于 02-06 14:25 ?331次閱讀

    10分鐘上手寫代碼,LuatOS協程輕松掌握!

    10分鐘學會LuatOS協程,從此的程序也能像通勤族利用碎片時間一樣游刃有余。現在就去動手試一試,開啟異步編程新體驗! 寫給第一次聽說協程的?: 別怕!協程不是復雜概念,看完這篇,
    的頭像 發表于 04-10 15:18 ?73次閱讀
    10<b class='flag-5'>分鐘</b><b class='flag-5'>上手</b>寫代碼,LuatOS協程<b class='flag-5'>輕松</b>掌握!
    主站蜘蛛池模板: 男男扒开后菊惩罚 | 国产精品资源在线观看 | 午夜精品久久久久久久四虎 | 狠狠干人人干 | 毛片区 | 欧美满足你的丝袜高跟ol | 一级片视频播放 | 欧美视频三区 | 深夜偷偷看视频在线观看 | 亚洲一区二区三区在线网站 | 全部在线播放免费毛片 | 天天操夜夜骑 | 被公侵犯肉体中文字幕一区二区 | 天天摸天天碰天天碰 | 亚洲综合一二三区 | 日本大片黄色 | 国产精品一区二区三区免费视频 | 欧美午夜色视频国产精品 | 成人伊人亚洲人综合网站222 | 色花堂国产精品首页第一页 | 视色4se成人午夜精品 | 欧美在线播放 | 日本福利小视频 | 黄色网址你懂得 | 免费黄色大片视频 | 亚洲精品你懂的 | 黄色网在线 | 免费国产黄网站在线观看视频 | 91av视频网站 | 奇米影视四色7777 | 鸥美毛片| 国产又色又爽又黄的网站在线一级 | 大美女久久久久久j久久 | 狠狠插狠狠插 | 超薄肉色丝袜精品足j福利 超黄视频在线观看 | 日本一区二区三区四区视频 | 大尺度免费高清在线观看视频 | 国内一国产农村妇女一级毛片 | 久久久久久久国产精品电影 | 黄色网在线播放 | www性|