在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

“輕松上手!5分鐘學(xué)會(huì)用京東云打造你自己的專屬DeepSeek”

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2025-02-10 17:41 ? 次閱讀

#從第?步驟到第四步驟是完成DeepSeek本地部署和使?,可以滿?中?企業(yè)環(huán)境的穩(wěn)定 使?,第五步驟為基于AnythingLLM和本地?cái)?shù)據(jù)進(jìn)?訓(xùn)練(基于本地?cái)?shù)據(jù)搭建本地知識 庫): ?:京東云GPU云主機(jī)環(huán)境準(zhǔn)備 ?:部署Ollama 三:運(yùn)?DeepSeek模型 四:圖形客戶端使? #第五步驟可以不執(zhí)? 五:本地?cái)?shù)據(jù)投喂

?:京東云GPU云主機(jī)環(huán)境準(zhǔn)備:

DeepSeek的不同版本模型對主機(jī)硬件(主要是CPU、內(nèi)存和GPU)的要求不?樣,推薦使?擁有單獨(dú)GPU的主機(jī)進(jìn)?部署以獲得更好的使?體驗(yàn),顯卡推薦使?如NVIDIA RTX 3090或同等以上規(guī)格的顯卡,CPU需要?持AVX2、AVX-512等指令集可以進(jìn)?步提?響應(yīng)性能, 如已有符合業(yè)務(wù)需求的主機(jī)環(huán)境可以跳過當(dāng)前的主機(jī)環(huán)境準(zhǔn)備步驟。

wKgZO2epyYSAVua2AACHKUYIIfM995.png

1.1: 京東云創(chuàng)建GPU云主機(jī):

基于實(shí)際業(yè)務(wù)需求選擇云主機(jī)計(jì)費(fèi)模式、地域、可?區(qū)、CPU架構(gòu)、系統(tǒng)鏡像及系統(tǒng)版本, 企業(yè)環(huán)境對于穩(wěn)定性要求?較?通常使?Linux系統(tǒng)運(yùn)?業(yè)務(wù)系統(tǒng), 本步驟以Ubuntu 22.04 LTS系統(tǒng)版本為例(Rocky Linux及RHEL的操作步驟?致)、GPU為vidia Tesla P40, 演示基于Ollama部署DeepSeek-R1 :

wKgZPGepyYSAUNkuAADmECtRB2w788.png

選擇GPU實(shí)例規(guī)格類型,可選自動(dòng)安裝GPU驅(qū)動(dòng)、或云主機(jī)運(yùn)行成功后單獨(dú)安裝GPU驅(qū)動(dòng)(本文檔為單獨(dú)安裝GPU驅(qū)動(dòng))

wKgZO2epyYWAcQV6AACIdScYkCo237.png

自定義云盤類型及大小、然后下一步

wKgZPGepyYaAdOrDAABrPQpn2j4941.png

自定義云主機(jī)網(wǎng)絡(luò)、安全組、彈性公網(wǎng)IP, 安全組需要允許客戶端訪問11434端口, 然后下一步

?

wKgZO2epyYeAcBzmAAC5GrPldkA316.png

自定義主機(jī)密碼、主機(jī)名稱等信息, 然后點(diǎn)擊立即購買

wKgZPGepyYeAOI_OAACppdEEI1Y420.png

勾選已閱讀并同意并確認(rèn)開通

wKgZO2epyYiAbJoWAACCY1LPKYg067.png

創(chuàng)建完成:

wKgZPGepyYmAE-HDAABkU3PsKz4281.png

然后在云主機(jī)控制臺(tái)驗(yàn)證主機(jī)運(yùn)行成功

wKgZO2epyYmAVDwAAABHliDHokY641.png

1.2:安裝GPU顯卡驅(qū)動(dòng):

使?SSH?具遠(yuǎn)程連接到實(shí)例, 安裝顯卡驅(qū)動(dòng)(以下為在Ubuntu 2204的顯卡驅(qū)動(dòng)安裝過程)

root@deepseek-vm:~# apt update
root@deepseek-vm:~# ubuntu-drivers devices
== /sys/devices/pci0000:00/0000:00:0a.0 ==
modalias : pci:v000010DEd00001B38sv000010DEsd000011D9bc03sc02i00
vendor   : NVIDIA Corporation
model    : GP102GL [Tesla P40]
driver   : nvidia-driver-470-server - distro non-free
driver   : nvidia-driver-450-server - distro non-free
driver   : nvidia-driver-550 - distro non-free recommended
driver   : nvidia-driver-535-server - distro non-free
driver   : nvidia-driver-418-server - distro non-free
driver   : nvidia-driver-545 - distro non-free
driver   : nvidia-driver-470 - distro non-free
driver   : nvidia-driver-535 - distro non-free
driver   : nvidia-driver-390 - distro non-free
driver   : xserver-xorg-video-nouveau - distro free builtin

root@deepseek-vm:~# apt install nvidia-driver-550 -y #通過ubuntu倉庫安裝推薦的驅(qū)動(dòng)版本或使用其它方式安裝顯卡驅(qū)動(dòng)
root@deepseek-vm:~# reboot  #重啟服務(wù)器以使顯卡驅(qū)動(dòng)生效

root@deepseek-vm:~# nvidia-smi #重啟后驗(yàn)證驅(qū)動(dòng)及顯卡狀態(tài)(當(dāng)前演示主機(jī)為兩塊NVIDIA Tesla P40顯卡)
Thu Feb  6 16:45:28 2025       
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 550.120                Driver Version: 550.120        CUDA Version: 12.4     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  Tesla P40                      Off |   00000000:00:09.0 Off |                    0 |
| N/A   24C    P8              9W /  250W |       0MiB /  23040MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
|   1  Tesla P40                      Off |   00000000:00:0A.0 Off |                    0 |
| N/A   23C    P8              9W /  250W |       0MiB /  23040MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
                                                                                         
+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI        PID   Type   Process name                              GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|  No running processes found                                                             |
+-----------------------------------------------------------------------------------------+

二:部署Ollama:

Ollama是一個(gè)開源的 LLM(large language model、大型語言模型)服務(wù)工具, 用于簡化和降低在本地的部署和使用門檻, 可以快速在本地環(huán)境部署和管理LLM運(yùn)行環(huán)境,。

官方地址:Ollama

下載地址:Download Ollama on macOS

ollama官方在linux 系統(tǒng)的安裝是基于腳本從github下載安裝包進(jìn)行安裝(https://ollama.com/install.sh、受網(wǎng)絡(luò)環(huán)境因素安裝過程不穩(wěn)定),可以使用二進(jìn)制安裝包直接安裝跳過在線下載過程。

2.1:下載?進(jìn)制安裝包:

Ollama可以運(yùn)?在Windows、Linux以及MacOS, 官?均提供對應(yīng)的安裝?件, ?產(chǎn) 環(huán)境對穩(wěn)定性要求?較?因此會(huì)通常使?Linux系統(tǒng), 本?的以Ubuntu 2204作為演 示環(huán)境:

https://myserver.s3.cn-north-1.jdcloud-oss.com/ollama-linuxamd64. tgz #ollama v0.5.7版本、已經(jīng)上傳到京東云OSS作為臨時(shí)下載地址 https://github.com/ollama/ollama/releases #github下載地址

?編輯

root@deepseek-vm:~# cd /usr/local/src/ root@deepseek-vm:/usr/local/src# wget https://myserver.s3.cnnorth- 1.jdcloud-oss.com/ollama-linux-amd64.tgz

2.2: 部署ollama:

ollama/docs/linux.md at main · ollama/ollama · GitHub

root@deepseek-vm:/usr/local/src# tar -C /usr -xzf ollama-linux-amd64.tgz #解壓安裝文件
root@deepseek-vm:/usr/local/src# ollama serve 測試啟動(dòng) Ollama
Couldn't find '/root/.ollama/id_ed25519'. Generating new private key.
Your new public key is: 

ssh-ed25519 AAAA.....

2025/02/06 17:08:47 routes.go:1187: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://127.0.0.1:11434 OLLAMA_INTEL_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:/root/.ollama/models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://*] OLLAMA_SCHED_SPREAD:false ROCR_VISIBLE_DEVICES: http_proxy: https_proxy: no_proxy:]"
time=2025-02-06T17:08:47.465+08:00 level=INFO source=images.go:432 msg="total blobs: 0"
time=2025-02-06T17:08:47.465+08:00 level=INFO source=images.go:439 msg="total unused blobs removed: 0"
[GIN-debug] [WARNING] Creating an Engine instance with the Logger and Recovery middleware already attached.

[GIN-debug] [WARNING] Running in "debug" mode. Switch to "release" mode in production.
 - using env:   export GIN_MODE=release
 - using code:  gin.SetMode(gin.ReleaseMode)

[GIN-debug] POST   /api/pull                 --> github.com/ollama/ollama/server.(*Server).PullHandler-fm (5 handlers)
[GIN-debug] POST   /api/generate             --> github.com/ollama/ollama/server.(*Server).GenerateHandler-fm (5 handlers)
[GIN-debug] POST   /api/chat                 --> github.com/ollama/ollama/server.(*Server).ChatHandler-fm (5 handlers)
[GIN-debug] POST   /api/embed                --> github.com/ollama/ollama/server.(*Server).EmbedHandler-fm (5 handlers)
[GIN-debug] POST   /api/embeddings           --> github.com/ollama/ollama/server.(*Server).EmbeddingsHandler-fm (5 handlers)
[GIN-debug] POST   /api/create               --> github.com/ollama/ollama/server.(*Server).CreateHandler-fm (5 handlers)
[GIN-debug] POST   /api/push                 --> github.com/ollama/ollama/server.(*Server).PushHandler-fm (5 handlers)
[GIN-debug] POST   /api/copy                 --> github.com/ollama/ollama/server.(*Server).CopyHandler-fm (5 handlers)
[GIN-debug] DELETE /api/delete               --> github.com/ollama/ollama/server.(*Server).DeleteHandler-fm (5 handlers)
[GIN-debug] POST   /api/show                 --> github.com/ollama/ollama/server.(*Server).ShowHandler-fm (5 handlers)
[GIN-debug] POST   /api/blobs/:digest        --> github.com/ollama/ollama/server.(*Server).CreateBlobHandler-fm (5 handlers)
[GIN-debug] HEAD   /api/blobs/:digest        --> github.com/ollama/ollama/server.(*Server).HeadBlobHandler-fm (5 handlers)
[GIN-debug] GET    /api/ps                   --> github.com/ollama/ollama/server.(*Server).PsHandler-fm (5 handlers)
[GIN-debug] POST   /v1/chat/completions      --> github.com/ollama/ollama/server.(*Server).ChatHandler-fm (6 handlers)
[GIN-debug] POST   /v1/completions           --> github.com/ollama/ollama/server.(*Server).GenerateHandler-fm (6 handlers)
[GIN-debug] POST   /v1/embeddings            --> github.com/ollama/ollama/server.(*Server).EmbedHandler-fm (6 handlers)
[GIN-debug] GET    /v1/models                --> github.com/ollama/ollama/server.(*Server).ListHandler-fm (6 handlers)
[GIN-debug] GET    /v1/models/:model         --> github.com/ollama/ollama/server.(*Server).ShowHandler-fm (6 handlers)
[GIN-debug] GET    /                         --> github.com/ollama/ollama/server.(*Server).GenerateRoutes.func1 (5 handlers)
[GIN-debug] GET    /api/tags                 --> github.com/ollama/ollama/server.(*Server).ListHandler-fm (5 handlers)
[GIN-debug] GET    /api/version              --> github.com/ollama/ollama/server.(*Server).GenerateRoutes.func2 (5 handlers)
[GIN-debug] HEAD   /                         --> github.com/ollama/ollama/server.(*Server).GenerateRoutes.func1 (5 handlers)
[GIN-debug] HEAD   /api/tags                 --> github.com/ollama/ollama/server.(*Server).ListHandler-fm (5 handlers)
[GIN-debug] HEAD   /api/version              --> github.com/ollama/ollama/server.(*Server).GenerateRoutes.func2 (5 handlers)
time=2025-02-06T17:08:47.466+08:00 level=INFO source=routes.go:1238 msg="Listening on 127.0.0.1:11434 (version 0.5.7)"
time=2025-02-06T17:08:47.466+08:00 level=INFO source=routes.go:1267 msg="Dynamic LLM libraries" runners="[cpu cpu_avx cpu_avx2 cuda_v11_avx cuda_v12_avx rocm_avx]"
time=2025-02-06T17:08:47.466+08:00 level=INFO source=gpu.go:226 msg="looking for compatible GPUs"
time=2025-02-06T17:08:48.193+08:00 level=INFO source=types.go:131 msg="inference compute" id=GPU-a9100a2b-3c31-b1b4-0891-c11584b5a57f library=cuda variant=v12 compute=6.1 driver=12.4 name="Tesla P40" total="22.4 GiB" available="22.2 GiB"
time=2025-02-06T17:08:48.193+08:00 level=INFO source=types.go:131 msg="inference compute" id=GPU-d652ebd4-0571-78b9-bf01-9a8d1da592e5 library=cuda variant=v12 compute=6.1 driver=12.4 name="Tesla P40" total="22.4 GiB" available="22.2 GiB"

2.3:驗(yàn)證Ollama是否正在運(yùn)行:

新建另外?個(gè)終端、驗(yàn)證Ollama是否正在運(yùn)?: root@deepseek-vm:~# ollama -v ollama version is 0.5.7

2.4:添加 Ollama 作為啟動(dòng)服務(wù):

新建賬戶和組、名稱都叫ollama, 以普通賬戶的身份運(yùn)?Ollama服務(wù)、并指定監(jiān)聽在 0.0.0.0:11434,以?便外部客戶端訪問。

root@deepseek-vm:~# useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
root@deepseek-vm:~# usermod -a -G ollama root

創(chuàng)建/etc/systemd/system/ollama.service 啟動(dòng)文件:
root@deepseek-vm:~# vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
Environment="OLLAMA_HOST=0.0.0.0:11434"
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=default.target

#Ctrl+C退出2.3步驟運(yùn)行的ollama服務(wù)、并通過service文件啟動(dòng)服務(wù):
root@deepseek-vm:~# systemctl daemon-reload
root@deepseek-vm:~# systemctl enable ollama
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
root@deepseek-vm:~# systemctl  start ollama.service #啟動(dòng)ollama服務(wù)

root@deepseek-vm:~# systemctl  status ollama.service #確認(rèn)ollama服務(wù)處于運(yùn)行狀態(tài)
● ollama.service - Ollama Service
     Loaded: loaded (/etc/systemd/system/ollama.service; enabled; vendor preset: enabled)
     Active: active (running) since Thu 2025-02-06 17:13:32 CST; 12min ago
   Main PID: 6871 (ollama)
      Tasks: 20 (limit: 132577)
     Memory: 980.6M
        CPU: 8.662s
     CGroup: /system.slice/ollama.service
             └─6871 /usr/bin/ollama serve
             
Feb 06 17:20:05 deepseek-vm ollama[6871]: time=2025-02-06T17:20:05.644+08:00 level=INFO sou>
Feb 06 17:23:01 deepseek-vm ollama[6871]: time=2025-02-06T17:23:01.005+08:00 level=INFO sou>
Feb 06 17:24:56 deepseek-vm ollama[6871]: time=2025-02-06T17:24:56.005+08:00 level=INFO sou>
Feb 06 17:25:16 deepseek-vm ollama[6871]: time=2025-02-06T17:25:16.005+08:00 level=INFO sou>
Feb 06 17:25:24 deepseek-vm ollama[6871]: time=2025-02-06T17:25:24.006+08:00 level=INFO sou

查看日志并確認(rèn)無報(bào)錯(cuò):

root@deepseek-vm:~# journalctl -e -u ollama

wKgZPGepyYqAVvD9AAJzSfJnBF0416.png

驗(yàn)證ollama服務(wù)進(jìn)程和端?, 11434為ollama的默認(rèn)監(jiān)聽端?: root@deepseek-vm:~# netstat -tanlp

?

wKgZO2epyYuAfuHgAAFBiBNflBc406.png

三:運(yùn)行DeepSeek模型:

https://ollama.com/search #ollama可以部署不同類型的模型和版本

wKgZPGepyYyAV1s7AACSoyLVAbs789.png

DeepSeek-R1在很多方面都已經(jīng)達(dá)到或超越OpenAI-o1, 具體的模型版本可以根據(jù)實(shí)際業(yè)務(wù)需求進(jìn)行安裝, 本次為安裝deepseek-r1:8b進(jìn)行演示:

wKgZO2epyY2AXmhFAAGSz9zG8f8903.png

3.1:運(yùn)行deepseek-r1:8b:

https://ollama.com/library/deepseek-r1 #官??檔

deepseek-r1:1.5b #需要在線下載1.1GB的數(shù)據(jù),根據(jù)網(wǎng)絡(luò)環(huán)境和服務(wù)端負(fù)載、大約需要下載幾分鐘或更長時(shí)間 deepseek-r1:8b #需要在線下載4.9BG的數(shù)據(jù),根據(jù)網(wǎng)絡(luò)環(huán)境和服務(wù)端負(fù)載、大約需要下載幾十分鐘或更長時(shí)間 root@deepseek-vm:~# ollama run deepseek-r1:1.5b #運(yùn)行deepseek-r1:1.5b root@deepseek-vm:~# ollama run deepseek-r1:8b #運(yùn)行deepseek-r1:8b,本操作只用于說明不同版本的安裝方式、可以不執(zhí)行 根據(jù)模型的大小和網(wǎng)絡(luò)環(huán)境,需要一定的下載時(shí)間,下載過程中如果網(wǎng)絡(luò)中斷或取消, 再次執(zhí)行支持?jǐn)帱c(diǎn)續(xù)傳。

deepseek-r1:1.5b下載中:

wKgZPGepyY2ACQkEAAAhunpArVQ806.png

deepseek-r1:8b下載中:

wKgZO2epyY6ALYFkAAAvbbu1BVQ291.png

?下載完成后會(huì)直接進(jìn)入命令行交互式窗口,可以通過命令行窗口進(jìn)行會(huì)話

wKgZPGepyY-AFYfwAAB_QdtBMyI012.png

3.2:對話驗(yàn)證:

3.2.1:提問一:

請認(rèn)真回答一下, 到底有沒有外星人?

wKgZO2epyZCARfI5AAFKmP5XTW0887.png

3.2.2:提問二:

介紹一下kubernetes的優(yōu)缺點(diǎn)

wKgZPGepyZGAfCbiAAJbi9bi8nI141.png

四:圖形客戶端使用:

可以使用不同的圖形客戶端連接DeepSeek進(jìn)行交互式使用,如Chatbox、LobeChat等, 本步驟以Chatbox為例

4.1:Windows環(huán)境Chatbox圖形客戶端:

Chatbox是一個(gè)通用的圖形客戶端,支持在MacOS、Windows、Linux、安卓手機(jī)、蘋果手機(jī)等系統(tǒng)環(huán)境安裝和使用, 只需要安裝在需要訪問DeepSeek的主機(jī)、并配置連接DeepSeek連接地址及模型版本即可, 甚至還可以直接啟動(dòng)網(wǎng)頁版, 本步驟演示如何在windows系統(tǒng)安裝和使用Chatbox, 本步驟介紹如果在Windows系統(tǒng)安裝Chatbox及配置和使用過程。

https://chatboxai.app/zh#download #官方下載URL https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide #安裝文檔 https://github.com/Bin-Huang/chatbox/releases #安裝文件下載地址

wKgZO2epyZGANrYpAAE-kKsqiZ0677.png

4.1.1:下載安裝文件:

點(diǎn)擊免費(fèi)下載:

wKgZPGepyZKACU1pAAFL3zmq2SA698.png

下載過程中:

wKgZO2epyZOAGIUvAABUvbYiR4o489.png

下載完成:

wKgZPGepyZOAX3HXAAA-8K6810M438.png

4.1.2:安裝Chatbox:

在下載目錄雙擊安裝文件執(zhí)行安裝:

wKgZO2epyZSAI--sAABc6PGjw44087.png

可選擇為當(dāng)前用戶還是所有用戶安裝、然后點(diǎn)擊下一步:

?

wKgZPGepyZWADjUbAACzcAJOebI689.png

可選安裝路徑、然后單機(jī)安裝:

wKgZO2epyZWAVgMsAADHSscamZo373.png

安裝過程中:

wKgZPGepyZaACON8AABWANo4Sa8208.png

安裝完成, 點(diǎn)擊完成并運(yùn)行Chatbox:

wKgZO2epyZeAfZEzAAB8MjAP9Qk550.png

4.1.3:配置Chatbox:

首次打開要配置一下使用的模型, 選擇使用自己的API Key或模型:

wKgZPGepyZeAAoaxAAExvmc-CyU724.png

選擇使用Ollama API:

wKgZO2epyZiAYlvKAAD4mXnFy4g678.png

具體配置:

wKgZPGepyZmAWqHAAAE6dR24His618.png

上下文消息數(shù)(保存的歷史會(huì)話數(shù)量)可以不限制、然后點(diǎn)擊保存:

wKgZO2epyZqAJ4G1AAEI4shuKII390.png

4.1.4:對話測試:

Chatbox可以通過DeepSeek進(jìn)行成功對話

4.1.4.1:提問一:

請認(rèn)真回答一下, 到底有沒有外星人?

wKgZPGepyZuASMYUAAJR0D42wbs588.png

4.1.4.2:提問二:

介紹一下kubernetes項(xiàng)目,包括幾個(gè)主要的組件和功能?

wKgZO2epyZyAPnUkAAKE361k02Q007.png

4.1.4.3:提問三:

一個(gè)籠子里面有三只兔子和兩只鴨,后來逃走了一只兔子,請回答以下兩個(gè)問題:

1.在兔子逃走之前,籠子里一共有幾條腿?

2.在一只兔子逃走之后,籠子里一共還有幾條腿?

?

wKgZPGepyZ2AdmjtAAIOj3WUH04387.png

4.1.5:如果要切換模型版本:

如果在同一個(gè)DeepSeek服務(wù)器部署了不同版本的模型,可以在Chatbox右下角進(jìn)行不同版本的切換

wKgZO2epyZ6AIV9XAAJZZxGjg50170.png

4.2:MacOS環(huán)境Chatbox圖形客戶端:

本步驟介紹如果在MacOS系統(tǒng)安裝Chatbox及配置和使用過程

4.2.1:下載安裝文件:

蘋果系統(tǒng)(Intel CPU)下載的Chatbox.CE-0.10.4-mac.zip,如果是windows系統(tǒng)則是下載Chatbox.CE-0.10.4-Setup.exe

wKgZPGepyZ-ACr31AACskIYjCJg027.png

4.2.2:安裝Chatbox:

蘋果系統(tǒng)下載后解壓, 會(huì)有個(gè)Chatbox CE程序:

?

wKgZO2epyaCAQ4UGAAA-twFf7qw561.png

可以拷貝到應(yīng)用程序里面方便后期使用:

wKgZPGepyaGAKvIzAAETM2PLXW0040.png

然后雙擊打開,首次打開需要信任:

wKgZO2epyaKAJTuYAAFGWVYFq5k660.png

進(jìn)入系統(tǒng)菜單,設(shè)置-->隱私與安全性-->仍要打開:

wKgZPGepyaOAK9TmAAFQC0bYWSY417.png

確認(rèn)仍要打開:

wKgZO2epyaSAMfzWAAHtf_tyL7k744.png

輸入認(rèn)證(密碼或指紋認(rèn)證)信息確認(rèn):

wKgZPGepyaWAUUA7AAEo9pGqn_c729.png

4.2.3:配置Chatbox:

首次使用需要配置Chatbox連接deepseek模型, 點(diǎn)擊左側(cè)菜單Settings:

wKgZO2epyaWAfLx2AACs64w3UzQ674.png

Chatbox配置信息如下:

wKgZPGepyaaAVMuqAAGlQkIuo2M409.png

4.2.4:對話測試:

可選新建一個(gè)對話:

wKgZO2epyaeANOhSAACreLUCNEw665.png

對話驗(yàn)證:

wKgZPGepyamANoy1AAIMxrSvwzI843.png

五:本地?cái)?shù)據(jù)投喂:

基于AnythingLLM+DeepSeek進(jìn)行數(shù)據(jù)投喂訓(xùn)練, 用于搭建本地離線知識庫等場景, 本步驟是測試搭建本地知識庫,非必須不需要執(zhí)行。

https://anythingllm.com/

https://github.com/Mintplex-Labs/anything-llm

5.1:下載并安裝AnythingLLM:

wKgZO2epyaqAfIINAAIwtAm6uXU363.png

5.2:AnythingLLM基礎(chǔ)配置:

初始化AnythingLLM對接DeepSeek的配置

5.2.1:LLMPreference:

wKgZPGepyauAerXaAAFvrOKnTn8445.png

5.2.2:工作區(qū)對話設(shè)置:

將聊天模式從聊天改為查詢, 將會(huì)根據(jù)本地上傳和識別后的數(shù)據(jù)進(jìn)行響應(yīng)

wKgZO2epyayAWWjEAAC2_whJLs0890.png

更新保存配置:

wKgZPGepya2ATgVrAABg9Qu0wss031.png

5.2.3:配置embedder首選項(xiàng)為ollama:

wKgZO2epya6ABGYMAAFSFWCKIrY326.png

5.2.4:代理配置:

wKgZPGepya-AXk3SAADoHu35dns930.png

5.2.5:工作區(qū)上傳測試訓(xùn)練文檔:

上傳本地文檔之前無法回答問題,因此要上傳本地文檔進(jìn)行訓(xùn)練(支持PDF、Txt、Word、Excel、PPT等常見文檔格式):

wKgZO2epybCAWMftAABd_FypwBA261.png

本地文檔上傳中:

wKgZO2epybGAWpJAAACEHKP7At4572.png

本地文檔上傳完成:

wKgZPGepybGAIlDJAACKLqO1AOQ046.png

選擇指定的文檔并移動(dòng)到工作區(qū):

wKgZO2epybKAftjdAACXOop4vN4789.png

?

wKgZPGepybOAOmgKAACKKeekJGY444.png

保存并導(dǎo)入:

wKgZO2epybSAQdoEAACJsR00-aU531.png

導(dǎo)入并識別中:

wKgZPGepybWAKCYVAACslNk8KzE906.png

識別完成:

wKgZO2epybaAZudoAACZKPpBx28867.png

關(guān)閉窗口:

wKgZPGepybeAMvnXAACFPbfVt4E986.png

返回到對話窗口:

wKgZO2epybiAdqmUAABtGJtNnxs864.png

5.3:對話驗(yàn)證:

DeepSeek可以根據(jù)本地的知識內(nèi)容進(jìn)行匹配和回答

5.3.1:基于本地文檔回答成功的:

wKgZPGepybmAFaR3AAFQ_XDhE2s669.png

5.3.2:本地沒有的內(nèi)容提問及對話:

經(jīng)過多次提問、DeepSeek會(huì)盡可能使用本地文檔內(nèi)容進(jìn)行回復(fù)

wKgZPGepybqAHRJvAAEDSx0ACQo668.png

wKgZO2epybuAct7FAADkTOsixl4943.png


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4794

    瀏覽量

    129475
  • 京東云
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    72
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    289

    瀏覽量

    97
收藏 人收藏

    評論

    相關(guān)推薦

    5分鐘學(xué)會(huì)使用CPLD教程

    5分鐘學(xué)會(huì)使用CPLD教程
    發(fā)表于 08-19 11:03

    分鐘學(xué)會(huì)ISE

    分鐘學(xué)會(huì)ISE
    發(fā)表于 03-26 09:39

    京東回應(yīng)馬“悲劇說”: 不必妄自多情

    今日,《馬預(yù)言:京東將會(huì)成為悲劇》一言又刷爆了微博。在最新出版的《阿里巴巴正傳》一書中,作者提到自己與馬聊天時(shí),他如此評價(jià)競爭對手京東
    發(fā)表于 01-09 11:06

    60分鐘學(xué)會(huì)ORCAD

    60分鐘學(xué)會(huì)ORCAD的文檔教程
    發(fā)表于 03-11 09:44

    新手十分鐘學(xué)會(huì)用FPGA

    告訴怎樣學(xué)會(huì)用,從工程建立到最后的下板測試程序。
    發(fā)表于 03-12 09:47

    10分鐘學(xué)會(huì)FPGA設(shè)計(jì)

    10分鐘學(xué)會(huì)FPGA設(shè)計(jì)
    發(fā)表于 09-27 10:57

    10分鐘學(xué)會(huì)FPGA設(shè)計(jì)

    本帖最后由 lee_st 于 2017-10-31 09:00 編輯 10分鐘學(xué)會(huì)FPGA設(shè)計(jì)
    發(fā)表于 10-21 20:23

    快速學(xué)會(huì)用python寫游戲

    10分鐘學(xué)會(huì)用python寫游戲!Python其實(shí)很簡單!
    發(fā)表于 07-01 15:24

    60分鐘學(xué)會(huì)OrCAD Capture CIS

    于爭博士60分鐘學(xué)會(huì)ORCAD,內(nèi)容簡單詳實(shí),上手很容易,Cadence相對protel更專業(yè),值得大家學(xué)習(xí)......
    發(fā)表于 09-27 08:27

    5個(gè)步驟輕松學(xué)會(huì)用CAM做鑼帶文件

    5個(gè)步驟輕松學(xué)會(huì)用CAM做鑼帶文件
    發(fā)表于 04-15 11:36 ?3621次閱讀

    通信原理易入門 上手 輕松學(xué)會(huì)現(xiàn)代通信原理

    通信原理易入門 上手 輕松學(xué)會(huì)現(xiàn)代通信原理
    發(fā)表于 09-04 14:36 ?37次下載
    通信原理易入門 <b class='flag-5'>上手</b> <b class='flag-5'>輕松</b><b class='flag-5'>學(xué)會(huì)</b>現(xiàn)代通信原理

    如何利用SRC核心控制器來打造自己專屬移動(dòng)機(jī)器人

    覺得打造移動(dòng)機(jī)器人難嗎?你想知道輕松如何打造移動(dòng)機(jī)器人?你想打造屬于自己
    發(fā)表于 01-31 10:40 ?2619次閱讀

    SRC核心控制器,輕松打造專屬移動(dòng)機(jī)器人

    覺得打造移動(dòng)機(jī)器人難嗎?你想知道輕松如何打造移動(dòng)機(jī)器人?你想打造屬于自己
    的頭像 發(fā)表于 12-26 09:57 ?1353次閱讀

    分鐘學(xué)會(huì)FastZigBee

    電子發(fā)燒友網(wǎng)站提供《一分鐘學(xué)會(huì)FastZigBee.pdf》資料免費(fèi)下載
    發(fā)表于 10-17 10:38 ?0次下載
    一<b class='flag-5'>分鐘</b><b class='flag-5'>學(xué)會(huì)</b>FastZigBee

    京東正式上線DeepSeek系列模型

    實(shí)際需求,在京東官網(wǎng)上輕松實(shí)現(xiàn)一鍵部署。通過進(jìn)入言犀AI開發(fā)計(jì)算平臺(tái)的“AI資產(chǎn)市場”,開發(fā)者和企業(yè)可以便捷地選用DeepSeek系列模型,進(jìn)行快速調(diào)用和應(yīng)用。 為了滿足不同場景下的
    的頭像 發(fā)表于 02-06 14:25 ?149次閱讀
    主站蜘蛛池模板: 国产毛片久久国产 | www.亚洲成人 | 午夜亚洲精品 | 中文字幕亚洲一区婷婷 | 午夜国产高清精品一区免费 | 5151四虎永久在线精品免费 | 色香蕉视频 | 免费黄色网址网站 | 49pao强力免费打造在线高清 | 黄色大片毛片 | 男人午夜视频在线观看 | 国产精品久久久久久久久 | 日本成人一级片 | 天天做天天爱天天射 | 亚洲免费三级 | 三级在线网站 | 羞羞视频靠逼视频大全 | 伊人精品久久久大香线蕉99 | 四虎成人精品在永久在线观看 | 二级黄绝大片中国免费视频 | 91视频啪啪 | 爱操视频在线观看 | 午夜视频在线观看完整高清在线 | 亚洲欧美高清在线 | 在线黄色.com| 亚洲综合色色图 | 老师下面很湿很爽很紧 | 中日韩一级片 | 天天撸视频| 美女扒开尿口给男人桶爽视频 | 亚洲无线码一区在线观看 | 四虎在线电影 | 97久久综合九色综合 | 欧美日韩国产在线一区 | 久久久久久全国免费观看 | 欧美成人午夜毛片免费影院 | 又粗又硬又爽又黄毛片 | 特黄特色视频 | 日本三级特黄 | 免费观看在线视频 | 美女被免费网站视频在线 |