在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

deepin 25+DeepSeek-R1+Ollama本地搭建全流程

深度操作系統(tǒng) ? 來(lái)源:深度操作系統(tǒng) ? 2025-02-19 10:43 ? 次閱讀

日前,為了使 deepin 和 UOS AI 更加開(kāi)放,我們正式開(kāi)放了 UOS AI 的模型接入接口。這意味著,所有符合 OpenAI 接口格式的大模型,都可以無(wú)縫接入 UOS AI。大家可以根據(jù)自身需求,自由接入心儀的大模型,讓 UOS AI 成為更具個(gè)性化的智能伙伴。

在上一篇文章中,我們?yōu)榇蠹以敿?xì)介紹了 UOS AI 如何離線(xiàn)或在線(xiàn)接入 DeepSeek-R1 模型。今天我們將進(jìn)一步深入,為大家詳細(xì)講解如何借助 Ollama 在本地部署并運(yùn)行 DeepSeek-R1 模型。

* 感謝社區(qū)用戶(hù)「Feelup」提供的教程,本次本地部署在 deepin 25 Preview 環(huán)境中通過(guò)Ollama 完成。

1

Ollama 部署

進(jìn)入 Ollama 網(wǎng)站并復(fù)制 Linux 下需要使用的命令,并粘貼到終端中執(zhí)行。

51bcb4a0-ede0-11ef-9310-92fbcf53809c.png

Ollama下載完成后,通過(guò)以下命令可查看當(dāng)前 Ollama 版本

ollama --version

2

Ollama 服務(wù)配置

說(shuō)明1:若您只希望簡(jiǎn)單使用,可跳過(guò)此處服務(wù)配置。 說(shuō)明2:此處 Ollama 服務(wù)配置主要調(diào)整了 Ollama 下載模型文件的保存位置和服務(wù)訪(fǎng)問(wèn)限制調(diào)整。

sudo vim /etc/systemd/system/ollama.service
默認(rèn)的配置文件內(nèi)容
[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"


[Install]
WantedBy=default.target

非 deepin 25 服務(wù)修改參考

該 Ollama 服務(wù)配置適用于 Ubuntu、RedHat、deepin 23 等大多數(shù) Linux 系統(tǒng)

[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/usr/local/bin/ollama serve
User=nano      #此處為當(dāng)前的用戶(hù)名(可選:如果調(diào)整了模型的下載保存位置的話(huà),可解決權(quán)限問(wèn)題)
Group=nano     #此處為當(dāng)前的用戶(hù)名(可選:如果調(diào)整了模型的下載保存位置的話(huà),可解決權(quán)限問(wèn)題)
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/media/nano/Date/Ollama_Models"   #可選:設(shè)置模型的下載位置
Environment="OLLAMA_HOST=0.0.0.0:11434"  #可選:設(shè)置可訪(fǎng)問(wèn)ollama服務(wù)的地址與端口(此處表示任意IP地址都可以從端口11434訪(fǎng)問(wèn)此ollama服務(wù))


[Install]
WantedBy=default.target

deepin 25 服務(wù)修改參考

由于 deepin 25 采用了不可變系統(tǒng)設(shè)計(jì),Ollama 安裝完成后,程序的執(zhí)行文件位置出現(xiàn)了一些變化。

51c7f7ca-ede0-11ef-9310-92fbcf53809c.png

在進(jìn)行 Ollama 服務(wù)配置時(shí)也需要做相應(yīng)的修改(否則可能會(huì)出現(xiàn)服務(wù)運(yùn)行異常)

[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/var/usrlocal/bin/ollama serve    #此處調(diào)整了ollama程序的位置
User=nano      #此處為當(dāng)前的用戶(hù)名(可選:如果調(diào)整了模型的下載保存位置的話(huà),可解決權(quán)限問(wèn)題)
Group=nano     #此處為當(dāng)前的用戶(hù)名(可選:如果調(diào)整了模型的下載保存位置的話(huà),可解決權(quán)限問(wèn)題)
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/media/nano/Date/Ollama_Models"   #可選:設(shè)置模型的下載位置
Environment="OLLAMA_HOST=0.0.0.0:11434"  #可選:設(shè)置可訪(fǎng)問(wèn)ollama服務(wù)的地址與端口(此處表示任意IP地址都可以從端口11434訪(fǎng)問(wèn)此ollama服務(wù))


[Install]
WantedBy=default.target

3

Ollama服務(wù)啟動(dòng)

更新服務(wù)配置:

sudo systemctl daemon-reload
重啟 Ollama 服務(wù):
sudo systemctl restart ollama.service
查看 Ollama 服務(wù)運(yùn)行狀態(tài):
systemctl status ollama.service

4

DeepSeek-R1模型下載

在 Ollama 站內(nèi)檢索您所需要下載的模型名稱(chēng)關(guān)鍵字,根據(jù)個(gè)人電腦配置選擇合適大小的參數(shù)模型,點(diǎn)擊復(fù)制模型下載命令,并將命令粘貼到終端中進(jìn)行下載即可。

51e61566-ede0-11ef-9310-92fbcf53809c.png

本例選擇下載 1.5b 參數(shù)量大小的模型,模型下載完成后將自動(dòng)運(yùn)行,此時(shí)可以使用如下命令在「終端」中與它進(jìn)行對(duì)話(huà):

ollama run deepseek-r1:1.5b
下面是一個(gè)簡(jiǎn)單的運(yùn)行示例

51fdb05e-ede0-11ef-9310-92fbcf53809c.png

5

在 UOS AI 中添加 DeepSeek-R1

打開(kāi) UOS AI 的「設(shè)置」選項(xiàng),在「模型配置」中選擇「私有化部署模型-添加」,進(jìn)入 UOS AI 的模型添加界面。

522e78b0-ede0-11ef-9310-92fbcf53809c.png

完成添加窗口中的內(nèi)容填寫(xiě),并點(diǎn)擊確定即可,本例中使用到的信息參考如下:

賬號(hào)名稱(chēng):DeepSeek-R1 模型名:deepseek-r1:1.5b 請(qǐng)求地址:http://127.0.0.1:11434/v1

5246d19e-ede0-11ef-9310-92fbcf53809c.png

填寫(xiě)完畢并提交確定后,程序會(huì)驗(yàn)證對(duì)應(yīng)的大模型是否可用,驗(yàn)證成功后,DeepSeek-R1 便被添加至本地模型。

52680972-ede0-11ef-9310-92fbcf53809c.png

隨后即可在 UOS AI 中選擇 DeepSeek-R1 模型進(jìn)行使用。

52a561a0-ede0-11ef-9310-92fbcf53809c.png

注:以上本地部署流程不僅僅適用于 DeepSeek-R1 模型,同樣也適用于其它模型的本地部署。

附錄:

[1]deepin UOS AI 離線(xiàn)、在線(xiàn)接入 DeepSeek-R1 教程 [2] deepin UOS AI 如何配置自定義模型

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    34275

    瀏覽量

    275464
  • UOS系統(tǒng)
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    2303
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    777

    瀏覽量

    1358

原文標(biāo)題:deepin 25 + DeepSeek-R1 + Ollama 本地搭建全流程

文章出處:【微信號(hào):linux_deepin,微信公眾號(hào):深度操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】CPU部署DeekSeek-R1模型(1B和7B)

    ://ollama.com/install.sh | sh 命令輸出如下: 2.3 ollama下載模型 安裝好了ollama之后,我們就可以使用ollama下載
    發(fā)表于 04-21 00:39

    SL1680 SoC本地運(yùn)行DeepSeek R1 1.5B大模型

    深蕾半導(dǎo)體SL1680 SoC本地成功運(yùn)行DeepSeek R1 Distill Qwen2.5 1.5B大模型,展示了執(zhí)行過(guò)程及本地小參數(shù)大模型與云端大模型結(jié)合的應(yīng)用場(chǎng)景,并簡(jiǎn)要介紹
    的頭像 發(fā)表于 04-17 17:09 ?282次閱讀
    SL1680 SoC<b class='flag-5'>本地</b>運(yùn)行<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> 1.5B大模型

    在MAC mini4上安裝Ollama、Chatbox及模型交互指南

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 一,簡(jiǎn)介 本文將指導(dǎo)您如何在MAC mini4上安裝Ollama和Chatbox,并下載Deepseek-r1:32b模型。Ollama是一個(gè)用于管理和運(yùn)行
    的頭像 發(fā)表于 03-11 17:17 ?711次閱讀
    在MAC mini4上安裝<b class='flag-5'>Ollama</b>、Chatbox及模型交互指南

    技術(shù)融合實(shí)戰(zhàn)!Ollama攜手Deepseek搭建知識(shí)庫(kù),Continue入駐VScode

    OllamaDeepseek-R1、AnythingLLM 搭建強(qiáng)大的本地個(gè)人知識(shí)庫(kù),并詳細(xì)介紹 Continue 在 VScode 中的本地
    的頭像 發(fā)表于 03-04 14:47 ?559次閱讀
    技術(shù)融合實(shí)戰(zhàn)!<b class='flag-5'>Ollama</b>攜手<b class='flag-5'>Deepseek</b><b class='flag-5'>搭建</b>知識(shí)庫(kù),Continue入駐VScode

    RK3588開(kāi)發(fā)板上部署DeepSeek-R1大模型的完整指南

    DeepSeek作為國(guó)產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。DeepSeek-R1作為該系列最新迭代版本,實(shí)現(xiàn)了長(zhǎng)文本處理效能躍遷、多模態(tài)
    發(fā)表于 02-27 16:45

    9.9萬(wàn)元用上“滿(mǎn)血”DeepSeek R1一體機(jī),本地部署成新商機(jī)?引發(fā)外媒熱議

    本地部署的熱潮 DeepSeek R1作為一款強(qiáng)大的AI大模型,其本地部署能夠帶來(lái)諸多優(yōu)勢(shì),如保護(hù)數(shù)據(jù)安全和隱私、避免核心數(shù)據(jù)傳輸至第三方云端等。因此,
    的頭像 發(fā)表于 02-27 09:20 ?1424次閱讀

    行芯完成DeepSeek-R1大模型本地化部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地化部署,實(shí)現(xiàn)在多場(chǎng)景、多產(chǎn)品中應(yīng)用。解鎖“芯”玩法,開(kāi)啟“芯”未來(lái)!
    的頭像 發(fā)表于 02-24 15:17 ?565次閱讀

    宇芯基于T527成功部署DeepSeek-R1

    近日,宇芯成功在志T527 Linux系統(tǒng)上本地部署并運(yùn)行了DeepSeek-R1 1.5B模型。
    的頭像 發(fā)表于 02-15 09:06 ?939次閱讀
    宇芯基于T527成功部署<b class='flag-5'>DeepSeek-R1</b>

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    設(shè)計(jì)到GDSII文件生成的流程AI輔助 需定制開(kāi)發(fā)中間件實(shí)現(xiàn)工具間數(shù)據(jù)傳遞 四、局限性說(shuō)明 即使是R1也存在以下局限,需人工復(fù)核: 數(shù)值精度問(wèn)題 :浮點(diǎn)計(jì)算可能引入微小誤差(需與仿真工具交叉驗(yàn)證
    發(fā)表于 02-14 02:08

    【實(shí)測(cè)】用志A733平板搭建一個(gè)端側(cè)Deepseek算力平臺(tái)

    ? 隨著DeepSeek 的蒸餾技術(shù)的橫空出世,端側(cè) SoC 芯片上運(yùn)行大模型成為可能。那么端側(cè)芯片跑大模型的效果如何呢?本文將在志 A733 芯片平臺(tái)上部署一個(gè) DeepSeek-R1:1.5B
    發(fā)表于 02-13 10:19

    實(shí)戰(zhàn)案例 | 眺望RK3588 RKLLM部署DeepSeek-R1流程

    前言:在RK3588上部署Deepseek有兩種方法,分別是使用Ollama工具部署和使用瑞芯微官方的RKLLM量化部署。Ollama是一個(gè)開(kāi)源的大模型服務(wù)工具,調(diào)用的是CPU進(jìn)行的運(yùn)算,如果要將
    的頭像 發(fā)表于 02-12 08:31 ?4532次閱讀
    實(shí)戰(zhàn)案例 | 眺望RK3588 RKLLM部署<b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>全</b><b class='flag-5'>流程</b>

    DeepSeek-R1本地部署指南,開(kāi)啟你的AI探索之旅

    的進(jìn)一步使用。 論文鏈接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf 1|0一、什么是
    的頭像 發(fā)表于 02-08 10:30 ?5209次閱讀
    <b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>本地</b>部署指南,開(kāi)啟你的AI探索之旅

    deepin UOS AI接入DeepSeek-R1模型

    DeepSeek-R1 模型自發(fā)布以來(lái)吸引了眾多用戶(hù)關(guān)注,為了讓 deepin 用戶(hù)更好地體驗(yàn)這一前沿技術(shù),UOS AI 現(xiàn)已適配接入 DeepSeek-R1 端側(cè)模型!無(wú)需忍受服務(wù)器崩潰,兩步即可在
    的頭像 發(fā)表于 02-08 09:52 ?889次閱讀

    在龍芯3a6000上部署DeepSeek 和 Gemma2大模型

    serve 2.運(yùn)行deepseek-r1大模型 到以下網(wǎng)站選擇不同參數(shù)的大模型 https://ollama.com/library/deepseek-r1 新開(kāi)一個(gè)終端執(zhí)行如下命令 $
    發(fā)表于 02-07 19:35

    DeepSeek-R1尺寸版本上線(xiàn)Gitee AI

    DeepSeek 全套蒸餾模型以及 V3 版本上線(xiàn)后,經(jīng)過(guò) Gitee AI 和沐曦團(tuán)隊(duì)兩天緊鑼密鼓的適配和機(jī)器籌備,DeepSeek-R1尺寸版本現(xiàn)在已上線(xiàn) Gitee AI 供開(kāi)發(fā)者們使用。
    的頭像 發(fā)表于 02-07 15:25 ?1032次閱讀
    主站蜘蛛池模板: 欧美亚洲韩国国产综合五月天 | 国产福利免费观看 | 六月丁香深爱六月综合激情 | 国产一级片免费 | 嫩草影院播放地址一二三 | 最近在线观看免费完整视频 | 狠狠色噜噜狠狠狠狠黑人 | 手机看片1024久久 | 欧美天天搞 | 天堂bt| ts国产| 欧美xx网站| 色香婷婷 | 午夜精品久久久 | 美女全黄网站免费观看 | 久久国产美女 | 色www亚洲国产张柏芝 | 国内自拍 亚洲系列 欧美系列 | 免费视频在线播放 | 国产小视频在线观看www | 性满足久久久久久久久 | 夜夜爽8888 | 第四色播日韩第一页 | 天天草综合网 | 欧美福利二区 | 天天干影视| 伊人久久综合成人网小说 | 国产高清亚洲 | 窝窝午夜看片成人精品 | 国产黄在线观看 | www在线观看 | 操一操干一干 | 婷婷综合色 | 在线好吊色视频98gao | 四虎影视在线播放 | 双性人皇上被c到哭 | 狠狠色丁香婷婷综合久久片 | 男男gay污小黄文 | 日韩一级黄 | 欧美.成人.综合在线 | 国产婷婷高清在线观看免费 |