在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

deepin 25+DeepSeek-R1+Ollama本地搭建全流程

深度操作系統 ? 來源:深度操作系統 ? 2025-02-19 10:43 ? 次閱讀

日前,為了使 deepin 和 UOS AI 更加開放,我們正式開放了 UOS AI 的模型接入接口。這意味著,所有符合 OpenAI 接口格式的大模型,都可以無縫接入 UOS AI。大家可以根據自身需求,自由接入心儀的大模型,讓 UOS AI 成為更具個性化的智能伙伴。

在上一篇文章中,我們為大家詳細介紹了 UOS AI 如何離線或在線接入 DeepSeek-R1 模型。今天我們將進一步深入,為大家詳細講解如何借助 Ollama 在本地部署并運行 DeepSeek-R1 模型。

* 感謝社區用戶「Feelup」提供的教程,本次本地部署在 deepin 25 Preview 環境中通過Ollama 完成。

1

Ollama 部署

進入 Ollama 網站并復制 Linux 下需要使用的命令,并粘貼到終端中執行。

51bcb4a0-ede0-11ef-9310-92fbcf53809c.png

Ollama下載完成后,通過以下命令可查看當前 Ollama 版本

ollama --version

2

Ollama 服務配置

說明1:若您只希望簡單使用,可跳過此處服務配置。 說明2:此處 Ollama 服務配置主要調整了 Ollama 下載模型文件的保存位置和服務訪問限制調整。

sudo vim /etc/systemd/system/ollama.service
默認的配置文件內容
[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"


[Install]
WantedBy=default.target

非 deepin 25 服務修改參考

該 Ollama 服務配置適用于 Ubuntu、RedHat、deepin 23 等大多數 Linux 系統

[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/usr/local/bin/ollama serve
User=nano      #此處為當前的用戶名(可選:如果調整了模型的下載保存位置的話,可解決權限問題)
Group=nano     #此處為當前的用戶名(可選:如果調整了模型的下載保存位置的話,可解決權限問題)
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/media/nano/Date/Ollama_Models"   #可選:設置模型的下載位置
Environment="OLLAMA_HOST=0.0.0.0:11434"  #可選:設置可訪問ollama服務的地址與端口(此處表示任意IP地址都可以從端口11434訪問此ollama服務)


[Install]
WantedBy=default.target

deepin 25 服務修改參考

由于 deepin 25 采用了不可變系統設計,Ollama 安裝完成后,程序的執行文件位置出現了一些變化。

51c7f7ca-ede0-11ef-9310-92fbcf53809c.png

在進行 Ollama 服務配置時也需要做相應的修改(否則可能會出現服務運行異常)

[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/var/usrlocal/bin/ollama serve    #此處調整了ollama程序的位置
User=nano      #此處為當前的用戶名(可選:如果調整了模型的下載保存位置的話,可解決權限問題)
Group=nano     #此處為當前的用戶名(可選:如果調整了模型的下載保存位置的話,可解決權限問題)
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/media/nano/Date/Ollama_Models"   #可選:設置模型的下載位置
Environment="OLLAMA_HOST=0.0.0.0:11434"  #可選:設置可訪問ollama服務的地址與端口(此處表示任意IP地址都可以從端口11434訪問此ollama服務)


[Install]
WantedBy=default.target

3

Ollama服務啟動

更新服務配置:

sudo systemctl daemon-reload
重啟 Ollama 服務:
sudo systemctl restart ollama.service
查看 Ollama 服務運行狀態:
systemctl status ollama.service

4

DeepSeek-R1模型下載

在 Ollama 站內檢索您所需要下載的模型名稱關鍵字,根據個人電腦配置選擇合適大小的參數模型,點擊復制模型下載命令,并將命令粘貼到終端中進行下載即可。

51e61566-ede0-11ef-9310-92fbcf53809c.png

本例選擇下載 1.5b 參數量大小的模型,模型下載完成后將自動運行,此時可以使用如下命令在「終端」中與它進行對話:

ollama run deepseek-r1:1.5b
下面是一個簡單的運行示例

51fdb05e-ede0-11ef-9310-92fbcf53809c.png

5

在 UOS AI 中添加 DeepSeek-R1

打開 UOS AI 的「設置」選項,在「模型配置」中選擇「私有化部署模型-添加」,進入 UOS AI 的模型添加界面。

522e78b0-ede0-11ef-9310-92fbcf53809c.png

完成添加窗口中的內容填寫,并點擊確定即可,本例中使用到的信息參考如下:

賬號名稱:DeepSeek-R1 模型名:deepseek-r1:1.5b 請求地址:http://127.0.0.1:11434/v1

5246d19e-ede0-11ef-9310-92fbcf53809c.png

填寫完畢并提交確定后,程序會驗證對應的大模型是否可用,驗證成功后,DeepSeek-R1 便被添加至本地模型。

52680972-ede0-11ef-9310-92fbcf53809c.png

隨后即可在 UOS AI 中選擇 DeepSeek-R1 模型進行使用。

52a561a0-ede0-11ef-9310-92fbcf53809c.png

注:以上本地部署流程不僅僅適用于 DeepSeek-R1 模型,同樣也適用于其它模型的本地部署。

附錄:

[1]deepin UOS AI 離線、在線接入 DeepSeek-R1 教程 [2] deepin UOS AI 如何配置自定義模型

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    32012

    瀏覽量

    270871
  • UOS系統
    +關注

    關注

    0

    文章

    8

    瀏覽量

    2200
  • DeepSeek
    +關注

    關注

    1

    文章

    450

    瀏覽量

    187

原文標題:deepin 25 + DeepSeek-R1 + Ollama 本地搭建全流程

文章出處:【微信號:linux_deepin,微信公眾號:深度操作系統】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    宇芯基于T527成功部署DeepSeek-R1

    近日,宇芯成功在志T527 Linux系統上本地部署并運行了DeepSeek-R1 1.5B模型。
    的頭像 發表于 02-15 09:06 ?371次閱讀
    宇芯基于T527成功部署<b class='flag-5'>DeepSeek-R1</b>

    添越智創基于 RK3588 開發板部署測試 DeepSeek 模型全攻略

    ,Gemma 和其他多種模型,在安裝Ollama工具之后,使用以下命令即可一鍵部署15億參數的deepseek-r1模型,運行之后如下圖所示: ollama run deepseek-r1
    發表于 02-14 17:42

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇

    設計到GDSII文件生成的流程AI輔助 需定制開發中間件實現工具間數據傳遞 四、局限性說明 即使是R1也存在以下局限,需人工復核: 數值精度問題 :浮點計算可能引入微小誤差(需與仿真工具交叉驗證
    發表于 02-14 02:08

    【實測】用志A733平板搭建一個端側Deepseek算力平臺

    ? 隨著DeepSeek 的蒸餾技術的橫空出世,端側 SoC 芯片上運行大模型成為可能。那么端側芯片跑大模型的效果如何呢?本文將在志 A733 芯片平臺上部署一個 DeepSeek-R1:1.5B
    發表于 02-13 10:19

    Deepseek R1大模型離線部署教程

    DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發的推理模型 。DeepSeek-R1采用強化學習進行后訓練,旨在提升推理能力,尤其擅長數學、代碼和自然語言推理等復雜任務
    的頭像 發表于 02-12 09:37 ?637次閱讀
    <b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型離線部署教程

    實戰案例 | 眺望RK3588 RKLLM部署DeepSeek-R1流程

    前言:在RK3588上部署Deepseek有兩種方法,分別是使用Ollama工具部署和使用瑞芯微官方的RKLLM量化部署。Ollama是一個開源的大模型服務工具,調用的是CPU進行的運算,如果要將
    的頭像 發表于 02-12 08:31 ?1349次閱讀
    實戰案例 | 眺望RK3588 RKLLM部署<b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>全</b><b class='flag-5'>流程</b>

    “輕松上手!5分鐘學會用京東云打造你自己的專屬DeepSeek

    #從第?步驟到第四步驟是完成DeepSeek本地部署和使?,可以滿?中?企業環境的穩定 使?,第五步驟為基于AnythingLLM和本地數據進?訓練(基于本地數據
    的頭像 發表于 02-10 17:41 ?936次閱讀
    “輕松上手!5分鐘學會用京東云打造你自己的專屬<b class='flag-5'>DeepSeek</b>”

    AIBOX 系產品已適配 DeepSeek-R1

    國產AI大模型DeepSeek以出色的性價比和高效的模型技術,迅速成為全球AI關注的焦點。Firefly開源團隊率先實現AIBOX系列產品對DeepSeek-R1的全面適配。R1模型性能數據
    的頭像 發表于 02-08 17:30 ?232次閱讀
    AIBOX <b class='flag-5'>全</b>系產品已適配 <b class='flag-5'>DeepSeek-R1</b>

    扣子平臺支持DeepSeek R1與V3模型

    近日,新一代AI應用搭建平臺“扣子”宣布了一項重要更新,即正式支持DeepSeekR1和V3模型,并向廣大用戶開放免費體驗。 扣子平臺一直以來都致力于為用戶提供便捷、高效的AI應用搭建
    的頭像 發表于 02-08 13:42 ?492次閱讀

    DeepSeek-R1本地部署指南,開啟你的AI探索之旅

    的進一步使用。 論文鏈接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf 1|0一、什么是
    的頭像 發表于 02-08 10:30 ?3541次閱讀
    <b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>本地</b>部署指南,開啟你的AI探索之旅

    deepin UOS AI接入DeepSeek-R1模型

    DeepSeek-R1 模型自發布以來吸引了眾多用戶關注,為了讓 deepin 用戶更好地體驗這一前沿技術,UOS AI 現已適配接入 DeepSeek-R1 端側模型!無需忍受服務器崩潰,兩步即可在
    的頭像 發表于 02-08 09:52 ?379次閱讀

    在龍芯3a6000上部署DeepSeek 和 Gemma2大模型

    serve 2.運行deepseek-r1大模型 到以下網站選擇不同參數的大模型 https://ollama.com/library/deepseek-r1 新開一個終端執行如下命令 $
    發表于 02-07 19:35

    DeepSeek-R1尺寸版本上線Gitee AI

    DeepSeek 全套蒸餾模型以及 V3 版本上線后,經過 Gitee AI 和沐曦團隊兩天緊鑼密鼓的適配和機器籌備,DeepSeek-R1尺寸版本現在已上線 Gitee AI 供開發者們使用。
    的頭像 發表于 02-07 15:25 ?491次閱讀

    云天勵飛上線DeepSeek R1系列模型

    春節期間,云天勵飛芯片團隊完成 DeepEdge10 “算力積木”芯片平臺與DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1
    的頭像 發表于 02-06 10:39 ?317次閱讀
    云天勵飛上線<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列模型

    Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個開源的大語言模型服務工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運行過程,請參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》,一條命令完成
    的頭像 發表于 11-23 17:22 ?2297次閱讀
    用<b class='flag-5'>Ollama</b>輕松搞定Llama 3.2 Vision模型<b class='flag-5'>本地</b>部署
    主站蜘蛛池模板: 久久国产中文字幕 | 美女视频黄的免费视频网页 | 在线免费观看你懂的 | 日本黄色高清视频网站 | 91久久澡人人爽人人添 | 国产三级精品三级 | 天天热天天干 | 精品欧美 | eeuss久久久精品影院 | 亚洲欧美成人网 | 在线视频永久在线视频 | 国产一级久久免费特黄 | 国产午夜精品不卡片 | 中文字幕导航 | 丝袜美腿一区 | 成人午夜大片免费7777 | 一级一片免费视频播放 | 三级黄色在线观看 | 天天爱天天操天天射 | 国产裸露片段精华合集链接 | 丁香六月综合激情 | 久操成人| 天堂在线视频网站 | 绝色村妇的泛滥春情 | 国产成人高清一区二区私人 | 欧美在线精品一区二区三区 | 欧美精彩狠狠色丁香婷婷 | 韩国三级视频网站 | 欧美a网站 | 国产一级大片在线观看 | 8050午夜一级二级全黄 | 亚洲黄色第一页 | 91日本视频 | 天天澡天天摸天天爽免费 | 欧美性天天影视 | 51xtv成人影院 | 中文在线1区二区六区 | 青草青青视频 | 男人的天堂视频在线 | 欧美一级在线全免费 | 黄a毛片 |