在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Ampere 架構的結構化稀疏功能及其在搜索引擎中的應用

NVIDIA英偉達 ? 來源:未知 ? 2023-07-18 17:45 ? 次閱讀

NVIDIA Ampere 架構的結構化稀疏功能

及其在搜索引擎中的應用

深度學習徹底改變了我們分析、理解和處理數據的方式,而且在各個領域的應用中都取得了巨大的成功,其在計算機視覺、自然語言處理、醫療診斷和醫療保健、自動駕駛汽車、推薦系統以及氣候和天氣建模方面有許多成功案例。

神經網絡模型不斷變大的時代,對計算速度的高需求對硬件和軟件都形成了巨大的挑戰。模型剪枝和低精度推理是非常有效的解決方案。

自 NVIDIA Ampere 架構開始, 隨著 A100 Tensor Core GPU 的推出,NVIDIA GPU 提供了可用于加速推理的細粒度結構化稀疏功能。在本文中,我們將介紹此類稀疏模型的訓練方法以保持模型精度,包括基本訓練方法、漸進式訓練方法以及與 int8 量化的結合。我們還將介紹如何利用 Ampere 架構的結構化稀疏功能進行推理。

騰訊機器學習平臺部門 (MLPD) 利用了漸進式訓練方法,簡化了稀疏模型訓練并實現了更高的模型精度。借助稀疏功能和量化技術,他們在騰訊的離線服務中實現了 1.3 倍~1.8 倍的加速。

NVIDIA Ampere 架構的結構化稀疏功能

NVIDIA Ampere NVIDIA Hopper 架構 GPU 增加了新的細粒度結構化稀疏功能,該功能主要用于加速推理。此功能是由稀疏 Tensor Core 提供,這些稀疏 Tensor Core 需要 2:4 的稀疏模式。也就是說,以 4 個相鄰權重為一組,其中至少有 2 個權重必須為 0,即 50% 的稀疏率。

這種稀疏模式可實現高效的內存訪問能力,有效的模型推理加速,并可輕松恢復模型精度。在模型壓縮后,存儲格式只存儲非零值和相應的索引元數據(圖 1)。稀疏 Tensor Core 在執行矩陣乘法時僅處理非零值,理論上,計算吞吐量是同等稠密矩陣乘法的 2 倍。

201e104e-254e-11ee-962d-dac502259ad0.png

圖 1. 2:4 結構化稀疏模式及其壓縮格式

(結構化稀疏矩陣具有 2:4 的稀疏模式。在 4 個相鄰權重當中,至少有 2 個值為零。在模型壓縮后,僅存儲非零值和相應的索引元數據。)

結構化稀疏功能主要應用于能夠提供 2:4 稀疏權重的全連接層和卷積層。如果提前對這些層的權重做剪枝,則這些層可以使用結構化稀疏功能來進行加速。

訓練方法

由于直接對權重做剪枝會降低模型精度,因此在使用結構化稀疏功能的時候,您需要進行訓練來恢復模型精度。下面,我們將介紹一些基本訓練方法和新的漸進式訓練方法。

基本訓練方法

基本訓練方法可保持模型精度,并且無需任何超參數調優。了解更多技術細節,請參閱論文 Accelerating Sparse Deep Neural Networkshttps://arxiv.org/abs/2104.08378)。

基本訓練方法易于使用,步驟如下:

  1. 訓練一個常規稠密模型,不需要稀疏化的特殊處理。

  2. 對全連接層和卷積層上的權重以 2:4 的稀疏模式進行剪枝。

  3. 按照以下規則重新訓練經過剪枝的模型:

    a. 將所有權重初始化為第 2 步中的值。

    b. 使用與第 1 步相同的優化器和超參數(學習率、調度方法、訓練次數等)進行稀疏調優訓練。

    c. 保持第 2 步中剪枝后的稀疏模式。

20449b74-254e-11ee-962d-dac502259ad0.png

圖 2. 基本訓練方法

(基本訓練方法就是使用剪枝后的權重和掩碼后的優化器重復原始稠密模型的訓練過程。)

對于復雜情況,還有一些進階的方法。

例如,把稀疏訓練應用在多階段式的稠密模型訓練當中。比如對于一些目標檢測模型,如果下游任務的數據集足夠大,您只需做稀疏調優訓練。對于像 BERT-SQuAD 等模型,調優階段使用的數據集相對較小,您則需要在預訓練階段進行稀疏訓練以獲得更好的模型精度。

此外,通過在稀疏調優之前插入量化節點,您可以輕松將稀疏調優與 int8 量化調優結合起來。所有這些訓練以及調優方法都是一次性的,即最終獲得的模型只需要經過一次稀疏訓練處理。

漸進式稀疏訓練方法

一次性稀疏調優(fine-tuning)可以覆蓋大多數任務,并在不損失精度的情況下實現加速。然而,就一些對權重數值變化敏感的困難任務而言,對所有權重做一次性稀疏訓練會導致大量信息損失。在小型數據集上只做稀疏化調優可能會很難恢復精度,對于這些任務而言,就需要稀疏預訓練(pretraining)。

然而稀疏預訓練需要更多數據,而且更加耗時。因此,受到卷積神經網絡剪枝方法的啟發,我們引入了漸進式稀疏訓練方法,在此類任務上僅應用稀疏化調優便可以實現模型的稀疏化,同時不會造成明顯的精度損失。了解更多細節,請參閱論文 Learning both Weights and Connections for Efficient Neural Networkshttps://arxiv.org/pdf/1506.02626.pdf)。

206ecde0-254e-11ee-962d-dac502259ad0.png

圖 3. 漸進式稀疏訓練的概念

(漸進式稀疏訓練方法將稀疏率分為幾個步驟,以輕松恢復精度。漸進式稀疏訓練方法的核心思想是將目標稀疏率進行若干次切分。)

20a80858-254e-11ee-962d-dac502259ad0.png ?

如上述公式和圖 4 所示,對于目標稀疏率 S,我們將其分為 N 份,這將有助于在稀疏調優過程中快速恢復信息。根據我們的實驗,在相同的調優迭代次數內,使用漸進式稀疏訓練相比一次性稀疏訓練,可以獲得更高的模型精度。

20c801e4-254e-11ee-962d-dac502259ad0.png

圖 4. 漸進式稀疏訓練方法 (以 50% 稀疏率的 2:4 結構化稀疏模式為例)

(漸進式稀疏訓練方法的示例:計算權重掩碼以達到 25% 稀疏率,再進行稀疏調優恢復性能,最后重新計算掩碼使之達到 50% 稀疏率并對網絡進行調優。)

我們以 50% 稀疏率的 2:4 結構化稀疏為例,將稀疏率分為兩份,然后逐步稀疏和調優模型中的權重參數。如圖 4 所示,首先計算權重掩碼以實現 25% 的稀疏率,然后執行稀疏調優以恢復模型精度。接下來,重新對剩余權重計算權重掩碼以達到 50% 的稀疏率,并對網絡進行調優,以獲得一個精度無損的稀疏模型。

Sparse-QAT:稀疏化與量化、蒸餾相結合

為了獲得更輕量的模型,我們進一步將稀疏與量化、蒸餾相結合,即 Sparse-QAT。

量化(PTQ 和 QAT)

下方的公式表示一個通用的量化過程。對于 32 位浮點數值 x,我們使用 Q [x] 表示其具有 K-bits 表示的量化值。

20edee68-254e-11ee-962d-dac502259ad0.png

通常情況下,我們首先將原始參數量化到特定范圍,并將其近似為整數。然后,可以使用這個量化比例 scale (s) 來恢復原始值。這樣就得到了第一種量化方法,即校準,也稱為訓練后量化(post-training quantization, PTQ)。在校準中,一個關鍵的因素是要設置一個適當的量化比例(scale)。如果這個比例值過大,量化范圍內的數字將不太準確。相反,如果這個比例值過小,會導致大量的數字落在 lmin 到 lmax 的范圍之外。因此,為了平衡這兩個方面,我們首先獲得張量中數值的統計分布,然后設置量化比例以覆蓋 99.99% 的數值。許多工作已經證明,這種方法對于在校準過程中找到合適的量化比例非常有幫助。

然而,盡管我們已經為校準設置了一個合理的量化比例,但是對于 8 bit 量化來說,模型精度仍然會顯著下降。因此,我們引入量化感知訓練(quantization-aware training, QAT),以進一步提高校準后的精度。QAT 的核心思想是以模擬量化的方法來訓練模型。

在前向傳播過程中,我們將權重量化為 int8,然后將其反量化為浮點數來模擬真實量化。在反向傳播過程中,引入 straight through estimation (STE) 的方法來更新模型權重。STE 的核心思想可以用如下公式表示:

2111f33a-254e-11ee-962d-dac502259ad0.png

由上述公式可知,閾值范圍內的值對應的梯度直接反向傳播,超出閾值范圍的值對應的梯度被裁剪為 0。

知識蒸餾

除了上述方法外,我們還引入了知識蒸餾(knowledge distilation, KD),以進一步確保 Sparse-QAT 模型的精度。我們以原始稠密模型作為教師模型,以量化稀疏模型作為學生模型。在調優過程中,我們采用了 Mini-distillation,這是一種層級別的蒸餾方法。使用 MiniLM,我們只需要使用 Transformer 模型最后一層的輸出。引入蒸餾作為輔助工具甚至可以獲得比教師模型精度更高的稀疏量化學生模型。了解更多信息,請參閱 MiniLM: Deep Self-Attention Distillation for Task-Agnostic Compression of Pre-Trained Transformershttps://arxiv.org/abs/2002.10957。

Sparse-QAT 訓練流水線

圖 5 顯示了 Sparse-QAT 的訓練流水線。稀疏化、量化、蒸餾以并行的方式執行,最終獲得一個稀疏的 int8 量化模型。整個流水線包括如下三條路徑:

  • 在稀疏路徑中,應用漸進式稀疏化來獲取一個稀疏權重張量。

  • 在量化路徑中,使用 PTQ 和 QAT 來獲取 int8 類型的權重張量。

  • 在知識蒸餾路徑中,使用 MiniLM 來進一步保障最終稀疏 int8 模型的精度。

2128e40a-254e-11ee-962d-dac502259ad0.png

圖 5. Sparse-QAT 流水線

(將稀疏、量化和知識蒸餾相結合,以獲得最終的稀疏 int8 模型。)

使用 NVIDIA Ampere 架構的

結構化稀疏功能進行推理

在訓練好稀疏模型后,您可以使用 NVIDIA TensorRTcuSPARSELt 庫來加速基于 NVIDIA Ampere 架構結構化稀疏功能的推理。

使用 NVIDIA TensorRT 進行推理

自 8.0 版本開始,TensorRT 可以支持稀疏卷積,矩陣乘法 (GEMM) 需要用 1x1 的卷積替代來進行稀疏化推理。在 TensorRT 中啟用稀疏化推理非常簡單。在導入 TensorRT 之前,模型的權重應具有 2:4 的稀疏模式。如果使用 trtexec 構建引擎,只需設置 -sparity=enable 標志即可。如果您正在編寫代碼或腳本來構建引擎,只需按如下所示設置構建配置:

對于 C++

config->setFlag(BuilderFlag::kSPARSE_WEIGHTS)

對于 Python

config.set_flag(trt.BuilderFlag.SPARSE_WEIGHTS)

使用 NVIDIA cuSPARSELt 庫增強 TensorRT

在某些用例中,TensorRT 可能因為輸入尺寸不同而無法提供最佳性能。您可以使用 cuSPARSELt 進一步加速這些用例。

解決方案是使用 cuSPARSELt 編寫 TensoRT 插件,我們可以為不同的輸入尺寸初始化多個描述符以及多個 cuSPARSELt 稀疏矩陣乘法 plan,并根據輸入尺寸選擇合適的 plan。

假設您在實現SpmmPluginDynamic插件,該插件繼承自nvinfer1:: IPluginV2DynamicExt,您可以使用一個私有結構來存儲這些 plan。

 struct cusparseLtContext {
    cusparseLtHandle_t handle;
    std::vector plans;
    std::vector matAs, matBs, matCs;
    std::vector matmuls;
    std::vector alg_sels;
}

TensorRT 插件應實現 configurePlugin方法,該方法會根據輸入和輸出類型及尺寸設置插件。您需要在這個函數當中初始化 cuSPARSELt 的相關結構。

cuSPARSELt 的輸入尺寸有一些限制,應為 4、8 或 16 的倍數,具體取決于數據類型。在本文中,我們將其設置為 16 的倍數。了解該限制條件的相關信息,請查看此文檔https://docs.nvidia.com/cuda/cusparselt/functions.html#cusparseltdensedescriptorinit)。

for (int i = 0; i < size_num; ++i) {
  m = 16 * (i + 1);
  int alignment = 16;
  CHECK_CUSPARSE(cusparseLtStructuredDescriptorInit(
      &handle, &matBs[i], n, k, k, alignment, type, CUSPARSE_ORDER_ROW,
      CUSPARSELT_SPARSITY_50_PERCENT))
  CHECK_CUSPARSE(cusparseLtDenseDescriptorInit(
      &handle, &matAs[i], m, k, k, alignment, type, CUSPARSE_ORDER_ROW))
  CHECK_CUSPARSE(cusparseLtDenseDescriptorInit(
      &handle, &matCs[i], m, n, n, alignment, type, CUSPARSE_ORDER_ROW))
  CHECK_CUSPARSE(cusparseLtMatmulDescriptorInit(
      &handle, &matmuls[i], CUSPARSE_OPERATION_NON_TRANSPOSE,
      CUSPARSE_OPERATION_TRANSPOSE, &matAs[i], &matBs[i], &matCs[i], &matCs[i], compute_type))
  CHECK_CUSPARSE(cusparseLtMatmulAlgSelectionInit(
      &handle, &alg_sels[i], &matmuls[i], CUSPARSELT_MATMUL_ALG_DEFAULT))
  int split_k = 1;
  CHECK_CUSPARSE(cusparseLtMatmulAlgSetAttribute(
      &handle, &alg_sels[i], CUSPARSELT_MATMUL_SPLIT_K, &split_k, sizeof(split_k)))
  int alg_id = 0;
  CHECK_CUSPARSE(cusparseLtMatmulAlgSetAttribute(
      &handle, &alg_sels[i], CUSPARSELT_MATMUL_ALG_CONFIG_ID, &alg_id, sizeof(alg_id)))
  size_t ws{0};
  CHECK_CUSPARSE(cusparseLtMatmulPlanInit(&handle, &plans[i], &matmuls[i], &alg_sels[i],
                                          ws))
  CHECK_CUSPARSE(
      cusparseLtMatmulGetWorkspace(&handle, &plans[i], &ws))
  workspace_size = std::max(workspace_size, ws);
}

在enqueue函數中,您可以檢索適當的 plan 來執行矩陣乘法。

int m = inputDesc->dims.d[0];
int idx = (m + 15) / 16 - 1;
float alpha = 1.0f;
float beta = 0.0f;
auto input = static_cast<const float*>(inputs[0]);
auto output = static_cast<float*>(outputs[0]);
cusparseStatus_t status = cusparseLtMatmul(
    &handle, &plans[idx], &alpha, input,
weight_compressed,&beta,output,output,workSpace,&stream,1);

搜索引擎中的應用

在本部分中,我們將展示在搜索引擎中應用了稀疏化加速的四個應用案例:

  • 第一是搜索中的相關性預測,旨在評估輸入文本和數據庫中視頻之間的相關性。

  • 第二是查詢性能預測,用于文檔召回交付策略。

  • 第三是用于召回最相關文本的召回任務。

  • 第四是文生圖任務,該任務根據輸入的提示詞自動生成相應的圖片。

搜索相關性案例

我們使用 PNR (Positive Negative Rate,正負率) 或 ACC (accuracy,精度) 標準來評估稀疏化加速在這些應用案例的效果。在相關性案例 1 中,我們運行 Sparse-QAT 獲得了一個稀疏 int8 模型,該模型在兩個重要的 PNR 評估指標均優于在線 int8 模型。

214fa27a-254e-11ee-962d-dac502259ad0.png

在相關性案例 2 中,稀疏 int8 模型可以獲得與 float32 模型接近的 Acc 分數,相比稠密 int8 模型,其獲得了 1.4 倍的推理加速。

21813a4c-254e-11ee-962d-dac502259ad0.png ? ?

查詢性能預測案例

在這部分,我們展示了查詢性能預測 (query performance prediction, QPP) 的四個用例,其效果使用 NDCG(normalized discounted cumulative gain, 標準化折扣累積增益)評估。如表 3 所示,這些稀疏 float16 模型甚至可以獲得比原始 float32 模型更高的 NDCG 分數,同時推理速度相比于 float32 模型提高了 4 倍。

219fb4ea-254e-11ee-962d-dac502259ad0.png

文檔查詢案例

表 4 顯示了搜索引擎中文檔查詢案例的結果,與稠密 int8 模型相比,使用我們推薦的 Sparse-QAT 訓練流水線,稀疏 int8 模型可以實現 1.4 倍的推理加速,準確度損失可忽略不計。

21d72ae2-254e-11ee-962d-dac502259ad0.png

文生圖案例

圖 6 展示了文生圖模型的結果,上面四張圖片是用稠密 float32 模型輸出,下面四張圖片是用稀疏 float16 模型輸出。

從結果中您會發現,輸入相同的提示,稀疏模型可以輸出與稠密模型相當的結果。而且引入模型稀疏化和額外的漸進式稀疏調優使得模型從數據中學習到了更多內容,因此部分稀疏模型的輸出結果看起來更為合理。

圖 6. 搜索引擎中的文生圖案例

(在文生圖的案例中,稀疏模型可能會產生比密集模型更合理的結果。)

總結

NVIDIA Ampere 架構中的結構化稀疏功能可以加速許多深度學習工作負載,并且易于結合 TensorRT 和 cuSPARSELt 稀疏加速庫一起使用。

如需了解更多信息,請觀看 GTC 演講:NVIDIA Amperehttps://www.nvidia.com/en-us/on-demand/session/gtcspring23-s51299/) 架構的結構化稀疏功能及其在騰訊微信搜索中的應用(https://www.nvidia.com/en-us/on-demand/session/gtcspring23-s51299/)。

下載最新的 TensorRT 和 cuSPARSELt:

TensorRT 下載:

https://developer.nvidia.cn/zh-cn/tensorrt

cuSPARSELt 下載:https://developer.nvidia.com/cusparselt-downloads)。

點擊“閱讀原文”,或掃描下方海報二維碼,在 8 月 8日聆聽NVIDIA 創始人兼 CEO 黃仁勛在 SIGGRAPH 現場發表的 NVIDIA 主題演講,了解 NVIDIA 的新技術,包括屢獲殊榮的研究,OpenUSD 開發,以及最新的 AI 內容創作解決方案。


原文標題:NVIDIA Ampere 架構的結構化稀疏功能及其在搜索引擎中的應用

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3900

    瀏覽量

    92846

原文標題:NVIDIA Ampere 架構的結構化稀疏功能及其在搜索引擎中的應用

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    阿里國際推出全球首個B2B AI搜索引擎Accio

    近日,歐洲科技峰會Web Summit上,阿里國際正式推出了全球首個B2B領域的AI搜索引擎——Accio。這一創新產品面向全球商家開放,標志著阿里國際正式入局當前備受矚目的AI Search賽道。
    的頭像 發表于 11-15 16:53 ?1013次閱讀

    阿里國際推出B2B領域AI搜索引擎Accio

    近日,阿里國際宣布正式進軍AI搜索領域,并面向全球商家推出了首個B2B領域的AI搜索引擎——Accio。這一創新產品的推出,標志著阿里國際電子商務和人工智能技術結合方面邁出了重要一步。 Accio
    的頭像 發表于 11-14 11:47 ?726次閱讀

    OpenAI推出ChatGPT搜索功能

    查找網絡信息時,往往需要通過傳統的搜索引擎進行檢索,然后從中篩選出有價值的內容。而現在,有了ChatGPT搜索,用戶可以更加便捷地獲取所需信息。 OpenAI表示,ChatGPT搜索不僅能夠幫助用戶像在網絡上一樣
    的頭像 發表于 11-04 10:34 ?561次閱讀

    Meta開發新搜索引擎,減少對谷歌和必應的依賴

    近日,Meta正在積極進軍人工智能領域,并試圖跟上OpenAI的發展步伐。為實現這一目標,Meta正在開發一款全新的搜索引擎,該搜索引擎具備網絡爬蟲功能,能夠為用戶提供有關時事的對話答案,而這些答案
    的頭像 發表于 10-29 11:49 ?650次閱讀

    月訪問量超2億,增速113%!360AI搜索成為全球增速最快的AI搜索引擎

    與傳統搜索引擎不同,作為AI原生搜索引擎的360AI搜索基于公開網絡、知識庫、大模型三大支柱。借助首創的 CoE 技術架構,360AI搜索
    的頭像 發表于 09-09 13:44 ?725次閱讀
    月訪問量超2億,增速113%!360AI<b class='flag-5'>搜索</b>成為全球增速最快的AI<b class='flag-5'>搜索引擎</b>

    OpenAI推出SearchGPT原型,正式向Google搜索引擎發起挑戰

    人工智能領域的持續探索,OpenAI 邁出了重大一步,發布了其最新的 SearchGPT 原型,直接瞄準了 Google 的核心業務——搜索引擎。這一舉動不僅標志著 OpenAI 在技術上的又一次飛躍,也預示著
    的頭像 發表于 07-26 15:11 ?693次閱讀

    微軟計劃在搜索引擎Bing引入AI摘要功能

    近期,科技界傳來新動向,微軟緊隨百度與谷歌的步伐,宣布計劃在其搜索引擎Bing引入先進的AI摘要功能,旨在為用戶帶來更加智能、豐富的搜索體驗。
    的頭像 發表于 07-26 14:23 ?619次閱讀

    新火種AI|谷歌推出AI搜索引擎惹得出版商擔憂!新聞流量的至暗時刻要來了嗎?

    作者:小巖 編輯:彩云 在數字浪潮的推動下,AI技術正逐漸滲透到我們生活的方方面面。最近,谷歌宣布推出一款全新的AI搜索引擎,這在使我們見識到了科技巨頭所擁有的超能力和“鈔”能力的同時,也讓我們
    的頭像 發表于 05-17 09:40 ?474次閱讀
    新火種AI|谷歌推出AI<b class='flag-5'>搜索引擎</b>惹得出版商擔憂!新聞流量的至暗時刻要來了嗎?

    OpenAI否認將推出搜索產品或GPT-5

    此消息對致力于將ChatGPT嵌入必應搜索引擎的微軟或許有所積極影響。早期已有報導披露,該AI企業有意研發競品以抗衡谷歌搜索引擎。
    的頭像 發表于 05-13 15:14 ?490次閱讀

    OpenAI發布全新搜尋引擎,引領搜索體驗新高度

    據彭博社報道,OpenAI正在研發一款新型搜索引擎,利用生成式AI實現更人性的問答互動。據悉,此項產品將于不久后正式上線,用戶只需以自然語言提問,ChatGPT即可根據維基百科及博客文章等資源進行解答。
    的頭像 發表于 05-09 10:40 ?664次閱讀

    OpenAI注冊新域名,準備推出結合AI技術的搜索引擎挑戰谷歌

    OpenAI最近注冊了“search.chatgpt.com”域名,看起來是要推出一款新的搜索引擎
    的頭像 發表于 05-08 10:41 ?631次閱讀

    OpenAI或將推出ChatGPT搜索引擎

    據可靠消息透露,OpenAI正秘密研發一款以ChatGPT為基礎的大型產品,其核心功能將是一款新型搜索引擎,旨在為用戶提供更便捷的上網體驗。
    的頭像 發表于 05-08 10:19 ?622次閱讀

    新火種AI|挑戰谷歌,OpenAI要推出搜索引擎

    新的搜索引擎,幫助用書輕松上網。 OpenAI的這一動向引起了業界的廣泛關注。作為OpenAI開發的一款強大的AI大語言模型,ChatGPT已經自然語言處理的領域取得了顯著的成果,并給了人們全新的獲取信息的體驗。因此,自誕生以來,ChatGPT一直都被不少人視為能夠給予
    的頭像 發表于 05-07 22:06 ?472次閱讀
    新火種AI|挑戰谷歌,OpenAI要推出<b class='flag-5'>搜索引擎</b>?

    OpenAI或將在5月9日發布ChatGPT版搜索引擎

    OpenAI可能即將與谷歌展開正面競爭,推出基于ChatGPT的搜索引擎。根據Reddit網友的最新爆料,OpenAI有望5月9日公布其全新的搜索產品。據悉,與這一新產品相對應的搜索
    的頭像 發表于 05-07 09:28 ?776次閱讀

    NVIDIA推出兩款基于NVIDIA Ampere架構的全新臺式機GPU

    兩款 NVIDIA Ampere 架構 GPU 為工作站帶來實時光線追蹤功能和生成式 AI 工具支持。
    的頭像 發表于 04-26 11:25 ?868次閱讀
    主站蜘蛛池模板: 久久天天躁狠狠躁夜夜躁 | 亚洲国产成人精品青青草原100 | 女生张开腿让男人桶 | ts国产 | 99精品免费视频 | 欧美日韩国产乱了伦 | 欧美区在线| 三级欧美视频 | 国产午夜精品久久久久免费视 | 激情综合五月天丁香婷婷 | 啪啪网免费 | 黄a级免费 | 日日爽夜夜 | 高h污快穿文汁水四溅 | 国产a一级毛片午夜剧场14 | 天天躁夜夜躁狠狠躁2018a | 在线精品视频成人网 | 久久伊人成人 | 午夜在线观看福利 | 天天天综合 | 黄色一级片在线观看 | 国产综合色在线视频区色吧图片 | 美女色18片黄黄色 | 欧美ol丝袜高跟秘书在线播放 | 色啦啦影院 | 狠狠的干狠狠的操 | 性欧美极品另类 | 国产精品福利在线观看免费不卡 | 日本三区四区免费高清不卡 | 亚洲综合五月天婷 | 国产亚洲精品久久久极品美女 | 国外精品视频在线观看免费 | 日本xxxxxxxx69 | 激情婷婷丁香 | 亚洲理论片在线观看 | 一级特黄aa大片一又好看 | 色综合狠狠操 | 国产成人小视频 | 美人岛福利| 天堂成人一区二区三区 | 日本69sexmovies |