91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

時(shí)間序列的基礎(chǔ)模型像自然語(yǔ)言處理那樣存在嗎

科技綠洲 ? 來(lái)源:Python數(shù)據(jù)科學(xué) ? 作者:Python數(shù)據(jù)科學(xué) ? 2023-11-03 10:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

時(shí)間序列預(yù)測(cè)領(lǐng)域在最近的幾年有著快速的發(fā)展,比如N-BEATS、N-HiTS、PatchTST和TimesNet。

大型語(yǔ)言模型(LLM)最近在ChatGPT等應(yīng)用程序中變得非常流行,因?yàn)樗鼈兛梢赃m應(yīng)各種各樣的任務(wù),而無(wú)需進(jìn)一步的訓(xùn)練。

這就引出了一個(gè)問(wèn)題: 時(shí)間序列的基礎(chǔ)模型能像自然語(yǔ)言處理那樣存在嗎? 一個(gè)預(yù)先訓(xùn)練了大量時(shí)間序列數(shù)據(jù)的大型模型,是否有可能在未見(jiàn)過(guò)的數(shù)據(jù)上產(chǎn)生準(zhǔn)確的預(yù)測(cè)?

通過(guò)Azul Garza和Max Mergenthaler-Canseco提出的 TimeGPT-1 ,作者將llm背后的技術(shù)和架構(gòu)應(yīng)用于預(yù)測(cè)領(lǐng)域,成功構(gòu)建了第一個(gè)能夠進(jìn)行零樣本推理的時(shí)間序列基礎(chǔ)模型。

在本文中,我們將探索TimeGPT背后的體系結(jié)構(gòu)以及如何訓(xùn)練模型。然后,我們將其應(yīng)用于預(yù)測(cè)項(xiàng)目中,以評(píng)估其與其他最先進(jìn)的方法(如N-BEATS, N-HiTS和PatchTST)的性能。

TimeGPT

TimeGPT是為時(shí)間序列預(yù)測(cè)創(chuàng)建基礎(chǔ)模型的第一次嘗試。

圖片

從上圖中,我們可以看到TimeGPT背后的一般思想是在來(lái)自不同領(lǐng)域的大量數(shù)據(jù)上訓(xùn)練模型,然后對(duì)未見(jiàn)過(guò)的數(shù)據(jù)產(chǎn)生零樣本的推斷。

這種方法依賴(lài)于遷移學(xué)習(xí),遷移學(xué)習(xí)是指模型利用在訓(xùn)練過(guò)程中獲得的知識(shí)解決新任務(wù)的能力。這種方式只有當(dāng)模型足夠大,并且在大量數(shù)據(jù)上進(jìn)行訓(xùn)練時(shí)才有效。

為此,作者對(duì)TimeGPT進(jìn)行了超過(guò)1000億個(gè)數(shù)據(jù)點(diǎn)的訓(xùn)練,這些數(shù)據(jù)點(diǎn)都來(lái)自開(kāi)源的時(shí)間序列數(shù)據(jù)。該數(shù)據(jù)集涵蓋了廣泛的領(lǐng)域,從金融、經(jīng)濟(jì)和天氣,到網(wǎng)絡(luò)流量、能源和銷(xiāo)售。

但是這里作者沒(méi)有披露用于管理1000億個(gè)數(shù)據(jù)點(diǎn)的公共數(shù)據(jù)的來(lái)源。

這種多樣性對(duì)于基礎(chǔ)模型的成功至關(guān)重要,因?yàn)樗梢詫W(xué)習(xí)不同的時(shí)間模式,因此可以更好地進(jìn)行泛化。

例如,我們可以預(yù)期天氣數(shù)據(jù)具有日季節(jié)性(白天比晚上熱)和年季節(jié)性,而汽車(chē)交通數(shù)據(jù)可以具有日季節(jié)性(白天路上的汽車(chē)比晚上多)和周季節(jié)性(一周內(nèi)路上的汽車(chē)比周末多)。

為了保證模型的魯棒性和泛化能力,預(yù)處理被保持在最低限度。事實(shí)上只有缺失的值被填充,其余的保持原始形式。雖然作者沒(méi)有具體說(shuō)明數(shù)據(jù)輸入的方法,但我懷疑使用了某種插值技術(shù),如線性、樣條或移動(dòng)平均插值。

然后作者對(duì)模型進(jìn)行多天的訓(xùn)練,在此期間對(duì)超參數(shù)和學(xué)習(xí)率進(jìn)行優(yōu)化。雖然作者沒(méi)有透露訓(xùn)練需要多少天和gpu資源,但我們確實(shí)知道該模型是在PyTorch中實(shí)現(xiàn)的,并且它使用Adam優(yōu)化器和學(xué)習(xí)率衰減策略。

TimeGPT利用Transformer架構(gòu)。

圖片

從上圖中,我們可以看到TimeGPT使用了完整的編碼器-解碼器Transformer架構(gòu)。

輸入可以包括歷史數(shù)據(jù)窗口,也可以包括外生數(shù)據(jù)窗口,如準(zhǔn)時(shí)事件或其他系列。

輸入被饋送到模型的編碼器部分。然后編碼器內(nèi)部的注意力機(jī)制從輸入中學(xué)習(xí)不同的屬性。然后將其輸入解碼器,解碼器使用學(xué)習(xí)到的信息進(jìn)行預(yù)測(cè)。預(yù)測(cè)序列在達(dá)到用戶設(shè)置的預(yù)測(cè)范圍長(zhǎng)度時(shí)結(jié)束。

值得注意的是,作者已經(jīng)在TimeGPT中實(shí)現(xiàn)了適形預(yù)測(cè),允許模型根據(jù)歷史誤差估計(jì)預(yù)測(cè)間隔。

考慮到TimeGPT是為時(shí)間序列構(gòu)建基礎(chǔ)模型的第一次嘗試,它具有一系列廣泛的功能。

TimeGPT的功能總結(jié):

首先 ,TimeGPT是一個(gè)預(yù)先訓(xùn)練的模型,這意味著可以生成預(yù)測(cè),而不需要對(duì)數(shù)據(jù)進(jìn)行特定的訓(xùn)練。盡管如此,還是可以根據(jù)我們的數(shù)據(jù)對(duì)模型進(jìn)行微調(diào)。

其次 ,該模型支持外生變量來(lái)預(yù)測(cè)我們的目標(biāo),也就是說(shuō)可以處理多變量預(yù)測(cè)任務(wù)。

最后 ,使用保形預(yù)測(cè),TimeGPT可以估計(jì)預(yù)測(cè)區(qū)間。這反過(guò)來(lái)又允許模型執(zhí)行異常檢測(cè)。如果一個(gè)數(shù)據(jù)點(diǎn)落在99%的置信區(qū)間之外,那么模型將其標(biāo)記為異常。

所有這些任務(wù)都可以通過(guò)零樣本推理或一些微調(diào)來(lái)實(shí)現(xiàn),這是時(shí)間序列預(yù)測(cè)領(lǐng)域范式的根本轉(zhuǎn)變。

現(xiàn)在我們對(duì)TimeGPT有了更扎實(shí)的了解,了解了它是如何工作的,以及它是如何訓(xùn)練的,讓我們來(lái)看看實(shí)際的模型。

TimeGPT進(jìn)行預(yù)測(cè)

現(xiàn)在讓我們將TimeGPT應(yīng)用于預(yù)測(cè)任務(wù),并將其性能與其他模型進(jìn)行比較。

在撰寫(xiě)本文時(shí),TimeGPT只能通過(guò)API訪問(wèn),并且還處于封閉測(cè)試階段。我提交申請(qǐng),并獲得了免費(fèi)使用該模型兩周的授權(quán)。

如前所述,該模型是在來(lái)自公開(kāi)可用數(shù)據(jù)的1000億個(gè)數(shù)據(jù)點(diǎn)上進(jìn)行訓(xùn)練的。由于作者沒(méi)有指定使用的實(shí)際數(shù)據(jù)集,我認(rèn)為在已知的基準(zhǔn)數(shù)據(jù)集(如ETT或weather)上測(cè)試模型是不合理的,因?yàn)槟P涂赡茉谟?xùn)練期間看到了這些數(shù)據(jù)。

因此,我使用了自己的數(shù)據(jù)集,數(shù)據(jù)集現(xiàn)在在GitHub上公開(kāi)可用,最重要的是TimeGPT沒(méi)有在這些數(shù)據(jù)上進(jìn)行訓(xùn)練。

導(dǎo)入庫(kù)并讀取數(shù)據(jù)

import pandas as pd
import numpy as np
import datetime
import matplotlib.pyplot as plt

from neuralforecast.core import NeuralForecast
from neuralforecast.models import NHITS, NBEATS, PatchTST

from neuralforecast.losses.numpy import mae, mse

from nixtlats import TimeGPT

%matplotlib inline

然后,為了訪問(wèn)TimeGPT模型從文件中讀取API密鑰。

with open("data/timegpt_api_key.txt", 'r') as file:
API_KEY = file.read()

然后讀取數(shù)據(jù)。

 df = pd.read_csv('data/medium_views_published_holidays.csv')
df['ds'] = pd.to_datetime(df['ds'])

df.head()

圖片

從上圖中,我們可以看到數(shù)據(jù)集的格式與我們使用Nixtla的其他開(kāi)源庫(kù)時(shí)的格式相同。

我們有一個(gè)unique_id列來(lái)標(biāo)記不同的時(shí)間序列,但在本例中,我們只有一個(gè)序列。

y列表示我的博客每天的瀏覽量,published是一個(gè)簡(jiǎn)單的標(biāo)志,用來(lái)標(biāo)記某一天有新文章發(fā)布(1)或沒(méi)有文章發(fā)布(0)。一般來(lái)說(shuō)當(dāng)新內(nèi)容發(fā)布時(shí),瀏覽量通常會(huì)增加一段時(shí)間。

最后,列is_holiday表示美國(guó)是否有假日。在假期很少有人會(huì)訪問(wèn)。

現(xiàn)在讓我們把我們的數(shù)據(jù)可視化。

published_dates = df[df['published'] == 1]

fig, ax = plt.subplots(figsize=(12,8))

ax.plot(df['ds'], df['y'])
ax.scatter(published_dates['ds'], published_dates['y'], marker='o', color='red', label='New article')
ax.set_xlabel('Day')
ax.set_ylabel('Total views')
ax.legend(loc='best')

fig.autofmt_xdate()


plt.tight_layout()

圖片

從上圖中,我們可以看到一些有趣的行為。首先,紅點(diǎn)表示新發(fā)表的文章,并且?guī)缀蹙o隨其后的是訪問(wèn)高峰。

我們還注意到2021年的活動(dòng)減少,這反映在日瀏覽量減少上。最后在2023年,我們注意到一篇文章發(fā)表后,訪問(wèn)量出現(xiàn)了一些異常高峰。

放大數(shù)據(jù),我們還發(fā)現(xiàn)了明顯的每周季節(jié)性。

圖片

從上圖中,可以看到周末訪問(wèn)的訪客比平時(shí)少。

考慮到所有這些,讓我們看看如何使用TimeGPT進(jìn)行預(yù)測(cè)。

首先,將數(shù)據(jù)集分成訓(xùn)練集和測(cè)試集。在這里為測(cè)試集保留168個(gè)時(shí)間步長(zhǎng),這對(duì)應(yīng)于24周的每日數(shù)據(jù)。

train = df[:-168]
test = df[-168:]

然后使用7天的預(yù)測(cè)范圍,因?yàn)槲覍?duì)預(yù)測(cè)整個(gè)星期的每日視圖感興趣。

該API沒(méi)有附帶驗(yàn)證的實(shí)現(xiàn)。因此我們創(chuàng)建自己的循環(huán),一次生成七個(gè)預(yù)測(cè),直到我們對(duì)整個(gè)測(cè)試集進(jìn)行預(yù)測(cè)。

future_exog = test[['unique_id', 'ds', 'published', 'is_holiday']]

timegpt = TimeGPT(token=API_KEY)

timegpt_preds = []

for i in range(0, 162, 7):

timegpt_preds_df = timegpt.forecast(
df=df.iloc[:1213+i],
X_df = future_exog[i:i+7],
h=7,
finetune_steps=10,
id_col='unique_id',
time_col='ds',
target_col='y'
)

preds = timegpt_preds_df['TimeGPT']

timegpt_preds.extend(preds)

在上面的代碼塊中必須傳遞外生變量的未來(lái)值,因?yàn)樗鼈兪庆o態(tài)變量,我們知道未來(lái)假期的日期,

這里我們還使用finetune_steps參數(shù)對(duì)TimeGPT進(jìn)行了微調(diào)。

一旦循環(huán)完成就可以將預(yù)測(cè)結(jié)果添加到測(cè)試集中。TimeGPT一次生成7個(gè)預(yù)測(cè),直到獲得168個(gè)預(yù)測(cè),因此我們可以評(píng)估它預(yù)測(cè)下周每日瀏覽量的能力。

test['TimeGPT'] = timegpt_preds

test.head()

圖片

與N-BEATS, N-HiTS和PatchTST對(duì)比

現(xiàn)在我們用其他方法來(lái)進(jìn)行對(duì)比,這里使用了N-BEATS, N-HiTS和PatchTST。

horizon = 7

models = [NHITS(h=horizon,
input_size=5*horizon,
max_steps=50),
NBEATS(h=horizon,
input_size=5*horizon,
max_steps=50),
PatchTST(h=horizon,
input_size=5*horizon,
max_steps=50)]

然后,我們初始化NeuralForecast對(duì)象并指定數(shù)據(jù)的頻率,在本例中是每天。

nf = NeuralForecast(models=models, freq='D')

在7個(gè)時(shí)間步驟的24個(gè)窗口上運(yùn)行執(zhí)行驗(yàn)證,以獲得與用于TimeGPT的測(cè)試集一致的預(yù)測(cè)。

preds_df = nf.cross_validation(
df=df,
static_df=future_exog ,
step_size=7,
n_windows=24
)

然后合并結(jié)果,這樣就得到了一個(gè)包含所有模型預(yù)測(cè)的單一DataFrame。

preds_df['TimeGPT'] = test['TimeGPT']

圖片

下面開(kāi)始評(píng)估每個(gè)模型的性能。在度量性能指標(biāo)之前,可視化一下測(cè)試集中每個(gè)模型的預(yù)測(cè)。

圖片

每個(gè)模型之間有很多重疊。我們確實(shí)注意到N-HiTS預(yù)測(cè)的兩個(gè)峰值在現(xiàn)實(shí)中沒(méi)有實(shí)現(xiàn)。此外PatchTST似乎經(jīng)常預(yù)測(cè)不足。但是TimeGPT似乎通常與實(shí)際數(shù)據(jù)重疊得很好。

但是評(píng)估每個(gè)模型性能的唯一方法是度量性能指標(biāo)。在這里使用平均絕對(duì)誤差(MAE)和均方誤差(MSE)。另外我們做的一個(gè)動(dòng)作是將預(yù)測(cè)四舍五入為整數(shù),因?yàn)樾?shù)在每日訪問(wèn)量上下文中是沒(méi)有意義的。

preds_df = preds_df.round({
'NHITS': 0,
'NBEATS': 0,
'PatchTST': 0,
'TimeGPT': 0
})

data = {'N-HiTS': [mae(preds_df['NHITS'], preds_df['y']), mse(preds_df['NHITS'], preds_df['y'])],
'N-BEATS': [mae(preds_df['NBEATS'], preds_df['y']), mse(preds_df['NBEATS'], preds_df['y'])],
'PatchTST': [mae(preds_df['PatchTST'], preds_df['y']), mse(preds_df['PatchTST'], preds_df['y'])],
'TimeGPT': [mae(preds_df['TimeGPT'], preds_df['y']), mse(preds_df['TimeGPT'], preds_df['y'])]}

metrics_df = pd.DataFrame(data=data)
metrics_df.index = ['mae', 'mse']

metrics_df.style.highlight_min(color='lightgreen', axis=1)

圖片

從上圖中可以看到TimeGPT是表現(xiàn)最好,它實(shí)現(xiàn)了最低的MAE和MSE,其次是N-BEATS, PatchTST和N-HiTS。

這是一個(gè)令人興奮的結(jié)果,因?yàn)門(mén)imeGPT從未見(jiàn)過(guò)這個(gè)數(shù)據(jù)集,并且只進(jìn)行了幾個(gè)步驟的微調(diào)。雖然這不是一個(gè)詳盡的實(shí)驗(yàn),但我相信它確實(shí)展示了潛在的基礎(chǔ)模型在預(yù)測(cè)領(lǐng)域的潛力。

對(duì)TimeGPT的看法

TimeGPT是時(shí)間序列預(yù)測(cè)的第一個(gè)基礎(chǔ)模型。它利用了Transformer架構(gòu),并在1000億個(gè)數(shù)據(jù)點(diǎn)上進(jìn)行了預(yù)訓(xùn)練,以便對(duì)新的未見(jiàn)過(guò)的數(shù)據(jù)進(jìn)行零樣本推斷。該模型結(jié)合保形預(yù)測(cè)技術(shù),無(wú)需特定數(shù)據(jù)集的訓(xùn)練即可生成預(yù)測(cè)區(qū)間并進(jìn)行異常檢測(cè)。

雖然TimeGPT的簡(jiǎn)短實(shí)驗(yàn)證明是令人興奮的,但原始論文在許多重要概念仍然含糊不清。

比如我們不知道使用了哪些數(shù)據(jù)集來(lái)訓(xùn)練和測(cè)試模型,因此我們無(wú)法真正驗(yàn)證TimeGPT的性能結(jié)果,如下所示。

圖片

從上表中可以看到TimeGPT在每月和每周頻率上表現(xiàn)最好,N-HiTS和TFT通常排名第二或第三。因?yàn)槲覀儾恢朗褂昧耸裁磾?shù)據(jù),所以我們無(wú)法驗(yàn)證這些指標(biāo)。

雖然TimeGPT看起來(lái)很好,但是它還是有2個(gè)問(wèn)題要面對(duì):

1、 當(dāng)涉及到如何訓(xùn)練模型以及如何調(diào)整模型來(lái)處理時(shí)間序列數(shù)據(jù)時(shí)缺乏透明度,可以認(rèn)為是沒(méi)有任何的可解釋性。

2、 這個(gè)模型是用于商業(yè)用途的,這也就是為什么論文缺少細(xì)節(jié),無(wú)法讓人通過(guò)論文來(lái)復(fù)制TimeGPT。當(dāng)然這并沒(méi)有錯(cuò),因?yàn)楫吘故且嶅X(qián)的。但這就導(dǎo)致論文缺乏可重復(fù)性,沒(méi)人或再去研究和改進(jìn)他。

雖然是這樣,但是我還是覺(jué)得這能激發(fā)時(shí)間序列基礎(chǔ)模型的新工作和研究,并且我們最終能看到這些模型的開(kāi)源版本,就像我們?cè)贚LM中看到的那樣。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91869
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50424
  • 應(yīng)用程序
    +關(guān)注

    關(guān)注

    38

    文章

    3337

    瀏覽量

    59038
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14157
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    python自然語(yǔ)言

    最近,python自然語(yǔ)言是越來(lái)越火了,那么什么是自然語(yǔ)言自然語(yǔ)言(Natural Language )廣納了眾多技術(shù),對(duì)自然或人類(lèi)語(yǔ)言進(jìn)
    發(fā)表于 05-02 13:50

    自然語(yǔ)言處理技術(shù)介紹

    自然語(yǔ)言處理技術(shù)里有不少可以建模為序列標(biāo)注問(wèn)題(也包括其它問(wèn)題,如實(shí)體關(guān)系抽取可以看做是分類(lèi)問(wèn)題),因此HMM、CRF之類(lèi)算法的應(yīng)用占有較高的比例。掌握相關(guān)算法有助于自己加工語(yǔ)料及訓(xùn)練模型
    發(fā)表于 09-27 09:57

    自然語(yǔ)言處理怎么最快入門(mén)?

    `本文整理自知乎上的一個(gè)問(wèn)答,分享給正在學(xué)習(xí)自然語(yǔ)言處理的朋友們!一、自然語(yǔ)言處理是什么?自然語(yǔ)言
    發(fā)表于 11-28 10:02

    【推薦體驗(yàn)】騰訊云自然語(yǔ)言處理

    `相信大家對(duì)NLP自然語(yǔ)言處理的技術(shù)都不陌生,它是計(jì)算機(jī)科學(xué)領(lǐng)域和AI領(lǐng)域中的一個(gè)分支,它與計(jì)算機(jī)和人類(lèi)之間使用自然語(yǔ)言進(jìn)行交互密切相關(guān),而NLP的最終目標(biāo)是使計(jì)算機(jī)能夠人類(lèi)一樣理解
    發(fā)表于 10-09 15:28

    關(guān)于自然語(yǔ)言處理之54 語(yǔ)言模型(自適應(yīng))

    自然語(yǔ)言處理——54 語(yǔ)言模型(自適應(yīng))
    發(fā)表于 04-09 08:20

    自然語(yǔ)言處理語(yǔ)言模型

    自然語(yǔ)言處理——53 語(yǔ)言模型(數(shù)據(jù)平滑)
    發(fā)表于 04-16 11:11

    自然語(yǔ)言處理——總結(jié)、習(xí)題

    自然語(yǔ)言處理——79 總結(jié)、習(xí)題
    發(fā)表于 06-19 11:22

    什么是自然語(yǔ)言處理

    什么是自然語(yǔ)言處理自然語(yǔ)言處理任務(wù)有哪些?自然語(yǔ)言處理的方法是什么?
    發(fā)表于 09-08 06:51

    自然語(yǔ)言處理常用模型解析

    自然語(yǔ)言處理常用模型使用方法一、N元模型二、馬爾可夫模型以及隱馬爾可夫模型及目前常用的
    發(fā)表于 12-28 15:42 ?6244次閱讀
    <b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>常用<b class='flag-5'>模型</b>解析

    自然語(yǔ)言處理怎么最快入門(mén)_自然語(yǔ)言處理知識(shí)了解

    自然語(yǔ)言處理就是實(shí)現(xiàn)人機(jī)間自然語(yǔ)言通信,實(shí)現(xiàn)自然語(yǔ)言理解和自然語(yǔ)言生成是十分困難的,造成困難的根本原因是
    發(fā)表于 12-28 17:10 ?5415次閱讀

    自然語(yǔ)言處理的優(yōu)點(diǎn)有哪些_自然語(yǔ)言處理的5大優(yōu)勢(shì)

    自然語(yǔ)言處理領(lǐng)域,深度學(xué)習(xí)的承諾是:給新模型帶來(lái)更好的性能,這些新模型可能需要更多數(shù)據(jù),但不再需要那么多的語(yǔ)言學(xué)專(zhuān)業(yè)知識(shí)。
    發(fā)表于 12-29 13:52 ?2.9w次閱讀

    基于深度學(xué)習(xí)的自然語(yǔ)言處理對(duì)抗樣本模型

    深度學(xué)習(xí)模型被證明存在脆弱性并容易遭到對(duì)抗樣本的攻擊,但目前對(duì)于對(duì)抗樣本的研究主要集中在計(jì)算機(jī)視覺(jué)領(lǐng)域而忽略了自然語(yǔ)言處理模型的安全問(wèn)題。針
    發(fā)表于 04-20 14:36 ?39次下載
    基于深度學(xué)習(xí)的<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>對(duì)抗樣本<b class='flag-5'>模型</b>

    自然語(yǔ)言處理的概念和應(yīng)用 自然語(yǔ)言處理屬于人工智能嗎

      自然語(yǔ)言處理(Natural Language Processing)是一種人工智能技術(shù),它是研究自然語(yǔ)言與計(jì)算機(jī)之間的交互和通信的一門(mén)學(xué)科。自然語(yǔ)言
    發(fā)表于 08-23 17:31 ?2198次閱讀

    圖像識(shí)別技術(shù)包括自然語(yǔ)言處理

    圖像識(shí)別技術(shù)與自然語(yǔ)言處理是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)诤芏喾矫嬗兄芮械穆?lián)系,但也存在一些區(qū)別。 一、圖像識(shí)別技術(shù)與自然語(yǔ)言處理的關(guān)
    的頭像 發(fā)表于 07-16 10:54 ?1570次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    Learning,簡(jiǎn)稱(chēng)ML)是人工智能的一個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語(yǔ)言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供了一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識(shí),從而提高NLP系統(tǒng)的性能。
    的頭像 發(fā)表于 12-05 15:21 ?1986次閱讀
    主站蜘蛛池模板: 亚洲小younv另类 | 国产在线精品香蕉综合网一区 | 伊人色综合久久天天爱 | 天天看片国产 | 狠狠色丁香婷婷综合激情 | 国产三级在线观看 | 一级无毛片 | 色综合久久综合欧美综合网 | 亚洲午夜网未来影院 | 夜夜爽网站 | 国产精品久久久香蕉 | 男人视频网 | 国产小视频在线观看www | 视频网站黄 | 亚洲人成人| 国产片一级aaa毛片视频 | 色网站视频 | 亚洲性人人天天夜夜摸 | 日韩成人免费一级毛片 | 亚洲成人高清在线 | 综合激情五月婷婷 | 免费看日本黄色片 | 五月激情啪啪 | 亚洲综合视频一区 | 午夜免费伦费影视在线观看 | 天天操天天射天天舔 | 欧美一级别 | 一级精品视频 | 亚洲国产精品综合久久久 | 天天插天天干天天射 | 在线女同免费观看网站 | 97射射| 天堂网www在线资源中文 | 国产三级毛片视频 | 欧美精品色精品一区二区三区 | ssswww日本免费网站片 | 酒色网址 | 色综合久久久久综合99 | 婷色 | 黄色的视频在线免费观看 | 日本最新免费网站 |