在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

寫給小白的ChatGPT和AI原理

jf_60870435 ? 來源:jf_60870435 ? 作者:jf_60870435 ? 2023-08-03 14:10 ? 次閱讀

前言
隨著ChatGPT等生成式AI的大火,很多開發(fā)者都對AI感興趣。筆者是一名應(yīng)用層的開發(fā)工程師,想必很多類似的開發(fā)者都對AI這塊不太了解,故而從自己的理解,寫一篇給小白的AI入門文章,希望可以幫助到大家。

這是GPT對本文的評價,所以請放心食用:

非常好的解析,非常透徹地闡述了人工智能領(lǐng)域的基本概念和ChatGPT的原理。在這個過程中,你提到了大語言模型和神經(jīng)網(wǎng)絡(luò)的概念,并且解釋了它們在ChatGPT中的應(yīng)用。此外,你還提到了其他重要的AI領(lǐng)域,如自然語言處理、計算機(jī)視覺、強(qiáng)化學(xué)習(xí)和自主駕駛等,使得讀者可以更加全面地了解人工智能領(lǐng)域的整體情況。

基本概念
先需要介紹下人工智能行業(yè)需要用到的基本概念:

神經(jīng)網(wǎng)絡(luò)(Neural Networks):一種模仿人類神經(jīng)系統(tǒng)的機(jī)器學(xué)習(xí)算法,用于識別圖像、語音、自然語言等任務(wù)。

自然語言處理(Natural Language Processing,NLP):計算機(jī)處理人類語言的技術(shù),包括語音識別、文本處理、機(jī)器翻譯等。

機(jī)器學(xué)習(xí)(Machine Learning):一種人工智能技術(shù),讓計算機(jī)根據(jù)數(shù)據(jù)集進(jìn)行學(xué)習(xí),以便在新數(shù)據(jù)上進(jìn)行預(yù)測或決策。

深度學(xué)習(xí)(Deep Learning):一種機(jī)器學(xué)習(xí)的分支,使用多層神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)和推斷,用于圖像識別、語音識別、自然語言處理等領(lǐng)域。

強(qiáng)化學(xué)習(xí)(Reinforcement Learning):一種機(jī)器學(xué)習(xí)技術(shù),讓計算機(jī)通過與環(huán)境互動來學(xué)習(xí)行為和決策,例如圍棋和 Atari 游戲。

大模型(LLM):大模型是指具有大量參數(shù)和復(fù)雜結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型,通常需要大量的計算資源和數(shù)據(jù)來訓(xùn)練和優(yōu)化。這些模型可以用于各種任務(wù),如自然語言處理、計算機(jī)視覺和語音識別等。一個例子是ChatGPT,它有1750億個參數(shù)。

計算機(jī)視覺(Computer Vision):一種人工智能技術(shù),讓計算機(jī)理解和解釋圖像和視頻內(nèi)容,例如人臉識別、目標(biāo)跟蹤、場景分割等。

數(shù)據(jù)挖掘(Data Mining):一種從大型數(shù)據(jù)集中自動發(fā)現(xiàn)模式和知識的技術(shù),用于商業(yè)、醫(yī)療和科學(xué)等領(lǐng)域。

人機(jī)交互(Human-Computer Interaction,HCI):研究人類和計算機(jī)之間的交互方式,設(shè)計更智能、更人性化的用戶界面和設(shè)計。

自主駕駛(Autonomous Driving):基于人工智能技術(shù)和傳感器自動駕駛汽車,能夠在沒有人類干預(yù)的情況下行駛和導(dǎo)航。

語音識別(Speech Recognition):一種機(jī)器學(xué)習(xí)技術(shù),讓計算機(jī)能夠識別和解釋人類語音,從而實(shí)現(xiàn)語音交互和控制。

從chatGPT剖析
我們從chatGPT的應(yīng)用層開始反過來剖析,可以會更加容易讀懂。

ChatGPT的原理
它所做的基本上只是反復(fù)詢問 “鑒于到目前為止的文本,下一個詞應(yīng)該是什么?” —— 而且每次都增加一個詞。每一步,它都會得到一個帶有概率的單詞列表,然后通過不同的隨機(jī)性進(jìn)行組裝。如果是更加專業(yè)的說法,則是使用長短時記憶網(wǎng)絡(luò)(LSTM)或變換器(Transformer)等深度學(xué)習(xí)模型,對上下文進(jìn)行建模,并預(yù)測下一個單詞或單詞序列的概率分布。

概率如何來
我們想象一個場景,以“貓是”為開頭,來拼接一個句子。這里展示一個n-gram(注意ChatGPT不是使用該算法)算法的JavaScript例子:

// 定義n-gram模型的參數(shù)
const n = 2; // n-gram的n值
const data = ['貓', '是', '小', '動', '物', '之', '一', '。', '狗', '也', '是', '小', '動', '物', '之', '一', '。', '喵', '喵', '是', '貓', '發(fā)', '出', '的', '聲', '音', '。', '汪', '汪', '是', '狗', '發(fā)', '出', '的', '聲', '音', '。']; // 語料庫

// 定義生成下一個單詞的函數(shù)
function generateNextWord(prefix, model) {
const candidates = model[prefix];
if (!candidates) {
return null;
}
const total = candidates.reduce((acc, cur) => acc + cur.count, 0);
let r = Math.random() * total;
for (let i = 0; i < candidates.length; i++) {
r -= candidates[i].count;
if (r <= 0) {
return candidates[i].word;
}
}
return null;
}

// 定義生成句子的函數(shù)
function generateSentence(prefix, model, maxLength) {
let sentence = prefix;
while (true) {
const next = generateNextWord(prefix, model);
if (!next || sentence.length >= maxLength) {
break;
}
sentence += next;
prefix = sentence.slice(-n);
}
return sentence;
}

// 訓(xùn)練n-gram模型
const model = {};
for (let i = 0; i < data.length - n; i++) {
const prefix = data.slice(i, i + n).join('');
const suffix = data[i + n];
if (!model[prefix]) {
model[prefix] = [];
}
const candidates = model[prefix];
const existing = candidates.find(candidate => candidate.word === suffix);
if (existing) {
existing.count++;
} else {
candidates.push({ word: suffix, count: 1 });
}
}

// 使用示例
const prefix = '貓是';
const maxLength = 10;
const sentence = generateSentence(prefix, model, maxLength);
console.log(sentence); // 輸出 "貓是小動物之一。"
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
這個例子里每次都是返回固定的結(jié)果,但是如果n-gram列表足夠長,就可以帶有一定的隨機(jī)性。所以這個時候就需要大語言模型來提供足夠的語料庫了

大語言模型
大語言模型(如GPT-3)可以被認(rèn)為是一種機(jī)器學(xué)習(xí)模型,基于深度學(xué)習(xí)技術(shù)的神經(jīng)網(wǎng)絡(luò)而來,因此可以將其視為神經(jīng)網(wǎng)絡(luò)模型的一種。具體來說,大語言模型是使用無監(jiān)督學(xué)習(xí)方法進(jìn)行訓(xùn)練的,它利用大量的文本數(shù)據(jù)集進(jìn)行學(xué)習(xí),從而在自然語言處理任務(wù)中表現(xiàn)出色。

機(jī)器學(xué)習(xí)模型一般分為以下幾類:

1、線性回歸模型:用于預(yù)測連續(xù)變量的值,例如房價的預(yù)測等。

2、邏輯回歸模型:用于分類問題,例如垃圾郵件分類等。

3、決策樹模型:用于分類和回歸問題,可以自動找出數(shù)據(jù)中的決策規(guī)則。

4、隨機(jī)森林模型:基于多個決策樹的集成學(xué)習(xí)模型,用于分類和回歸問題。

5、支持向量機(jī)模型:用于分類和回歸問題,在高維空間中尋找最優(yōu)超平面。

6、神經(jīng)網(wǎng)絡(luò)模型:用于圖像識別、自然語言處理、語音識別等復(fù)雜任務(wù)的處理。

7、聚類模型:用于將數(shù)據(jù)分為不同的類別,例如K均值聚類等。

8、強(qiáng)化學(xué)習(xí)模型:用于智能決策和控制問題,例如自主駕駛車輛的控制等。

那么大模型是什么來的呢?
大模型通常是在神經(jīng)網(wǎng)絡(luò)算法中訓(xùn)練而來的,因?yàn)樯窠?jīng)網(wǎng)絡(luò)算法可以很好地處理大量的參數(shù)和復(fù)雜的結(jié)構(gòu)。然而,神經(jīng)網(wǎng)絡(luò)算法在處理自然語言處理、計算機(jī)視覺和語音識別等任務(wù)時表現(xiàn)優(yōu)異,因此在這些領(lǐng)域中大模型通常是基于神經(jīng)網(wǎng)絡(luò)算法訓(xùn)練而來的。當(dāng)然,除了神經(jīng)網(wǎng)絡(luò)模型,還包括了一些其他的技術(shù),如自回歸模型、自編碼器模型等,這里就不重點(diǎn)介紹了。

什么又是神經(jīng)網(wǎng)絡(luò)?
開頭提到過:神經(jīng)網(wǎng)絡(luò)是一種模仿人類神經(jīng)系統(tǒng)的機(jī)器學(xué)習(xí)算法。

神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)可以類比于圖這種數(shù)據(jù)結(jié)構(gòu)。在神經(jīng)網(wǎng)絡(luò)中,每個節(jié)點(diǎn)(神經(jīng)元)可以看作是圖中的節(jié)點(diǎn),每條連接(權(quán)重)可以看作是圖中的邊,整個網(wǎng)絡(luò)可以看作是一個有向圖。

類比于圖結(jié)構(gòu),神經(jīng)網(wǎng)絡(luò)的優(yōu)化就是在調(diào)整連接權(quán)重的過程中,使得整個網(wǎng)絡(luò)可以更好地擬合訓(xùn)練數(shù)據(jù),從而提高模型的性能。同時,神經(jīng)網(wǎng)絡(luò)的預(yù)測過程可以看作是在圖中進(jìn)行信息傳遞的過程,從輸入層到輸出層的傳遞過程就相當(dāng)于在圖中進(jìn)行一次遍歷。

這里還是以JavaScript舉個例子:

// 定義神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
const inputSize = 3;
const hiddenSize = 4;
const outputSize = 2;

// 定義神經(jīng)網(wǎng)絡(luò)參數(shù)
const weights1 = [
[1, 2, 3, 4],
[5, 6, 7, 8],
[9, 10, 11, 12]
];
const bias1 = [1, 2, 3, 4];
const weights2 = [
[1, 2],
[3, 4],
[5, 6],
[7, 8]
];
const bias2 = [1, 2];

// 定義激活函數(shù)
function sigmoid(x) {
return 1 / (1 + Math.exp(-x));
}

// 定義前饋神經(jīng)網(wǎng)絡(luò)函數(shù)
function feedForward(input) {
// 計算第一層輸出
const hidden = [];
for (let i = 0; i < hiddenSize; i++) {
let sum = 0;
for (let j = 0; j < inputSize; j++) {
sum += input[j] * weights1[j][i];
}
hidden.push(sigmoid(sum + bias1[i]));
}

// 計算第二層輸出
const output = [];
for (let i = 0; i < outputSize; i++) {
let sum = 0;
for (let j = 0; j < hiddenSize; j++) {
sum += hidden[j] * weights2[j][i];
}
output.push(sigmoid(sum + bias2[i]));
}

return output;
}

// 使用示例
const input = [1, 2, 3];
const output = feedForward(input);
console.log(output); // 輸出 [0.939, 0.985]


神經(jīng)網(wǎng)絡(luò)的輸出結(jié)果可以被解釋為對不同類別的概率估計。在這個示例中,神經(jīng)網(wǎng)絡(luò)的輸出是一個包含兩個元素的向量,這兩個元素分別表示輸入屬于兩個類別的概率估計值。因此,這個前饋神經(jīng)網(wǎng)絡(luò)可以用來進(jìn)行二分類任務(wù)。

類似地,像ChatGPT這樣的語言生成模型也可以被解釋為對不同單詞或單詞序列的概率估計。在ChatGPT中,當(dāng)我們輸入一段文本時,模型會根據(jù)已有的文本上下文來預(yù)測下一個單詞或單詞序列的概率分布,并從中選擇概率最高的單詞或單詞序列作為輸出。因此,ChatGPT中的輸出結(jié)果也可以被解釋為對不同單詞或單詞序列的概率估計。

經(jīng)過這個流程,就可以理解ChatGPT是如何得出回答的文案的了。

ChatGPT怎么知道你問的什么?
前面提到了答案是如何一個詞一個詞生成的,那ChatGPT又是怎么知道你問的什么呢?ChatGPT 使用自然語言處理技術(shù)和深度學(xué)習(xí)算法對用戶的輸入進(jìn)行語義分析和意圖識別,以更好地理解用戶的意圖和需求。然后,ChatGPT 可以通過對話歷史和上下文信息等因素進(jìn)行分析,ChatGPT 根據(jù)預(yù)測的概率分布隨機(jī)選擇一個單詞作為下一個單詞,然后將該單詞加入到生成的回答中。

由于采用的是概率性的組裝單詞的方法,因此 ChatGPT 生成的回答可能會出現(xiàn)一些語法或語義上的錯誤。為了提高回答的質(zhì)量,可以采用一些技巧,如使用束搜索(Beam Search)方法、加入語言模型的懲罰項(xiàng)(如長度懲罰、重復(fù)懲罰等)等。這些技巧可以有效地減少生成回答中的錯誤,提高回答的質(zhì)量。

總結(jié)
以上就是生成式AI的基本工作原理,通過深度學(xué)習(xí)算法處理大量的文本數(shù)據(jù),從而學(xué)習(xí)語言的語法和語義規(guī)律,并能夠自動生成符合語法和語義的文本。在生成文本時,生成式AI會基于上下文信息生成一個語言模型,然后利用隨機(jī)采樣或貪心搜索方法生成文本序列。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4781

    瀏覽量

    101178
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31536

    瀏覽量

    270352
  • 人工智能
    +關(guān)注

    關(guān)注

    1796

    文章

    47683

    瀏覽量

    240311
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1570

    瀏覽量

    8067
收藏 人收藏

    評論

    相關(guān)推薦

    【國產(chǎn)FPGA+OMAPL138開發(fā)板體驗(yàn)】(原創(chuàng))6.FPGA連接ChatGPT 4

    訪問ChatGPT 4這樣的AI模型是非常復(fù)雜的,因?yàn)檫@涉及到大量的數(shù)據(jù)傳輸、協(xié)議實(shí)現(xiàn)、并行處理、優(yōu)化等等。更重要的是,ChatGPT 4這樣的模型通常是運(yùn)行在強(qiáng)大的服務(wù)器集群上。不過,我可以寫一個非常
    發(fā)表于 02-14 21:58

    在FPGA設(shè)計中是否可以應(yīng)用ChatGPT生成想要的程序呢

    當(dāng)下AI人工智能崛起,很多開發(fā)領(lǐng)域都可看到ChatGPT的身影,F(xiàn)PGA設(shè)計中,是否也可以用ChatGPT輔助設(shè)計呢?
    發(fā)表于 03-28 23:41

    寫給小白們的FPGA入門設(shè)計實(shí)驗(yàn)

    寫給小白們的FPGA入門設(shè)計實(shí)驗(yàn):  1. 寫在前面的話 2  2. Lab 1 : LCD1602 字符顯示設(shè)計3  2.1. 摘要  2.2. 內(nèi)容  2.3. 程序  2.4. 結(jié)果
    發(fā)表于 11-07 14:59

    寫給小白們的FPGA入門設(shè)計實(shí)驗(yàn)

    `寫給小白們的FPGA入門設(shè)計實(shí)驗(yàn)`
    發(fā)表于 03-18 16:21

    科技大廠競逐AIGC,中國的ChatGPT在哪?

    最近,AI(人工智能)圈一股以“ChatGPT”為核心的熱潮從美國“硅谷”涌入中國。 2022年11月底,初創(chuàng)公司OpenAI發(fā)布了名為ChatGPT的對話式聊天機(jī)器人模型,一經(jīng)推出,便在網(wǎng)絡(luò)上
    發(fā)表于 03-03 14:28

    ChatGPT系統(tǒng)開發(fā)AI人功智能方案

    ChatGPT是一個由OpenAI開發(fā)的人工智能語言模型,可以實(shí)現(xiàn)自然語言處理、對話生成等功能。要開發(fā)一個類似ChatGPT的人工智能系統(tǒng)軟件,可以遵循以下步驟:確定應(yīng)用場景:確定人工智能系統(tǒng)軟件要
    發(fā)表于 05-18 10:16

    AI 人工智能的未來在哪?

    人工智能、AI智能大模型已經(jīng)孵化;繁衍過程將突飛猛進(jìn),ChatGPT已經(jīng)上線。 世界首富馬斯克認(rèn)為AI對人類是一種威脅;谷歌前CEO施密特認(rèn)為AI和機(jī)器學(xué)習(xí)對人類有很大益處。 每個國家
    發(fā)表于 06-27 10:48

    寫給小白們的FPGA入門設(shè)計實(shí)驗(yàn)

    寫給小白們的FPGA入門設(shè)計實(shí)驗(yàn): 1. 寫在前面的話 2 2. Lab 1 : LCD1602 字符顯示設(shè)計 3 2.1. 摘要 2.2. 內(nèi)容 2.3. 程序 2.4. 結(jié)果(問題,解決,體會) 3. Lab 2 : 4 位減法、加法器設(shè)計 3.1. 摘要
    發(fā)表于 11-12 14:54 ?313次下載
    <b class='flag-5'>寫給</b><b class='flag-5'>小白</b>們的FPGA入門設(shè)計實(shí)驗(yàn)

    ChatGPTAI行業(yè)有何影響?

    我們不難發(fā)現(xiàn),AI已經(jīng)深入了我們的生活,最近火出圈的ChatGPT也是如此。ChatGPT正在加速AI時代的應(yīng)用升級。
    的頭像 發(fā)表于 02-13 16:07 ?3075次閱讀

    面對ChatGPT,中國AI可以不疾不徐不焦慮

    何必焦慮ChatGPT?中國AI自有一江風(fēng)月
    的頭像 發(fā)表于 04-03 21:12 ?614次閱讀

    ChatGPT風(fēng)口上,AI的機(jī)遇與泡沫同在

    然而,AI芯片大火是由ChatGPT帶動的。自ChatGPT爆火之后,全球科技企業(yè)都加入到AI大模型的研發(fā),各種類ChatGPT
    的頭像 發(fā)表于 06-05 15:11 ?804次閱讀

    ChatGPT原理 ChatGPT模型訓(xùn)練 chatgpt注冊流程相關(guān)簡介

    ChatGPT注冊沒有外國手機(jī)號驗(yàn)證怎么辦? ChatGPT作為近期火爆網(wǎng)絡(luò)的AI項(xiàng)目,受到了前所未有的關(guān)注。我們可以與AI機(jī)器人實(shí)時聊天,獲得問題的答案。但受
    的頭像 發(fā)表于 12-06 16:28 ?954次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b>模型訓(xùn)練 <b class='flag-5'>chatgpt</b>注冊流程相關(guān)簡介

    chatGPTai有什么區(qū)別 ChatGPT的發(fā)展過程

    ChatGPT 是一種特定類型的 AI 應(yīng)用,專注于通過自然語言與用戶進(jìn)行對話和問答。AI 則是一個更廣泛的概念,包括多種技術(shù)和方法,用于模擬人類智能和解決各種問題。
    的頭像 發(fā)表于 09-01 16:03 ?1.6w次閱讀

    寫給小白AI入門科普

    到底什么是AIAI,是artificialintelligence的縮寫。Artificial,很多同學(xué)認(rèn)字認(rèn)半邊,會以為是藝術(shù)(art)的什么形容詞。其實(shí)不然,artificial的意思就是
    的頭像 發(fā)表于 08-08 08:28 ?549次閱讀
    <b class='flag-5'>寫給</b><b class='flag-5'>小白</b>的<b class='flag-5'>AI</b>入門科普
    主站蜘蛛池模板: 日本色免费 | 久久精品国产免费 | 日本三级成人午夜视频网 | 亚欧美视频 | 亚洲一级影院 | 亚洲精品在线视频 | 九色在线看 | 欧美三级一区二区三区 | 夜夜爽天天操 | 丁香花在线视频观看免费 | 亚洲一区二区中文字5566 | 91免费网站在线看入口黄 | 日韩毛片在线视频 | 免费啪视频观在线视频在线 | 午夜视频在线观看免费视频 | 小优视频在线 | 天天视频免费观看高清影视 | 激情六月天婷婷 | 毛片视频网址 | 美女把尿口扒开让男人桶出水 | 免费观看午夜在线欧差毛片 | 伊人网站在线 | 男女交性永久免费视频播放 | 午夜看黄 | 成人免费看片视频色多多 | 天堂网www在线资源链接 | 两性色午夜视频免费国产 | 天堂最新版中文网 | 日韩精品一卡二卡三卡四卡2021 | 日本xxxxxx69| 欧美亚洲视频一区 | 天天激情 | 国产精品爱啪在线线免费观看 | 亚洲国产高清人在线 | 天堂8资源8在线 | 巨尻在线观看 | 日本www免费| 久操色 | 天天操天天插 | 国产精品女仆装在线播放 | 播放欧亚一级特黄录像 |