91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大語言模型,救不了“網(wǎng)絡(luò)暴民”

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-07-12 09:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

語言可以殺人——網(wǎng)絡(luò)時代,相信沒人會否認(rèn)這一點。

語言攻擊,是最具代表性的網(wǎng)絡(luò)暴力之一。謾罵剛失去兒子的母親,詆毀女孩的粉色頭發(fā),嘲笑男性的氣質(zhì)“太娘”,炮制莫須有的黃色謠言……無數(shù)侮辱性的語言,在網(wǎng)絡(luò)間橫行無阻,給他人帶來了無窮無盡的精神傷害。

語言暴力,已經(jīng)成為網(wǎng)絡(luò)治理的全球性難題。

各種方案被使出,但都無法有效阻止“網(wǎng)絡(luò)暴民”的增加和語言暴力的橫行。其中,技術(shù)層面的解決思路,就是利用AI算法來自動檢測有毒語言,按照攻擊性來設(shè)定毒性評分,并對高毒性語言進(jìn)行預(yù)防處理,比如屏蔽、心理干預(yù)等。

但由于語言的模糊性,此前的機(jī)器學(xué)習(xí)算法魯棒性不強(qiáng),很容易做出錯誤判斷,導(dǎo)致識別和干預(yù)的結(jié)果并不理想,仍然需要大量人工審核員。不僅處理效率低下,而且長期閱讀有毒語言也會傷害人類審核員的心理健康。

ChatGPT這類大語言模型,憑借強(qiáng)大的魯棒性和泛化能力,展現(xiàn)出了前所未有的語言理解力。

按理說,本著“技術(shù)向善”的宗旨,大語言模型應(yīng)該被用來更有效、高效地預(yù)防網(wǎng)絡(luò)暴力,但為什么迄今為止,我們?nèi)匀粵]有見到相關(guān)應(yīng)用?反倒是利用大語言模型生成更多有害內(nèi)容的“技術(shù)作惡”大行其道。

大語言模型,也救不了“網(wǎng)絡(luò)暴民”,難道我們注定只能在有毒網(wǎng)絡(luò)環(huán)境下“數(shù)字化生存”嗎?

大語言模型,內(nèi)容檢測技術(shù)的一大步

預(yù)防,是治理網(wǎng)絡(luò)暴力最重要的環(huán)節(jié)。利用AI內(nèi)容檢測來預(yù)防網(wǎng)絡(luò)暴力,相關(guān)研究已經(jīng)有數(shù)年歷史了。

2015年就有人提出,個體的情緒狀態(tài)就與有害意圖之間存在顯著關(guān)聯(lián),使用機(jī)器學(xué)習(xí)來檢測社交媒體中的有害行為,被認(rèn)為是網(wǎng)絡(luò)暴力檢測的良好指標(biāo)。

也就是說,一個人在生活遭遇了劇變、坎坷或感到低落、郁悶等情緒狀態(tài)不佳時,就容易在網(wǎng)絡(luò)上發(fā)出仇恨、攻擊、詆毀等冒犯性語言。

2017年,谷歌的Jigsaw創(chuàng)建了Conversation AI,檢測在線有毒評論。許多科技巨頭,多年來一直在將算法納入其內(nèi)容審核中,都有一套對網(wǎng)絡(luò)信息內(nèi)容進(jìn)行識別和過濾的手段。比如國內(nèi)某短視頻平臺,就研發(fā)了100多個智能識別模型,來提前攔截辱罵內(nèi)容,但該平臺依然是網(wǎng)暴的“重災(zāi)區(qū)”。某問答平臺,會對評論內(nèi)容進(jìn)行識別,對有風(fēng)險的內(nèi)容進(jìn)行提醒,直到用戶修改才允許發(fā)出。

wKgaomStc8SAE36sAAHibGVrI4c809.jpg

但顯而易見,這些AI檢測算法也并沒有根除網(wǎng)暴,網(wǎng)友對平臺治理網(wǎng)暴的批評仍是“不作為”“沒效果”。原因之一,是傳統(tǒng)的機(jī)器學(xué)習(xí)算法,不能滿足網(wǎng)絡(luò)內(nèi)容的審查需求:

1.理解力不夠。有害語言非常難以區(qū)分,而AI算法的語義理解能力不夠強(qiáng),經(jīng)常會將有害評論和無害評論給出相同的分?jǐn)?shù),沒有真正過濾掉那些不尊重的評論,或者給中性句子更低的分?jǐn)?shù),過濾了不該過濾的正常評論,阻礙了博主和粉絲的交流。

wKgZomStc8SAInMeAAB1qmxA088787.jpg

2.靈活性不夠。某些網(wǎng)站可能要求檢測攻擊語言,但不需要檢測謠言,而其他網(wǎng)站的要求可能恰好相反。傳統(tǒng)的AI檢測工具往往使用一個通用的“毒性評分”,不夠靈活,無法滿足不同平臺的不同需求。

3.更新速度不夠。很多檢測算法是使用API來工作的,而這些模型通過大量網(wǎng)絡(luò)數(shù)據(jù)進(jìn)行訓(xùn)練,在與訓(xùn)練數(shù)據(jù)相似的示例上表現(xiàn)良好,一旦遇到不熟悉的有毒語言,比如涉及飯圈的討論會有很多黑話、yyds之類的拼音簡寫,以及不斷新造的詞語,很可能就會失敗。某社交媒體平臺,一開始設(shè)置了一百多個禁發(fā)關(guān)鍵詞,比如一些臟話、“綠茶婊”“怎么不去死”等,如今已經(jīng)增加到了700多個。所以,AI模型缺乏高效實時的人類反饋,無法快速微調(diào)并迭代模型,從而導(dǎo)致自動化檢測的效果不佳。

我們知道,大語言模型具備智能涌現(xiàn)、預(yù)訓(xùn)練、人類反饋的強(qiáng)化學(xué)習(xí)等特點,這就對傳統(tǒng)方法帶來了很大的助力,更強(qiáng)的語言理解能力,使用通用模型可以很快訓(xùn)練出精度更高的定制模型,同時借助人類反饋查漏補(bǔ)缺,獲得更好更快的檢測效果。

防范網(wǎng)絡(luò)暴力,已經(jīng)成為各國互聯(lián)網(wǎng)治理的重點,平臺也能因此建立起更良好的社區(qū)氛圍,所以大語言模型在檢測有害語言方面,應(yīng)該能大展拳腳才對。

但為什么這一波大語言模型的浪潮中,我們很少見到將LLM用于預(yù)防網(wǎng)絡(luò)暴力的探索呢?

AI,防范語言暴力的一小步

AI技術(shù)體系內(nèi)部來看,從傳統(tǒng)NLP到大語言模型,是一個自然語言理解的飛躍式進(jìn)步。但走到更大的現(xiàn)實中,AI的一大步,也只是將問題解決向前推進(jìn)了一點點。

作用不能說沒有,但也很有限。應(yīng)對網(wǎng)絡(luò)中的語言攻擊,AI的力量仍然弱小。

首先,敵人數(shù)量太龐大。

康奈爾大學(xué)信息科學(xué)部門的丹尼斯庫表示,很多時候,你我這樣的普通人都會成為網(wǎng)絡(luò)暴力的幫兇。當(dāng)為數(shù)不少的網(wǎng)民自身積怨和不滿得不到緩解之時,會對周圍事物看不慣,在互聯(lián)網(wǎng)上用語言攻擊他人,來緩解負(fù)面情緒。

此前《三聯(lián)生活周刊》有一篇報道,某位網(wǎng)絡(luò)暴力受害者已經(jīng)去世,作者聯(lián)系到的一些施暴者則回應(yīng)稱“忘記自己當(dāng)時做過了什么”。

許多網(wǎng)暴者平時看起來是非常正常的,會在某些時刻、某些偶然事件后,短暫地化身“語言惡魔”,然后“事了拂衣去,深藏身與名”,即使是AI,也很難及時準(zhǔn)確地判定出,哪些人存在攻擊可能。

此外,語言攻擊越來越隱蔽。

AI自動檢測技術(shù)發(fā)展到今天,一些明顯有害的言論,比如威脅、隱晦、辱罵等,已經(jīng)可以被直接屏蔽掉了,但人類用語言傷害人的“創(chuàng)造力”是很大的,很多在機(jī)器看來中性化的語言,也可能惡意滿滿。

比如此前校園事故中痛失孩子的母親,就被大量評論“她怎么看起來不傷心”“她怎么還有心思打扮”,看似并沒有什么侮辱性語言,但這些質(zhì)疑累加在一起,卻形成了對受害者的“道德審判”。

對于隱蔽的攻擊性語言,目前的NLP模型還有比較大的局限性,語言背后的實際、細(xì)微的含義,很難被捕捉到,依然需要人工審核的干預(yù)。

而平臺監(jiān)測語言暴力,并沒有一個通行的判定體系,往往是各個平臺自己酌定。比如知乎會判定邪路隱私、辱罵臟話、扣帽子、貼負(fù)面標(biāo)簽等行為。豆瓣則會處理諷刺、抬杠、拱火、歧視偏見等。不過,這些標(biāo)準(zhǔn)都有很大的主觀成分,所以大家會看到“掛一漏萬”的現(xiàn)象,一些很正常的發(fā)言被斃掉,一些明顯煽動情緒的發(fā)言沒有被及時處理。

另外,網(wǎng)絡(luò)信息的“巴爾干化”。

巴爾干化,指的是一些四分五裂的小國家,互相敵對或沒有合作的情況。一項研究顯示,互聯(lián)網(wǎng)雖然消除了地理屏障,讓不同地區(qū)的人可以低成本地相互交流,但卻造成了觀念上的“巴爾干化”,輿論上的分離割裂程度越來越嚴(yán)重。

網(wǎng)絡(luò)信息的推送機(jī)制,算法設(shè)計還不夠科學(xué),偏好設(shè)置過于狹窄,采用關(guān)鍵詞聯(lián)想、通訊錄關(guān)聯(lián)、圖網(wǎng)絡(luò)等過濾方式,類似“吃了一個饅頭=喜歡吃饅頭=再來一百個饅頭”“你媽愛吃饅頭,你也一定愛吃”“饅頭=更適合中國寶寶體質(zhì)的吐司=看看吐司”。人們長期停留在有限的信息范圍內(nèi),對自己感興趣的內(nèi)容之外的信息很少涉獵,和其他群體之間的觀念間隙會越來越大。

信息獲取機(jī)制的“巴爾干化”,會導(dǎo)致輿論“極化”,就是一個觀點反復(fù)發(fā)酵,從而引發(fā)大規(guī)模的跟風(fēng)行為,網(wǎng)暴風(fēng)險也就提高了。

數(shù)量多、識別難、極化情緒嚴(yán)重,將互聯(lián)網(wǎng)變成了一個負(fù)面語言的游樂場。

技術(shù)之外,做得更多

當(dāng)然,AI防止網(wǎng)暴道阻且長,但咱們不能就此放棄努力。

大語言模型的出現(xiàn),帶來了更強(qiáng)大的自動檢測潛力。媒體機(jī)構(gòu)基于通用模型,可以訓(xùn)練出更高精度、識別能力更強(qiáng)的行業(yè)大模型,用人類專業(yè)知識來增強(qiáng)模型效果,創(chuàng)建具有人類智能的AI檢測模型,從而支持更加復(fù)雜的內(nèi)容理解和審核決策,提高有害內(nèi)容的檢測效率。

升級技術(shù)之外,必須做的更多。預(yù)防網(wǎng)絡(luò)暴力,與其說是一個技術(shù)問題,不如說是一個社會問題。網(wǎng)絡(luò)信息環(huán)境不改變,攻擊語言還會不斷變種,增加技術(shù)檢測的難度與成本,這是用戶、平臺和社會所不堪承受的。

但此前,很多治理方法效果都不是很理想。

比如說,網(wǎng)絡(luò)匿名是暴力的“隱身衣”,于是實名制成為一項重要的治理手段,但效果并不理想。韓國是第一個施行網(wǎng)絡(luò)實名制的國家,于2005年10月提出要實行網(wǎng)絡(luò)實名制,但按照韓國的統(tǒng)計,實名制之后,網(wǎng)絡(luò)侵權(quán)行為從原來的13.9%降到了12.2%,僅降了1.7%。

立法也是被期待的一種。各國都在不斷推出法規(guī),韓國《刑法》對網(wǎng)絡(luò)暴力最高判處七年有期徒刑,我國刑法、民法中也有相應(yīng)的規(guī)定,治理網(wǎng)絡(luò)暴力并非無法可依。但立法容易、執(zhí)法難。

網(wǎng)絡(luò)環(huán)境復(fù)雜,網(wǎng)暴攻擊的發(fā)動者難以確定,網(wǎng)暴一般是由大量跟帖評論等攻擊行為累加而成的,證據(jù)收集十分困難,容易滅失,“情節(jié)嚴(yán)重”難以認(rèn)定,維權(quán)周期長,網(wǎng)暴受害者的維權(quán)成本太高,最后大多不了了之,很難對施暴者產(chǎn)生實際的懲罰,助長了“法不責(zé)眾”的僥幸心理。

要改變“法不責(zé)眾”的難題,治本的辦法,是消除“無意識跟風(fēng)”的“眾”。

網(wǎng)暴不是一個人能完成的,除了少數(shù)發(fā)布者之外,大量攻擊言論,都來自是上頭了的跟風(fēng)者,網(wǎng)民集體非理性行動的結(jié)果。

報紙時代、電視時代的單向傳播,只有少數(shù)群體有發(fā)言、評論的機(jī)會,而大眾在線下面對面交流時,也不會輕易侮辱攻擊別人。到了網(wǎng)絡(luò)時代,隨著智能手機(jī)的普及,所有人都可以直接在網(wǎng)絡(luò)上表達(dá)自己的意見,一旦媒體素養(yǎng)跟不上,信息識別能力不夠,那么面對真假難辨的網(wǎng)絡(luò)信息,煽動性的語言,就很容易沖動失控,無意識地加入網(wǎng)暴大軍。

很多人在評論時,并不一定經(jīng)過了理性的思考和判斷,只是看自己關(guān)注的博主那么說,或者很多人都在討伐,就跟風(fēng)批判,使網(wǎng)絡(luò)暴力升級。

對此,指責(zé)“網(wǎng)暴者”的行為偏激,反而又會形成新的“網(wǎng)暴”。“用魔法打敗魔法”,會嚴(yán)重擾亂了網(wǎng)絡(luò)話語生態(tài)。很多偶發(fā)性的“語言暴力”,是可以通過個人媒體素養(yǎng)的提高去規(guī)避的。

這就需要專業(yè)媒體機(jī)構(gòu)和有關(guān)部門,投入更多媒體資源,面對網(wǎng)絡(luò)時代,幫助人們習(xí)得更高的媒體素養(yǎng),實現(xiàn)更文明、友好的“數(shù)字化生存”。

每個人內(nèi)心深處都有某種暴力沖動。正如羅翔老師所說,“我們遠(yuǎn)比自己想象的更偽善和幽暗,每個人心中都藏著一個張三”。

當(dāng)理性上升,當(dāng)一個人習(xí)得了自我控制的能力,那么“非理性”的暴力一定會減少。比起AI的韁繩,真正能消除網(wǎng)暴的,是每個人心中的道德律令。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280061
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3146

    瀏覽量

    4076
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    小白學(xué)大模型:從零實現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?515次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    AD8313沒有模型,仿真不了怎么解決?

    AD8313沒有模型,在multisim上仿真不了,請?zhí)峁┲г?或者提供一個更新的版本也可以。
    發(fā)表于 03-24 06:38

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺內(nèi)容相關(guān)的自然
    的頭像 發(fā)表于 03-17 15:32 ?4129次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細(xì)解析

    語言模型的解碼策略與關(guān)鍵優(yōu)化總結(jié)

    本文系統(tǒng)性地闡述了大型語言模型(LargeLanguageModels,LLMs)中的解碼策略技術(shù)原理及其實踐應(yīng)用。通過深入分析各類解碼算法的工作機(jī)制、性能特征和優(yōu)化方法,為研究者和工程師提供了全面
    的頭像 發(fā)表于 02-18 12:00 ?589次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的解碼策略與關(guān)鍵優(yōu)化總結(jié)

    一文詳解視覺語言模型

    視覺語言模型(VLM)是一種多模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?1766次閱讀
    一文詳解視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    語言模型管理的作用

    要充分發(fā)揮語言模型的潛力,有效的語言模型管理非常重要。以下,是對語言模型管理作用的分析,由AI部
    的頭像 發(fā)表于 01-02 11:06 ?389次閱讀

    AI大語言模型開發(fā)步驟

    開發(fā)一個高效、準(zhǔn)確的大語言模型是一個復(fù)雜且多階段的過程,涉及數(shù)據(jù)收集與預(yù)處理、模型架構(gòu)設(shè)計、訓(xùn)練與優(yōu)化、評估與調(diào)試等多個環(huán)節(jié)。接下來,AI部落小編為大家詳細(xì)闡述AI大語言
    的頭像 發(fā)表于 12-19 11:29 ?902次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?529次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領(lǐng)域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-04 11:44 ?702次閱讀

    云端語言模型開發(fā)方法

    云端語言模型的開發(fā)是一個復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)準(zhǔn)備、模型選擇、訓(xùn)練優(yōu)化、部署應(yīng)用等多個環(huán)節(jié)。下面,AI部落小編為您分享云端語言模型的開發(fā)
    的頭像 發(fā)表于 12-02 10:48 ?692次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應(yīng)用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰(zhàn)。
    的頭像 發(fā)表于 11-15 14:20 ?1431次閱讀
    使用vLLM+OpenVINO加速大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理

    語言模型如何開發(fā)

    語言模型的開發(fā)是一個復(fù)雜且細(xì)致的過程,涵蓋了數(shù)據(jù)準(zhǔn)備、模型架構(gòu)設(shè)計、訓(xùn)練、微調(diào)和部署等多個階段。以下是對大語言模型開發(fā)步驟的介紹,由AI部
    的頭像 發(fā)表于 11-04 10:14 ?605次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    并捕捉長距離依賴關(guān)系的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。Transformer通過編碼器(Encoder)和解碼器(Decoder)兩部分實現(xiàn)語言的編碼和解碼。 注意力機(jī)制:Transformer中的注意力機(jī)制使得模型
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    今天開始學(xué)習(xí)《大語言模型應(yīng)用指南》第一篇——基礎(chǔ)篇,對于人工智能相關(guān)專業(yè)技術(shù)人員應(yīng)該可以輕松加愉快的完成此篇閱讀,但對于我還是有許多的知識點、專業(yè)術(shù)語比較陌生,需要網(wǎng)上搜索學(xué)習(xí)更多的資料才能理解書中
    發(fā)表于 07-25 14:33

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 俯瞰全書

    的機(jī)會! 本人曾經(jīng)也參與過語音識別產(chǎn)品的開發(fā),包括在線和離線識別,但僅是應(yīng)用語言模型實現(xiàn)端側(cè)的應(yīng)用開發(fā),相當(dāng)于調(diào)用模型的接口函數(shù),實際對模型的設(shè)計、訓(xùn)練和運行機(jī)理并
    發(fā)表于 07-21 13:35
    主站蜘蛛池模板: 国产色秀视频在线观看 | 亚洲欧美在线视频免费 | 三级免费观看 | 免费观看四虎精品国产永久 | 91大神视频在线播放 | 国产三级在线看 | 婷婷丁香五月中文字幕 | 五月天婷亚洲 | 91视频观看 | 天天看黄 | 在线观看你懂得 | 18女毛片| 亚洲免费国产 | 天天干狠狠 | 91久久澡人人爽人人添 | 污污的网站免费阅读 | 激情网页 | www狠狠干 | 丁香婷婷亚洲六月综合色 | 国产三级日产三级韩国三级 | 国产精品久久新婚兰兰 | 亚洲精品国产美女在线观看 | 国产一区二区三区夜色 | 加勒比在线一区 | 国产亚洲精品久久久久久久软件 | 国产精品理论片在线观看 | 最新bt合集 | 国产一区二区三区免费大片天美 | 国产成人精品亚洲77美色 | 天天综合干 | 国内真实下药迷j在线观看 国内自拍 亚洲系列 欧美系列 | 欧美黄又粗暴一进一出抽搐 | 亚洲最大毛片 | 免费一看一级毛片 | 狠狠的日视频 | 欧美xxxxxbbbb | 国产精品国产主播在线观看 | 色综合天天综合 | 亚洲日本视频在线观看 | 人成网站在线观看 | 国产免费的野战视频 |