在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

讓機器學習模型不再是”黑盒子“

DPVg_AI_era ? 來源:lp ? 2019-03-12 09:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

提高機器學習模型的可解釋性和透明度,將有助于模型的除錯、引導未來的數據收集方向、為特征構建和人類決策提供真正可靠的信息,最終在人與模型之間建立信任。

過去幾年來,人工智能研究人員在圖像識別、自然語言理解和棋類等領域取得了重大突破。但由于缺乏對復雜機器學習模型的真正理解,導致模型在傳播時出現了偏見,這種偏見在零售、面部識別和語言理解等領域的應用中出現了多次。

說到底,機器學習模型大多數時候仍然是“黑盒子”,很多時候可以拿來用,但具體原理并不十分清楚,即缺乏足夠的“可解釋性”。

什么是模型的”可解釋性“?不同人群定義不一樣

所謂模型的可解釋性,是指人類能夠在何種程度上一致地估計、理解并遵循模型的預測,以及在模型出錯時,在何種程度上能夠成功檢測到。

可解釋性對不同的人群有著不同的含義:

對于數據科學家來說,意味著更好地理解模型,掌握模型性能好壞情況以及原因。這些信息有助于數據科學家構建性能更強大的模型。

對于業務利益相關者而言,模型具備可解釋性有助于深入了解為什么人工智能系統做出特定決定以確保公平性,維護用戶和品牌。

對于用戶來說,這意味著要理解模型做出決策的原因,并在模型出錯時允許進行有意義的挑戰。

對于專家或監管機構來說,它意味著審核AI系統并遵循決策流程,尤其是在系統出現問題時。

微軟的團隊數據科學流程(TDSP),其中一個重要環節就是對模型的理解

機器學習模型的可解釋性可以展示模型正在學習什么內容,而洞悉模型的內部,要比大多數人預想的更加有用。

在過去的10年里,我采訪了許多數據科學家,其中模型可解釋性技術是我最喜歡的主題,在這一問題上,甚至可以將最優秀的數據科學家與普通科學家區分開來。

有些人認為機器學習模型是黑盒子,可以做出預測,但卻無法理解。但最好的數據科學家知道如何從任何模型中提取出關于真實世界的見解。對于任何給定的模型,優秀的數據科學家可以輕松回答類似下面的問題:

模型認為哪些特征最重要?

對于來自模型的任何預測來說,數據的每個特征會對預測結果產生哪些影響?

不同特征之間的哪些相互作用對模型的預測結果影響最大?

回答這些問題比許多人意識到的更為廣泛。無論你是從Kaggle學習技術還是從統計學習元素這樣的綜合資源中學習,這些技術都將徹底改變構建,驗證和部署機器學習模型的方式。

提高模型可解釋性有什么用?

關于模型的可解釋性技術,以下是五個最重要的應用方式:

調試

為模型特征構建提供信息

指導未來的數據收集方向

為人類決策提供建議

在人與模型間建立信任

調試

世界上存在很多可靠性不高,雜亂無章、數量眾多的數據。在編寫預處理代碼時,這些數據可能會成為潛在的錯誤源頭,增加目標泄漏的可能性,在實際數據科學項目中的某些時候出現錯誤可以說是一種常態,而不是例外。

由于錯誤出現的頻率和潛在的災難性后果,除錯是數據科學中最有價值的技能之一。了解模型發現的模式將幫助你確定,模型對現實世界的理解與你自己的觀點出現了不一致,而這通常是查找錯誤的第一步。

為模型的特征構建提供信息

特征構建通常是提高模型精度的最有效的方法。這個過程通常涉及使用原始數據或先前創建的特征的轉換重復創建新特征。

有時你可以只憑借關于底層主題的直覺來完成這個過程。但是,當模型有100個原始特征或缺乏有關您正在處理的主題的背景知識時,就需要更多指引了。這時候,如果模型仍是黑盒子,不可解釋的,完成這一過程可能會非常困難,甚至是不可能的。

未來,隨著越來越多的數據集的原始特征數量達到成百上千的級別,這種方式無疑會變得越來越重要。

指導未來的數據收集方向

對于從網上下載的數據集,你并沒有控制能力。但是,許多利用數據科學的企業和組織都有機會擴展其收集的數據類型。收集新類型的數據可能成本高昂,又不方便,因此只有在知道某類數據值得收集,他們才會去這樣做。

如果模型是可解釋的,就可以很好地理解當前特征的價值,進而更有可能推斷出哪些新型數據是最有用的,從而指導未來數據的收集方向。

為人類決策提供建議

有些決策行為是由模型自動完成的。比如,當你訪問亞馬遜的網站時,你所看到的網頁內容并不是由真人匆忙決定的。不過,確實許多重要的決定都是由人做出的。對于這些決策,觀點洞察可能比預測結果更有價值。

在人與模型間建立信任

在沒有驗證一些基本事實的情況下,許多人認為他們無法信任模型來進行重要決策??紤]到數據出現錯誤的幾率,這是一個明智的預防措施。

在實際應用中,如果模型顯示的結果符合他們對問題的一般見解,將有助于在人與模型間建立一種信任,即使對數據科學知之甚少的人而言也是如此。

不過,在Adrian Weller的一篇有趣的論文中,提出AI透明度應該是實現目標的手段,而不是目標本身。Weller認為,更高的模型透明度可能產生對所有人不利的結果,并可能使AI被惡意者濫用。

毫無疑問,AI系統必須足夠安全,并且能夠防范對抗性攻擊,這樣,討論模型的可解釋性和透明度才是有積極意義的。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1806

    文章

    48960

    瀏覽量

    248583
  • 模型
    +關注

    關注

    1

    文章

    3512

    瀏覽量

    50301
  • 機器學習
    +關注

    關注

    66

    文章

    8500

    瀏覽量

    134444

原文標題:告別AI模型黑盒子:可解釋性將是數據科學的下一個“超能力”

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    通過啟發式參數提取校準半導體光放大器的TLM模型

    的合理近似。為此,提出的方法調整了有源區厚度、約束因子、線性增益系數和透明電流等參數。該方法可用于不同的 SOAs,從而對黑盒子器件進行更精確的數值預測。
    的頭像 發表于 03-27 10:03 ?362次閱讀
    通過啟發式參數提取校準半導體光放大器的TLM<b class='flag-5'>模型</b>

    機器學習模型市場前景如何

    當今,隨著算法的不斷優化、數據量的爆炸式增長以及計算能力的飛速提升,機器學習模型的市場前景愈發廣闊。下面,AI部落小編將探討機器學習
    的頭像 發表于 02-13 09:39 ?347次閱讀

    如何陪伴機器人更懂家庭

    隨著ChatGPT等AI的出現,《her》似乎不再是科幻。大家開始探索AI陪聊、AI心理咨詢,甚至是AI男友/女友等等,而在這個過程中,一直屬于機器人中的“小透明“,AI陪伴機器人首次站在了行業的聚光燈下。
    的頭像 發表于 01-20 17:21 ?969次閱讀

    【「具身智能機器人系統」閱讀體驗】2.具身智能機器人大模型

    中取得了令人矚目的效果。 閱讀感悟 從傳統的手動編程到借助大模型實現智能化、自主化,從單一模態的交互到多模態信息的深度融合,再到擴散模型的應用,機器人控制技術正在以驚人的速度進化。這不僅
    發表于 12-29 23:04

    《具身智能機器人系統》第7-9章閱讀心得之具身智能機器人與大模型

    醫療領域,手術輔助機器人需要毫米級的精確控制,書中有介紹基于視覺伺服的實時控制算法,以及如何利用大模型優化手術路徑規劃。工業場景中,協作機器人面臨的主要挑戰是快速適應新工藝流程。具身智能通過在線
    發表于 12-24 15:03

    什么是機器學習?通過機器學習方法能解決哪些問題?

    來源:Master編程樹“機器學習”最初的研究動機是計算機系統具有人的學習能力以便實現人工智能。因為沒有學習能力的系統很難被認為是具有智能
    的頭像 發表于 11-16 01:07 ?953次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學習</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學習</b>方法能解決哪些問題?

    麻省理工學院推出新型機器人訓練模型

    近日,據TechCrunch報道,麻省理工學院的研究團隊展示了一種創新的機器人訓練模型,該模型突破了傳統模仿學習方法的局限,不再依賴標準數據
    的頭像 發表于 11-04 14:56 ?921次閱讀

    AI大模型與深度學習的關系

    AI大模型與深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 一、深度學習是AI大模型的基礎 技術支撐 :深度學習
    的頭像 發表于 10-23 15:25 ?2842次閱讀

    AI大模型與傳統機器學習的區別

    AI大模型與傳統機器學習在多個方面存在顯著的區別。以下是對這些區別的介紹: 一、模型規模與復雜度 AI大模型 :通常包含數十億甚至數萬億的參
    的頭像 發表于 10-23 15:01 ?2524次閱讀

    構建語音控制機器人 - 線性模型機器學習

    2024-07-31 |Annabel Ng 在該項目的[上一篇博客文章]中,我介紹了運行機器人電機、處理音頻信號和調節電壓所需的電路的基礎知識。然而,機器人還沒有完全完成!盡管機器人可以正確移動
    的頭像 發表于 10-02 16:31 ?545次閱讀
    構建語音控制<b class='flag-5'>機器</b>人 - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機器</b><b class='flag-5'>學習</b>

    【「時間序列與機器學習」閱讀體驗】+ 簡單建議

    這本書以其系統性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機器學習融合應用的宏偉藍圖。作者不僅扎實地構建了時間序列分析的基礎知識,更巧妙地展示了機器學習如何在這一領域發揮巨
    發表于 08-12 11:21

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    今天來學習大語言模型在自然語言理解方面的原理以及問答回復實現。 主要是基于深度學習和自然語言處理技術。 大語言模型涉及以下幾個過程: 數據收集:大語言
    發表于 08-02 11:03

    CY8C4149AZI在ISR啟動之前,RX FIFO中就有一個字節的數據,為什么?

    ,該主機有點像黑盒子;我不能完全確定它正在生成什么數據,但它不應該包括這個 0xB1 字節。 不過,通過設置斷點,我實際上能夠在 ISR 實際觸發之前捕捉到 RX FIFO 中的這個字節。 我的斷點會不會恰好在堆棧指針加載 ISR 地址之前,而在 FIFO 值設置之后?
    發表于 07-24 06:10

    【《大語言模型應用指南》閱讀體驗】+ 俯瞰全書

    上周收到《大語言模型應用指南》一書,非常高興,但工作項目繁忙,今天才品鑒體驗,感謝作者編寫了一部內容豐富、理論應用相結合、印刷精美的著作,也感謝電子發燒友論壇提供了一個我了解大語言模型機器
    發表于 07-21 13:35

    pycharm如何訓練機器學習模型

    PyCharm是一個流行的Python集成開發環境(IDE),它提供了豐富的功能,包括代碼編輯、調試、測試等。在本文中,我們將介紹如何在PyCharm中訓練機器學習模型。 一、安裝PyCharm
    的頭像 發表于 07-11 10:14 ?1677次閱讀
    主站蜘蛛池模板: 日本视频网站在线www色 | 国模大尺度人体一区 | 人人看人人看人做人人模 | 国产成人三级 | 18黄网站| 午夜污片| 一级免费视频 | 日韩欧美中文字幕在线播放 | 国产色婷婷精品综合在线观看 | 人人洗澡人人洗澡人人 | 色香婷婷| 国产精品99r8免费视频2022 | 四虎永久网址在线观看 | 天天色综合三 | 久久精品亚瑟全部免费观看 | 日本特黄a级高清免费大片18 | 天堂网成人 | 中国特黄毛片 | 高清人人天天夜夜曰狠狠狠狠 | 就要爱综合 | 么公的好大好硬好深好爽在线视频 | 新激情五月| 欧亚激情偷乱人伦小说视频 | 四虎永久在线精品 | 精品视频一区二区三区 | 色综合小说天天综合网 | 午夜在线视频免费 | 美女下面小内内的沟 | 一区二区三区亚洲 | 久久综合婷婷 | 三级黄色录像 | 未满十八18周岁禁止免费国产 | 亚洲第一区二区快射影院 | 99精品久久99久久久久久 | 偷窥自拍亚洲色图 | 国产综合精品久久久久成人影 | 8050午夜| 俺去久久| 99久久综合狠狠综合久久男同 | 日本免费不卡视频 | 波多野结衣久久国产精品 |