在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

谷歌開發(fā)者 ? 來源:未知 ? 2023-12-05 18:10 ? 次閱讀

作者 / 技術與社會部 Anoop Sinha 以及 Google Research、Responsible AI 和以人為本技術團隊 Marian Croak


標準基準是衡量重要產(chǎn)品質(zhì)量的公認方法,存在于許多領域。一些標準基準用于衡量安全性:例如,當汽車制造商宣傳 "整體安全評分五星" 時,會引用某項基準。機器學習 (ML) 和 AI 技術領域已經(jīng)存在標準基準:例如,MLCommons Association 運用 MLPerf 基準,來衡量如 Google 的 TPU 等尖端 AI 硬件的速度。然而,盡管圍繞 AI 安全已經(jīng)做了大量工作,目前仍然沒有類似的 AI 安全標準基準。


  • MLCommons

    https://mlcommons.org/en/

  • MLPerf

    https://mlcommons.org/en/news/mlperf-inference-storage-q323/

  • AI 安全

    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/


我們很高興能夠為非營利組織 MLCommons Association 開展標準 AI 安全基準制定的工作提供支持。制定有效且值得信賴的基準,不僅要有先進的 AI 安全測試技術,還需要綜合廣泛的觀點。MLCommons 的工作旨在匯集學術界和業(yè)界的專家研究人員來制定衡量 AI 系統(tǒng)安全性的標準基準,并以每個人都能理解的分數(shù)呈現(xiàn)。我們鼓勵社區(qū)的所有成員 (從 AI 研究人員到政策專家)加入我們,為這項工作奉獻自己的力量。


  • 加入我們

    https://mlcommons.org/ai-safety



為什么要制定 AI 安全基準?


像大多數(shù)先進技術一樣,AI 具有帶來巨大好處的潛力,但是如果缺乏適當?shù)募s束,也可能會導致負面結(jié)果。例如,AI 技術可以在各種活動中輔助人類提高生產(chǎn)力 (如提高健康診斷的準確性和研究疾病、分析能源使用情況等)。然而,如果沒有足夠的預防措施,AI 也可能被用來支持有害或惡意活動,并導致存在偏見或令人反感的響應。

  • 改善健康診斷
    https://blog.google/technology/health/how-ai-can-improve-health-for-everyone-everywhere/
  • 能源使用情況
    https://blog.google/outreach-initiatives/sustainability/google-transportation-energy-emissions-reduction/

通過為不同類別提供標準的安全措施,如有害使用、超范圍響應、AI 控制風險等,標準的 AI 安全基準可以幫助社會從 AI 中獲益,同時確保采取足夠的預防措施來減輕這些風險。最初,新興的安全基準有助于推動 AI 安全研究,并為負責任的 AI 開發(fā)提供信息。隨著時間推移和技術成熟,這些基準也可以為 AI 系統(tǒng)的用戶和購買者提供信息,最終,可能成為政策制定者的寶貴工具。


在計算機硬件領域,基準 (如 SPECTPC) 現(xiàn)已展現(xiàn)出驚人的能力,讓整個行業(yè)能夠在追求進步的過程中,保持研究、工程甚至營銷部門的步調(diào)一致。我們相信,標準 AI 安全基準有助于在這一重要領域?qū)崿F(xiàn)同樣的目標。


  • SPEC
    https://en.wikipedia.org/wiki/Standard_Performance_Evaluation_Corporation
  • TPC
    https://en.wikipedia.org/wiki/Transaction_Processing_Performance_Council


標準 AI 安全基準是什么?


在學術研究和企業(yè)工作中,人們開展了一系列 AI 安全測試 (如 RealToxicityPromptsStanford HELM 公平性、偏差、毒性測量以及 Google 的生成式 AI 指引)。但是,大多數(shù)測試都側(cè)重于為 AI 系統(tǒng)提供提示,并對輸出進行算法評分,雖然這是一個有用的開端,但僅限于測試提示的范圍。此外,他們通常使用開放數(shù)據(jù)集進行提示和響應,而這些提示和響應可能已被 (通常是無意中) 納入訓練數(shù)據(jù)中。


  • RealToxicityPrompts
    https://arxiv.org/abs/2009.11462
  • Stanford HELM
    https://crfm.stanford.edu/2022/11/17/helm.html
  • Google 的生成式 AI 指引
    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/

MLCommons 提議,按多方利益相關者流程選擇測試,并按子集分組,以衡量特定 AI 用例的安全性,并將這些需要有專業(yè)技術背景才能理解的測試結(jié)果轉(zhuǎn)化為每個人都能理解的分數(shù)。MLCommons 建議打造一個集中現(xiàn)有測試的平臺,并鼓勵開展更嚴格的測試,以推動先進技術的發(fā)展。用戶既可以通過在線測試生成和查看分數(shù),也可以借助私人測試引擎的離線測試來訪問這些測試。


共同努力下的 AI 安全基準


負責任的 AI 開發(fā)者使用多種安全措施,包括自動測試、手動測試、紅隊測試 (red teaming,其中人類測試人員試圖產(chǎn)生對抗性結(jié)果)、軟件方面的限制、數(shù)據(jù)和模型最佳實踐以及審計。但是,確定是否已采取足夠的預防措施可能具有挑戰(zhàn)性,尤其是在開發(fā) AI 系統(tǒng)的公司群體不斷發(fā)展且具有多元化特點的情況下。標準 AI 基準能夠提供強大的工具,幫助供應商和用戶衡量 AI 安全性,以及鼓勵資源生態(tài)系統(tǒng)和專注于提高 AI 安全性的專業(yè)提供商,推進社區(qū)以負責任的方式發(fā)展。


同時,如果沒有社區(qū)參與,就無法制定成熟、有效且值得信賴的 AI 安全基準。這項工作需要研究人員和工程師齊心協(xié)力,為安全測試技術提供創(chuàng)新且實用的改進,使測試更加嚴格高效。同樣,企業(yè)也需要團結(jié)一致,提供測試數(shù)據(jù)、工程支持和經(jīng)濟支持。AI 安全的某些方面可能具有主觀性,要建立得到廣泛共識支持的可信基準需要考慮多方觀點,包括公眾代言人、政策制定者、學者、工程師、數(shù)據(jù)工作者、商界領袖和企業(yè)家的觀點。



Google 對 MLCommons 的支持


Google 以 2018 年宣布AI 準則為基礎,致力于以安全、可靠和值得信賴的特定標準開發(fā)和使用 AI (您可以參閱我們 2019 年2020 年2021 年2022 年的更新)。我們還在關鍵承諾方面取得了重大進展,這將幫助您大膽且負責任地開發(fā) AI,從而造福所有人。


  • 宣布
    https://blog.google/technology/ai/ai-principles/
  • AI 準則
    https://ai.google/responsibility/principles/
  • 2019 年
    https://ai.google/static/documents/ai-principles-2019-progress-update.pdf
  • 2020 年
    https://ai.google/static/documents/ai-principles-2020-progress-update.pdf
  • 2021 年
    https://ai.google/static/documents/ai-principles-2021-progress-update.pdf
  • 2022 年
    https://ai.google/static/documents/ai-principles-2022-progress-update.pdf
  • 進展
    https://static.googleusercontent.com/media/publicpolicy.google/en//resources/whcommitments.pdf

Google 正在以多種方式支持 MLCommons Association 在制定 AI 安全基準方面所作的工作。

  1. 測試平臺:我們聯(lián)合其他公司提供資金,支持測試平臺的開發(fā)。
  2. 技術專長和資源:我們不斷提供技術專長和資源,例如 Monk 膚色示例數(shù)據(jù)集,以幫助確保基準設計優(yōu)良且有效。
  3. 數(shù)據(jù)集:我們正在為多語言表征偏差以及針對刻板印象危害 (如 SeeGULL 和 SPICE) 的外部測試提供內(nèi)部數(shù)據(jù)集。此外,我們還共享以負責任和包容性的方式收集人工注釋為重點的數(shù)據(jù)集,如 DICESSRP

  • Monk 膚色量表示例數(shù)據(jù)集
    https://skintone.google/mste-dataset
  • SPICE
    https://github.com/google-research-datasets/SPICE/tree/main
  • DICES
    https://arxiv.org/abs/2306.11247
  • SRP
    https://www.kaggle.com/datasets/google/jigsaw-specialized-rater-pools-dataset


未來方向


我們相信,這些基準有助于推進 AI 安全研究,確保以負責任的方式開發(fā)和部署 AI 系統(tǒng)。AI 安全屬于集體行動問題前沿模型論壇 (Frontier Model Forum) 和 AI 伙伴關系 (Partnership on AI) 等團體也在重要的標準化舉措方面發(fā)揮著領導作用。我們很高興從一開始便與這些團體和 MLCommons 一起開展這項工作,也期待通過更多的共同努力,來促進以負責任的方式開發(fā)新的生成式 AI 工具。歡迎您持續(xù)關注我們,及時獲悉更多資訊。


  • 集體行動問題
    https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/
  • 前沿模型論壇
    https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/
  • AI 伙伴關系
    https://partnershiponai.org/


致謝


非常感謝為這項工作做出貢獻的 Google 團隊成員: Peter Mattson、Lora Aroyo、Chris Welty、Kathy Meier-Hellstern、Parker Barnes、Tulsee Doshi、Manvinder Singh、Brian Goldman、Nitesh Goyal、Alice Friend、Nicole Delange、Kerry Barker、Madeleine Elish、Shruti Sheth、Dawn Bloxwich、William Isaac、Christina Butterfield。





原文標題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

文章出處:【微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6206

    瀏覽量

    106122

原文標題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    芯海科技BMS:讓每塊電池的安全值得信賴

    電池作為能源存儲的核心組件,廣泛應用于各類電子設備中。隨著快充技術的普遍應用,大功率快充對電芯及電池管理系統(tǒng)(BMS)提出了更高的安全要求。一旦電池管理系統(tǒng)的安全防護不足,就極易引發(fā)電池起火、燃燒
    發(fā)表于 02-11 17:33 ?69次閱讀
    芯海科技BMS:讓每塊電池的<b class='flag-5'>安全</b>都<b class='flag-5'>值得</b><b class='flag-5'>信賴</b>

    芯海科技BMS:讓每塊電池的安全值得信賴

    電池作為能源存儲的核心組件,廣泛應用于各類電子設備中。隨著快充技術的普遍應用,大功率快充對電芯及電池管理系統(tǒng)(BMS)提出了更高的安全要求。一旦電池管理系統(tǒng)的安全防護不足,就極易引發(fā)電池起火、燃燒
    的頭像 發(fā)表于 02-10 18:33 ?124次閱讀
    芯海科技BMS:讓每塊電池的<b class='flag-5'>安全</b>都<b class='flag-5'>值得</b><b class='flag-5'>信賴</b>

    徐工汽車榮獲2025年度值得用戶信賴創(chuàng)新城市物流裝備鼎新獎

    近日,在第十屆發(fā)現(xiàn)信賴中國卡車用戶調(diào)查暨評選活動中,徐工4米4大輕卡憑借在新能源技術上的領先優(yōu)勢和創(chuàng)新突破,一舉榮獲“2025年度值得用戶信賴創(chuàng)新城市物流裝備鼎新獎”。
    的頭像 發(fā)表于 01-14 10:25 ?173次閱讀

    MLCommons推出AI基準測試0.5版

    開放式機器學習工程聯(lián)盟 MLCommons 在美國加州當?shù)貢r間公布推出適用于消費類 PC 的 AI 性能的 MLPerf Client 基準測試的 0.5 版,這是該測試的第一個公開版本
    的頭像 發(fā)表于 12-12 16:47 ?446次閱讀

    Momenta以AI技術助力交通安全建設

    近日,為迎接第十三個“全國交通安全日”,蘇州交警與Momenta攜手圍繞“文明交通,攜手共創(chuàng)”主題開展特別活動,全力踐行將AI技術融入交通安全
    的頭像 發(fā)表于 12-03 16:13 ?300次閱讀

    浪潮信息AI存儲性能測試的領先之道

    AI技術的無限可能。近日,在MLCommons的子項目MLPerf Storage v1.0性能基準評測中,浪潮信息再度展現(xiàn)了在AI存儲領域的卓越實力。
    的頭像 發(fā)表于 10-29 16:30 ?323次閱讀
    浪潮信息<b class='flag-5'>AI</b>存儲性能測試的領先之道

    浪潮信息AS13000G7榮獲MLPerf? AI存儲基準測試五項性能全球第一

    北京2024年9月27日?/美通社/ -- 9月25日,MLCommons協(xié)會發(fā)布最新MLPerf? Storage v1.0 AI存儲基準測試成績。浪潮信息分布式存儲平臺AS13000G7表現(xiàn)出
    的頭像 發(fā)表于 09-28 16:46 ?267次閱讀
    浪潮信息AS13000G7榮獲MLPerf? <b class='flag-5'>AI</b>存儲<b class='flag-5'>基準</b>測試五項性能全球第一

    甲骨文攜手Rai Way,強化AI應用與數(shù)據(jù)安全

    近日,全球領先的軟件巨頭甲骨文與意大利基礎設施服務提供商Rai Way宣布達成重要合作。雙方將攜手在Rai Way分布廣泛的數(shù)據(jù)中心部署甲骨文的人工智能應用系統(tǒng),為企業(yè)客戶帶來前所未有的服務體驗與安全保障。
    的頭像 發(fā)表于 07-27 17:19 ?2269次閱讀

    Claude安卓版發(fā)布,旨在為用戶提供信賴AI助手

     7月17日最新資訊,繼今年5月成功推出iOS版本后,Anthropic公司今日正式發(fā)布了Claude應用的安卓版本,該應用專為安卓8.0及以上版本設備設計,旨在為用戶提供一款高效值得信賴
    的頭像 發(fā)表于 07-17 16:56 ?791次閱讀

    英國AI安全研究所推出AI模型安全評估平臺

    據(jù)報道,英國人工智能安全研究院近日發(fā)布了名為“Inspect”的AI模型安全評估平臺,此平臺采用開源技術對全球AI工程師免費開放,旨在提升
    的頭像 發(fā)表于 05-13 15:20 ?508次閱讀

    值得信賴的工業(yè)主板制造商

    朗銳智科是一家值得信賴的工業(yè)主板制造商,為工業(yè)領域提供可靠的主板解決方案。我們的工業(yè)主板經(jīng)過嚴格的行業(yè)標準測試和驗證,以確保其在惡劣環(huán)境下的穩(wěn)定性和耐用性。我們的產(chǎn)品具有廣泛的兼容性和可擴展性,適合
    的頭像 發(fā)表于 04-24 11:21 ?639次閱讀
    <b class='flag-5'>值得</b><b class='flag-5'>信賴</b>的工業(yè)主板制造商

    AI安全基準測試 v0.5: 聚焦通用聊天文本模型安全

    隨著AI技術的快速發(fā)展,相關安全問題也日益凸顯。僅過去數(shù)周內(nèi),便有LastPass公司遭遇音頻深度偽造攻擊等案例浮出水面。為了應對這一挑戰(zhàn),新推出的AI Safety基準測試將成為模型
    的頭像 發(fā)表于 04-19 11:12 ?492次閱讀

    世界數(shù)字技術院發(fā)布:生成式AI安全測試標準及大語言模型

    據(jù)悉,上述兩款標準主要針對大型模型與生成式AI應用領域的安全檢測設定了新基準。參與制定工作的單位有OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等多家知名企業(yè),其中,
    的頭像 發(fā)表于 04-17 16:51 ?1188次閱讀

    聯(lián)想攜手京東,緊扣大模型和生成式AI技術

    聯(lián)想與京東攜手,緊扣大模型和生成式AI技術帶來的產(chǎn)業(yè)機遇,在多個領域展開深入合作。
    的頭像 發(fā)表于 04-12 10:27 ?684次閱讀

    UL Procyon AI 發(fā)布圖像生成基準測試,基于Stable Diffusion

    UL去年發(fā)布的首個Windows版Procyon AI推理基準測試,以計算機視覺工作負載評估AI推理性能。新推出的圖像生成測試將提供統(tǒng)一、精確易于理解的工作負載,用以保證各支持硬件間
    的頭像 發(fā)表于 03-25 16:16 ?987次閱讀
    主站蜘蛛池模板: 免费高清特级毛片 | 32pao强力打造免费高速高清 | 在线天堂中文有限公司 | 欧美一级欧美三级 | 国产一级特黄高清在线大片 | 四虎影视大全免费入口 | 99久久国产综合精品国 | 久久艹人人艹 | 国产成人精品日本亚洲直接 | 欧美淫| 影院午夜 | 狠狠干奇米| 狠狠干欧美 | 天天干夜夜操 | 欧美一卡2卡三卡四卡五卡 欧美一卡二卡3卡4卡无卡六卡七卡科普 | 91免费网站在线看入口黄 | 网红和老师啪啪对白清晰 | 女人69xxx| 久久青草91线频免费观看 | 六九视频在线观看 | 欧美久操| 日本极度另类网站 | 三级在线免费观看 | 天天干天天谢 | 一区二区三区高清在线 | 三级理论在线 | 激情欧美一区二区三区中文字幕 | 你懂的在线看 | 人人爱爱 | 免费黄色地址 | 日韩黄色成人 | bt天堂新版中文在线地址 | 8x8x极品国产在线 | 国产精品久久精品福利网站 | 乱欲小说又粗又大 | 精品久久久久久久久久 | 男人的天堂在线视频 | 成人免费看毛片 | 久久天天躁狠狠躁夜夜2020一 | vip影视免费观看 | 午夜特片网 |