91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

科技巨頭們現(xiàn)在是怎么討論AI倫理的?

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-04-26 09:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對于人工智能(以下簡稱 AI),研究人員經(jīng)常說,一流的機器學(xué)習(xí)實際上更像一門藝術(shù)而不是科學(xué)。有效的公共關(guān)系也是如此,選擇合適的詞語來傳達積極的語調(diào)或重塑有關(guān) AI 的話題是一項需要技巧的任務(wù):做得好,就可以加強一個人的品牌形象,但做不好,可能會引起更強烈的反對和抵制。

科技巨頭們對這一點肯定是心知肚明。過去幾年里,他們不得不快速學(xué)會這門藝術(shù),因為公眾對他們的行為越來越不信任,他們的 AI 研究和技術(shù)也面臨越來越多的批評。

現(xiàn)在,他們想向公眾證明他們十分關(guān)注 AI 開發(fā)方式的合理性,但又想確保這樣不會招來過多的審查,因此開發(fā)了一種新詞匯。以下是一則解讀他們的語言、挑戰(zhàn)他們的假設(shè)和價值觀的內(nèi)部指南。

Accountability(責任,名詞)—— 即你的 AI 系統(tǒng)失敗時,讓其他人為其后果負責的行為。

Accuracy(準確性,名詞)—— 技術(shù)正確性。這是評估 AI 模型性能時最重要的成功衡量標準,參見 validation。

Adversary(對手,名詞)—— 即一個能破壞你強大的盈利 AI 系統(tǒng)的獨立工程師,參見 robustness 和 security。

Alignment(結(jié)盟,名詞)—— 即設(shè)計 AI 系統(tǒng)的挑戰(zhàn),該系統(tǒng)需執(zhí)行我們的命令,重視我們所重視的一切,故意轉(zhuǎn)移注意力。避免使用造成不良意外后果的真實例子,參見 safety。

Artificial general intelligence(人工一般智能,短語)—— 假設(shè)的 AI 上帝,可能會在遙遠的未來出現(xiàn),但也可能馬上就會到來。可好可壞,只要說得通即可,但你明顯在打造一個好的 AI 上帝。這代價不菲,因此,你需要更多的資金,參見 long-term risks。

Audit(審計,名詞)—— 你花錢請別人對你的公司或 AI 系統(tǒng)進行審查,這樣你無需做任何改變就可以顯得更透明,參見 impact assessment。

Augment(增加,動詞)—— 即提高白領(lǐng)工人的生產(chǎn)力。副作用:自動化讓藍領(lǐng)無工可做,雖令人難過但不可避免。

Beneficial(有益的,形容詞)—— 即對你要構(gòu)建的體系的籠統(tǒng)描述,定義不明更好,參見 value。

By design(精心設(shè)計,詞組)—— 如 “精心設(shè)計而來的公平” 或 “精心設(shè)計而來的責任”,這個詞組表明你從一開始就在認真思考重要的事情。

Compliance(服從,名詞)—— 即行為遵守法律,凡是不違法的都可以。

Data Labelers(數(shù)據(jù)標簽者,詞組)—— 據(jù)說這些人藏身于亞馬遜的 “土耳其機器人接口背后,以低廉的價格做數(shù)據(jù)清理工作,不確定他們是誰,從未見過他們。

Democratize(民主化,動詞)—— 即不惜一切代價擴展技術(shù),也是集中資源的理由,參見 scale。

Diversity、equity、and inclusion(多樣性、公平和包容,詞組)—— 即雇傭邊緣群體的工程師和研究人員的行為,這樣你就可以把他們公之于眾,如果他們挑戰(zhàn)現(xiàn)狀,就可以解雇他們。

Efficiency(效率,名詞)—— 即使用較少的數(shù)據(jù)、內(nèi)存、人員或精力來建立一個 AI 系統(tǒng)。

Ethics board (道德委員會,詞組)—— 即一個沒有實權(quán)的顧問小組,召集起來讓你的公司表現(xiàn)出樂于傾聽的樣子。如谷歌的 AI 道德委員會(已取消),F(xiàn)acebook 的監(jiān)督委員會(仍存在)。

Ethics principles(倫理原則,詞組)—— 用來表明你動機良好的老生常談。保持高水平,語言越模糊越好,參見 responsible AI。

Explainable(可解釋的,形容詞)—— 描述一個你、開發(fā)者和用戶都能理解的 AI 系統(tǒng),但對用戶來說就很難實現(xiàn)這一點,可能不值得這么做,參見 interpretable。

Fairness (公平,名詞)—— 一個用來描述公平算法的復(fù)雜概念,可根據(jù)你的偏好以幾十種方式下定義。

For good (永久地,詞組) —— 如 “永久的 AI” 或 “一勞永逸的數(shù)據(jù)”。一個與你的核心業(yè)務(wù)完全無關(guān)的倡議可以幫你起到良好的宣傳效果。

Foresight (遠見,名詞)—— 即展望未來的能力。這基本上是不可能的,因此,你的 AI 系統(tǒng)為何無法擺脫意外后果也就有了非常合理的解釋。

Framework (框架,名詞) –即一套指導(dǎo)決策的方針。這是一個讓你在實際過程中拖延決策時顯得深思熟慮和慎重的好辦法。

Generalizable (可推廣的,形容詞)—— 一個好 AI 模型的標志,即盡管條件不斷變化仍能繼續(xù)工作的 AI 模型,參見 real world。

Governance (管理方式,名詞) —— 即官僚體系。

Human-centered design (以人為本的設(shè)計,詞組)—— 這個過程包括代入 “角色” 來想象一個普通用戶可能想從你的 AI 系統(tǒng)中得到什么,只要有時間的話,可能需要征求實際用戶的反饋,參見 stakeholders。

Human in the loop (人機回圈,詞組) —— 人人都是 AI 系統(tǒng)的一份子。責任范圍很廣,從偽造系統(tǒng)的能力到規(guī)避對自動化的指責。

Impact assessment(影響評估,詞組)—— 你自己對你的公司或 AI 系統(tǒng)進行的評估,來表明你愿意在不做改變的情況下看到其缺點,參見 audit。

Interpretable (可說明的,形容詞)—— 對一個 AI 系統(tǒng)的描述,作為開發(fā)者的你可以一步步遵循其計算過程來理解該系統(tǒng)是如何得出答案的。實際上可能只是線性回歸。AI 聽起來更好。

Integrity(誠信,名詞)—— 即破壞你模型的技術(shù)性能或你公司擴張能力的因素。不要將之與對社會有害的問題弄混淆,也不要把 honesty(誠實)與之混淆。

Interdisciplinary(跨學(xué)科的,形容詞)—— 凡是有不懂編碼的人員的團隊或項目就會用這個術(shù)語,這些人員包括用戶研究者、產(chǎn)品經(jīng)理、道德哲學(xué)家,尤其是道德哲學(xué)家。

Long-term risks(長期風(fēng)險,名詞)—— 在遙遠的未來可能帶來災(zāi)難性后果的壞事情,這也可能永遠不會發(fā)生,但研究和避免長期風(fēng)險比避免現(xiàn)有 AI 系統(tǒng)帶來的直接危害更重要。

Partners(伙伴,名詞)—— 其他精英團體,他們與你有相同的世界觀,并能與你一起維持現(xiàn)狀,參見 stakeholders。

Privacy trade-off(隱私取舍,詞組)—— 犧牲個人對個人信息的控制來實現(xiàn)群體利益,比如 AI 驅(qū)動的醫(yī)療保健進步,這也是非常有利的。

Progress (進步,名詞) —— 科學(xué)和技術(shù)進步。一種固有優(yōu)勢。

Real world(真實世界,詞組)—— 與模擬世界相反,即一個充滿意外驚喜的動態(tài)物理環(huán)境,AI 模型經(jīng)過訓(xùn)練可在該環(huán)境生存。不要將之與人類社會混淆。

Regulation(監(jiān)管,名詞)—— 你呼吁把減輕有害 AI 的責任轉(zhuǎn)嫁給政策制定者。不要將之與阻礙你發(fā)展的政策混淆。

Responsible AI(負責任的人工智能,名詞)—— 即公司內(nèi)凡是公眾認為確實在努力減輕 AI 系統(tǒng)危害的工作。

Robustness(穩(wěn)健性,名詞)——AI 模型在惡意輸入破壞數(shù)據(jù)的情況下仍能連貫無誤工作的能力。

safety(安全性,名詞)—— 即挑戰(zhàn)構(gòu)建不違背設(shè)計者意圖的 AI 系統(tǒng)。不要將之與構(gòu)建不會失敗的 AI 系統(tǒng)混淆,參見 alignment。

Scale(規(guī)模,名詞)—— 即任何好 AI 系統(tǒng)事實上都應(yīng)該努力實現(xiàn)的最終狀態(tài)。

Security(保障,名詞)—— 即保護有價值或敏感數(shù)據(jù)和 AI 模型不被壞人破壞的行為,參見 adversary。

Stakeholders(利益相關(guān)者,名詞)—— 即股東、監(jiān)管機構(gòu)、用戶。你想讓掌權(quán)的人滿意。

Transparency(透明度,名詞)—— 即顯示你的數(shù)據(jù)和代碼。這對所有人和敏感信息不利。因此做到這一點非常困難,坦白來說,可以說是不可能。不要將之理解為闡明你系統(tǒng)的實際工作原理

Trustworthy(可信賴的,形容詞)—— 對一個在足夠協(xié)調(diào)的宣傳下制造出來的 AI 系統(tǒng)的評價。

Universal basic income(普遍基本收入,詞組)—— 向每個人支付固定工資的想法可以平息自動化導(dǎo)致大規(guī)模失業(yè)帶來的大規(guī)模經(jīng)濟動蕩,受到了 2020 年的總統(tǒng)候選人楊安澤的推廣,參見 wealth redistribution。

Validation(驗證,名詞)—— 對 AI 模型進行數(shù)據(jù)測試來檢查模型是否仍準確的過程,而不是對它接入的數(shù)據(jù)進行測試。

Value(價值,名詞)—— 給你的用戶帶來的無形利益,這讓你賺得盆滿缽滿。

Value(價值觀,名詞)—— 提醒人們你有價值觀。

Wealth redistribution(財富再分配,詞組)—— 當人們因為你使用了太多資源和賺了太多錢審查你時,這個想法很有用。財富再分配如何運作呢?當然是靠普遍基本收入。這需要監(jiān)管,也不是你自己能搞清楚的,參見 regulation。

Withhold publication(拒絕公開,詞組)—— 選擇不開放源代碼的慈善行為,因為這可能會落入壞人的手中。最好是限制買得起源代碼的合作伙伴的使用權(quán)。

原文標題:谷歌、Facebook等科技巨頭是如何討論AI倫理的?

文章出處:【微信公眾號:DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108087
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35065

    瀏覽量

    279335

原文標題:谷歌、Facebook等科技巨頭是如何討論AI倫理的?

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    工程師職位,還有數(shù)據(jù)科學(xué)家、AI產(chǎn)品經(jīng)理、AI倫理專家等多種角色。根據(jù)自己的興趣和技能,有針對性地準備簡歷和面試,例如在面試AI工程師職位時,要能夠熟練地講解自己參與過的
    發(fā)表于 07-08 17:44

    請問X—CUBE—AI和touchgfx沒法同時使用嗎?

    啟用了touchgfx,X—CUBE-AI的device application就無法選擇了?這倆工具沒法同時使用嗎?小白求問佬
    發(fā)表于 06-06 07:16

    651主板現(xiàn)在是不是過時了?

    651主板現(xiàn)在確實可以認為是過時了 ?。雖然對于某些特定需求或預(yù)算有限的用戶來說,651主板可能仍然有一定的使用價值,但從整體技術(shù)發(fā)展和市場趨勢來看,651主板已經(jīng)不再是主流選擇。 一方面,隨著
    的頭像 發(fā)表于 03-03 14:45 ?262次閱讀

    四大云廠商怒砸3200億美元升級AI Infra

    DeepSeek發(fā)布R1后引發(fā)業(yè)內(nèi)震動,華爾街對科技巨頭的巨額資本支出提出質(zhì)疑。在此背景下,全球科技巨頭選擇繼續(xù)加碼AI,美股AI軍備賽再
    的頭像 發(fā)表于 02-12 17:36 ?1193次閱讀

    自動化巨頭布局生成式AI,先瞄準PLC編程?

    今科技迅猛發(fā)展的時代,自動化行業(yè)的巨頭正在積極布局生成式AI,以期在未來的競爭中占據(jù)先機。這一轉(zhuǎn)型不僅是技術(shù)革新,更是行業(yè)內(nèi)外所關(guān)注的熱議話題。生成式AI能夠自動化地生成文本、圖像、
    的頭像 發(fā)表于 01-21 17:24 ?526次閱讀

    不懂就問AIAI大模型embeding是什么

    osc推文看到一部分內(nèi)容,關(guān)于AI的,雖然作者早期也做過AI的一部分工作,就是簡單的訓(xùn)練和預(yù)測,也是用的GAN等類似的生成對抗網(wǎng)絡(luò),但是畢竟好多年沒有用了,而且現(xiàn)在是大語言模型相關(guān)的概念還是沒怎么
    的頭像 發(fā)表于 11-09 10:31 ?1910次閱讀
    不懂就問<b class='flag-5'>AI</b>:<b class='flag-5'>AI</b>大模型embeding是什么

    名單公布!【書籍評測活動NO.49】大模型啟示錄:一本AI應(yīng)用百科全書

    過程中,作者還邀請了 數(shù)十位產(chǎn)業(yè)一線從業(yè)者參與共創(chuàng) ,他們中的許多人曾是“共識粉碎機”主辦的“AI 顛覆軟件討論會”的嘉賓,來自全球頂尖科技公司、大模型創(chuàng)業(yè)公司、投資基金公司及大學(xué)的前沿實驗室。我們將在
    發(fā)表于 10-28 15:34

    AI大模型的倫理與社會影響

    AI大模型的倫理與社會影響是一個復(fù)雜且多維度的話題,以下是對其倫理與社會影響的分析: 一、倫理挑戰(zhàn) 數(shù)據(jù)隱私與安全性 AI大模型學(xué)習(xí)通常依賴
    的頭像 發(fā)表于 10-23 15:13 ?1891次閱讀

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    了傳統(tǒng)學(xué)科界限,使得科學(xué)家能夠從更加全面和深入的角度理解生命的奧秘。同時,AI技術(shù)的引入也催生了一種全新的科學(xué)研究范式,即數(shù)據(jù)驅(qū)動的研究范式,這種范式強調(diào)從大量數(shù)據(jù)中提取有價值的信息,從而推動科學(xué)研究
    發(fā)表于 10-14 09:21

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    偏見、倫理道德等問題。此外,如何更好地將AI與科學(xué)研究人員的傳統(tǒng)工作模式相融合,也是一個亟待解決的問題。未來,隨著技術(shù)的不斷進步和應(yīng)用場景的拓展,AI for Science有望在更多領(lǐng)域發(fā)揮關(guān)鍵作用
    發(fā)表于 10-14 09:16

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,還促進了新理論、新技術(shù)的誕生。 3. 挑戰(zhàn)與機遇并存 盡管人工智能為科學(xué)創(chuàng)新帶來了巨大潛力,但第一章也誠實地討論了伴隨而來的挑戰(zhàn)。數(shù)據(jù)隱私、算法偏見、倫理道德等問題不容忽視。如何在利用AI提升科研效率
    發(fā)表于 10-14 09:12

    RISC-V如何支持不同的AI和機器學(xué)習(xí)框架和庫?

    RISC-V如何支持不同的AI和機器學(xué)習(xí)框架和庫?還請壇友多多指教一下。
    發(fā)表于 10-10 22:24

    全球科技巨頭競相加碼AI領(lǐng)域,中國企業(yè)不甘示弱

    在2024年這一科技浪潮涌動的年份,中國科技巨頭繼續(xù)深化在人工智能(AI)技術(shù)領(lǐng)域的布局,展現(xiàn)出強大的投資力度與戰(zhàn)略眼光。據(jù)最新報道,BAT(百度、阿里巴巴、騰訊)三大巨頭在上半年于AI
    的頭像 發(fā)表于 08-30 14:43 ?948次閱讀

    OpenAI邁向AI芯片新紀元:與博通等巨頭共謀未來

    先進AI模型聞名遐邇的巨頭,已正式接觸博通(Broadcom)在內(nèi)的多家芯片設(shè)計商,共同探索研發(fā)全新的AI芯片。這一舉措不僅標志著OpenAI在AI硬件領(lǐng)域的雄心壯志,也預(yù)示著全球半導(dǎo)
    的頭像 發(fā)表于 07-19 16:48 ?1032次閱讀

    平衡創(chuàng)新與倫理AI時代的隱私保護和算法公平

    在人工智能技術(shù)飛速發(fā)展的今天,它不僅帶來了前所未有的便利和效率,也暴露出了一系列倫理和隱私問題。從數(shù)據(jù)隱私侵犯到“信息繭房”的形成,再到“大數(shù)據(jù)殺熟”、AI歧視和深度偽造技術(shù)的威脅,AI的應(yīng)用似乎
    發(fā)表于 07-16 15:07
    主站蜘蛛池模板: 4444狠狠| 激情欧美在线 | 久操视频在线观看免费 | 国产日韩一区二区三区 | 香蕉网影院在线观看免费 | 国产伦精品一区二区三区高清 | 免费又爽又黄1000禁片 | 欧美一区二区三区四区在线观看 | 国产一级毛片国语版 | 色婷婷影院 | 久久网站免费观看 | 国产毛片久久国产 | 国产日韩精品一区二区在线观看 | 天堂中文在线资源 | 成片免费的禁v影片 | yy8090韩国日本三理论免费 | 深夜大尺度视频在线观看 | 在线色播 | 51精品国产 | 人人艹在线观看 | 超色视频 | 午夜免费的国产片在线观看 | tube69hdxxxx日本| 欧美成人3d动漫在线播放网站 | 天堂网在线www最新版在线 | 伊人丁香婷婷综合一区二区 | 免费观看片 | 手机看片日韩高清1024 | 天堂中文在线观看 | 婷婷亚洲综合五月天小说在线 | 特一级毛片 | 亚洲欧美一区二区三区麻豆 | 四虎影城 | 免费黄色a视频 | 日本色黄 | 欧美色爱综合 | 黄色大秀 | 色偷偷男人天堂 | 在线色网站| ww欧洲ww在线视频看 | 天天干夜夜爱 |