導(dǎo)語:洗禮者是天真的理想主義者,走私者是憤世嫉俗的操作者,但走私者會獲得勝利。
人工智能時代已經(jīng)到來,人們對此感到驚訝不已。
幸運(yùn)的是,我在這里給大家?guī)砗孟ⅲ喝斯ぶ悄懿粫缡澜纾聦?shí)上它可能拯救世界。
首先,簡要介紹一下人工智能是什么:它是將數(shù)學(xué)和軟件代碼應(yīng)用于教會計算機(jī)以類似于人類的方式理解、綜合和生成知識的技術(shù)。人工智能就像任何其他計算機(jī)程序一樣——它運(yùn)行、接收輸入、處理數(shù)據(jù)并生成輸出。人工智能的輸出在許多領(lǐng)域都非常有用,包括編程、醫(yī)學(xué)、法律和創(chuàng)意藝術(shù)。它是由人擁有和控制的,就像任何其他技術(shù)一樣。
關(guān)于人工智能的簡短描述:它不是會突然活過來并決定殺害人類或毀滅一切的殺人軟件和機(jī)器人,就像電影中所展現(xiàn)的那樣。
更為簡短的描述:人工智能是一種能夠讓我們關(guān)心的一切變得更好的方式。
為什么人工智能可以讓我們關(guān)心的一切變得更好
社會科學(xué)在許多十年和成千上萬的研究中得出的最為驗(yàn)證的核心結(jié)論是,人類智能可以在生活的各個方面取得更好的結(jié)果。更聰明的人在幾乎所有活動領(lǐng)域都能取得更好的成就:學(xué)術(shù)成就、工作表現(xiàn)、職業(yè)地位、收入、創(chuàng)造力、身體健康、壽命、學(xué)習(xí)新技能、處理復(fù)雜任務(wù)、領(lǐng)導(dǎo)能力、創(chuàng)業(yè)成功、沖突解決、閱讀理解、金融決策、理解他人的觀點(diǎn)、創(chuàng)意藝術(shù)、育兒成果和生活滿意度。
此外,人類智能是我們幾千年來用來創(chuàng)造我們今天生活世界的杠桿:科學(xué)、技術(shù)、數(shù)學(xué)、物理學(xué)、化學(xué)、醫(yī)學(xué)、能源、建筑、交通、通信、藝術(shù)、音樂、文化、哲學(xué)、倫理學(xué)、道德。如果沒有在所有這些領(lǐng)域應(yīng)用智能,我們?nèi)匀粫≡谀辔葜校^著勉強(qiáng)維持的農(nóng)耕生活。相反,我們利用智能將我們的生活水平提高了約10,000倍,過去4000年間取得了巨大的進(jìn)步。
人工智能為我們提供了深度增強(qiáng)人類智能的機(jī)會,可以使所有這些智能成果(以及從創(chuàng)造新藥物到解決氣候變化和太空技術(shù)的方式等其他領(lǐng)域)在這個基礎(chǔ)上變得更好得多。
人工智能對人類智能的增強(qiáng)已經(jīng)開始了——人工智能已經(jīng)以各種計算機(jī)控制系統(tǒng)的形式存在于我們周圍,如今通過像ChatGPT這樣的大規(guī)模語言模型迅速升級,并且如果我們允許的話,將會從這里迅速加速發(fā)展。
在我們的人工智能新時代中:
每個孩子將擁有一位無限耐心、無限同情、無限知識和無限幫助的人工智能導(dǎo)師。這位人工智能導(dǎo)師將在每個孩子成長的每個階段都與他們并肩而行,以機(jī)器版的無限愛幫助他們最大限度地發(fā)揮潛力。
每個人都將擁有一位無限耐心、無限同情、無限知識和無限幫助的人工智能助手/教練/導(dǎo)師/培訓(xùn)師/顧問/心理治療師。這位人工智能助手將在人生的各個機(jī)遇和挑戰(zhàn)中一直陪伴,最大化每個人的成果。
每個科學(xué)家都將擁有一位能極大擴(kuò)展他們科研和成就范圍的人工智能助手/合作者/伙伴。每個藝術(shù)家、工程師、商人、醫(yī)生、照料者都將在他們的領(lǐng)域中擁有同樣的助手。
每個CEO、政府官員、非營利組織主席、體育教練、教師——都將有同樣的機(jī)會。領(lǐng)導(dǎo)者在引導(dǎo)他們所領(lǐng)導(dǎo)的人方面做出更好決策的放大效應(yīng)是巨大的,因此這種智能增強(qiáng)可能是最重要的。
經(jīng)濟(jì)中的生產(chǎn)力增長將大幅加速,推動經(jīng)濟(jì)增長、新產(chǎn)業(yè)的創(chuàng)造、新工作的創(chuàng)造和工資增長,從而帶來全球范圍內(nèi)物質(zhì)繁榮的新時代。
科學(xué)突破、新技術(shù)和新藥物將大幅擴(kuò)展,因?yàn)槿斯ぶ悄軒椭覀冞M(jìn)一步解碼自然法則并利用它們?yōu)槲覀冎\福利。
創(chuàng)意藝術(shù)將進(jìn)入黃金時代,因?yàn)榻?jīng)過人工智能增強(qiáng)的藝術(shù)家、音樂家、作家和電影制作人能夠以比以往更快、更大規(guī)模地實(shí)現(xiàn)他們的愿景。
我甚至認(rèn)為,當(dāng)戰(zhàn)爭不可避免時,人工智能將改善戰(zhàn)爭,大大降低戰(zhàn)時死亡率。每場戰(zhàn)爭都以在極大壓力下、信息嚴(yán)重受限的情況下由非常有限的人類領(lǐng)導(dǎo)者做出的可怕決策為特征。現(xiàn)在,軍事指揮官和政治領(lǐng)導(dǎo)人將有人工智能顧問,將幫助他們做出更好的戰(zhàn)略和戰(zhàn)術(shù)決策,最大限度地減少風(fēng)險、錯誤和不必要的流血犧牲。
簡而言之,人們今天所運(yùn)用的自然智能,通過人工智能可以更好地實(shí)現(xiàn),我們將能夠應(yīng)對那些在沒有人工智能的情況下無法解決的新挑戰(zhàn),從治愈所有疾病到實(shí)現(xiàn)星際旅行。
而且,這不僅僅涉及智能。人工智能最被低估的特質(zhì)也許是它如何賦予人類更多人性。人工智能藝術(shù)使那些在技術(shù)技能上欠缺的人們擁有自由創(chuàng)作和分享他們的藝術(shù)思想。與富有同情心的人工智能朋友交談確實(shí)提高了人們應(yīng)對逆境的能力。而且,與人類對應(yīng)的醫(yī)療聊天機(jī)器人已經(jīng)更加富有同理心。無限耐心和同情心的人工智能將使世界變得更加溫暖和友好,而不是讓世界變得更加冷酷和機(jī)械化。
這里的風(fēng)險很高,機(jī)遇也非常深遠(yuǎn)。人工智能很可能是我們文明創(chuàng)造的最重要、最好的事物,與電力和微芯片相媲美,甚至可能超越它們。
人工智能的發(fā)展和普及——遠(yuǎn)非我們應(yīng)該害怕的風(fēng)險——是我們對自己、對我們的孩子和對我們未來的道義責(zé)任。
我們應(yīng)該生活在一個借助人工智能變得更美好的世界,現(xiàn)在我們可以實(shí)現(xiàn)這一目標(biāo)。
為什么會出現(xiàn)恐慌情緒?
與這種積極的觀點(diǎn)相反,目前關(guān)于人工智能的公眾討論充斥著歇斯底里的恐懼和偏執(zhí)。
有人聲稱人工智能將以各種方式殺死我們所有人,毀壞我們的社會,奪走我們所有的工作,導(dǎo)致嚴(yán)重的不平等,并使壞人能夠做出可怕的事情。
為什么在人工智能的潛在結(jié)果中會出現(xiàn)這種從近乎烏托邦到可怕的反烏托邦的差異呢?
從歷史上看,每一項(xiàng)重要的新技術(shù),無論是電燈照明、汽車、無線電還是互聯(lián)網(wǎng),都引發(fā)了一場道德恐慌——一種社會傳染病,使人們相信新技術(shù)將摧毀世界、破壞社會,或兩者兼有。Pessimists Archive的研究人員在過去幾十年中記錄了這些與技術(shù)相關(guān)的道德恐慌;他們的歷史清晰地展現(xiàn)了這一模式。事實(shí)證明,當(dāng)前的人工智能恐慌甚至不是第一次出現(xiàn)。
當(dāng)然,許多新技術(shù)確實(shí)導(dǎo)致了不良結(jié)果——通常是那些在其他方面對我們福祉有巨大益處的技術(shù)。因此,并不是道德恐慌的存在意味著沒有什么值得關(guān)注的問題。
但是,道德恐慌本質(zhì)上是非理性的——它將可能是合理關(guān)切的問題夸大到一種歇斯底里的程度,諷刺的是,這使得真正嚴(yán)重的問題更難以應(yīng)對。
現(xiàn)在,我們對人工智能出現(xiàn)了一場全面的道德恐慌。
這種道德恐慌已經(jīng)被各種行為者作為一種推動力量,要求政策行動——制定新的人工智能限制、監(jiān)管和法律。這些行為者對人工智能的危險發(fā)表極具戲劇性的公開聲明,以此滋養(yǎng)和加劇道德恐慌,他們都把自己描繪成無私的公共利益捍衛(wèi)者。
但他們真的是嗎?
他們的觀點(diǎn)是對還是錯?
AI的洗禮者和走私者
經(jīng)濟(jì)學(xué)家觀察到這種改革運(yùn)動中的一種長期模式。在這類運(yùn)動中,參與者分為兩類——“洗禮者”和“走私者”——借鑒了上世紀(jì)20年代美國禁酒令的歷史例子:
“洗禮者”是真正的社會改革者,他們出于情感上的、而非理性上的原因,確實(shí)深切地認(rèn)為需要制定新的限制、監(jiān)管和法律來防止社會災(zāi)難的發(fā)生。在禁酒令中,這些參與者通常是虔誠的基督徒,他們認(rèn)為酒精正在破壞社會的道德結(jié)構(gòu)。對于AI風(fēng)險來說,這些參與者真心實(shí)意地認(rèn)為人工智能存在一種或多種存在威脅——用測謊儀測,他們是認(rèn)真的。
“走私者”是自私的機(jī)會主義者,他們將從新的限制、監(jiān)管和法律中獲得經(jīng)濟(jì)利益,使自己免受競爭的沖擊。在禁酒令中,這些人就是以非法方式向美國人銷售非法酒精而發(fā)了財?shù)娜恕τ贏I風(fēng)險來說,這些人是CEO,如果建立起規(guī)范性障礙,形成一家由政府認(rèn)可的人工智能供應(yīng)商壟斷組織,可以保護(hù)它們免受新創(chuàng)業(yè)公司和開源競爭的沖擊,就像是“太大而不能倒”的銀行一樣。
憤世嫉俗者可能會提出,一些表面上是洗禮者的人也是走私者——特別是那些受到大學(xué)、智庫、活動團(tuán)體和媒體機(jī)構(gòu)支付薪水或獲得資助來宣揚(yáng)人工智能恐慌的人。如果你得到薪水或獲得資助來宣揚(yáng)人工智能恐慌...你很可能是一個走私者。
走私者的問題在于他們會獲得勝利。洗禮者是天真的理想主義者,走私者是憤世嫉俗的操作者,因此這類改革運(yùn)動的結(jié)果通常是走私者得到他們想要的——監(jiān)管壟斷、免受競爭的沖擊、壟斷組織的形成——而洗禮者則納悶著他們?yōu)榱松鐣M(jìn)步而努力的動力到底出了什么問題。
我們剛剛經(jīng)歷了一個驚人的例子——2008年全球金融危機(jī)后的銀行改革。洗禮者告訴我們,我們需要新的法律和監(jiān)管來打破“太大而不能倒”的銀行,以防止類似危機(jī)再次發(fā)生。于是,美國國會通過了2010年的《多德-弗蘭克法案》,宣傳稱滿足了洗禮者的目標(biāo),但實(shí)際上被走私者——大銀行所利用。結(jié)果是,2008年那些“太大而不能倒”的銀行現(xiàn)在變得更加龐大了。
因此,實(shí)際上,即使洗禮者是真誠的,即使洗禮者是正確的,他們也會被善于操縱和貪婪的走私者利用,以謀取自己的利益。
這正是當(dāng)前推動人工智能監(jiān)管的情況。
然而,僅僅識別參與者并質(zhì)疑他們的動機(jī)是不夠的。我們應(yīng)該對洗禮者和走私者的論點(diǎn)進(jìn)行評估。
AI風(fēng)險1:人工智能會殺死我們所有人嗎?
首個也是最早的人工智能厄運(yùn)論風(fēng)險是人工智能會決定實(shí)際上殺死人類。
對我們自己創(chuàng)造的技術(shù)將會崛起并摧毀我們的恐懼根深蒂固地融入到我們的文化中。古希臘人在普羅米修斯神話中表達(dá)了這種恐懼——普羅米修斯給人類帶來了毀滅性的火焰和更廣義的技術(shù)(“技藝”),而為此普羅米修斯被眾神永久折磨。后來,瑪麗·雪萊在她的小說《弗蘭肯斯坦》或《現(xiàn)代普羅米修斯》中給了我們現(xiàn)代人一個自己的版本,其中我們開發(fā)了永生的技術(shù),然后這種技術(shù)升起并試圖摧毀我們。當(dāng)然,任何關(guān)于人工智能的恐慌報道都不會完整,沒有詹姆斯·卡梅隆的《終結(jié)者》系列電影中一個閃亮紅眼睛的殺人機(jī)器人的靜止圖像。
這種神話的推測性進(jìn)化目的是激勵我們認(rèn)真考慮新技術(shù)的潛在風(fēng)險——畢竟,火焰確實(shí)可以用來燒毀整個城市。但就像火焰也是現(xiàn)代文明的基石,用來使我們在寒冷和敵對的世界中保持溫暖和安全一樣,這種神話忽視了大多數(shù)新技術(shù)的更大潛力——也許是全部潛力?——并且實(shí)際上煽動了破壞性的情緒,而非理性分析。僅僅因?yàn)楣糯藭襁@樣驚慌失措,并不意味著我們必須這樣做;我們可以應(yīng)用理性。
我的觀點(diǎn)是,人工智能會決定實(shí)際上殺死人類的觀點(diǎn)是一個深刻的范疇錯誤。人工智能不是一個有著億萬年進(jìn)化歷程、已經(jīng)被激發(fā)參與適者生存競爭的生命體,就像動物和我們一樣。它只是數(shù)學(xué)——代碼——由人構(gòu)建、由人擁有、由人使用、由人控制的計算機(jī)。它會在某個時刻發(fā)展出自己的思維,并決定有動機(jī)導(dǎo)致它試圖殺死我們的想法是一種迷信的觀點(diǎn)。
簡而言之,人工智能沒有欲望,它沒有目標(biāo),它不想殺死你,因?yàn)樗皇腔畹摹H斯ぶ悄苁且环N機(jī)器,就像你的烤面包機(jī)一樣,不會比它更有生命。
顯然,有些人是對殺手人工智能深信不疑的人——洗禮者——他們因?yàn)榭植赖木娑蝗猾@得了極高的媒體關(guān)注,其中一些人聲稱已經(jīng)研究這個主題數(shù)十年,并表示他們對所了解到的內(nèi)容感到恐懼。其中一些真信徒甚至是這項(xiàng)技術(shù)的創(chuàng)新者。這些人主張對人工智能實(shí)施各種奇怪和極端的限制,從禁止人工智能的發(fā)展,一直到對數(shù)據(jù)中心進(jìn)行軍事空襲和核戰(zhàn)爭。他們認(rèn)為,由于像我這樣的人無法排除人工智能未來可能帶來的災(zāi)難性后果,我們必須采取預(yù)防性的立場,可能需要大量的實(shí)際暴力和死亡來防止?jié)撛诘拇嬖陲L(fēng)險。
我的回應(yīng)是,他們的立場是非科學(xué)的——有什么可以進(jìn)行檢驗(yàn)的假設(shè)?什么會證偽這個假設(shè)?我們?nèi)绾沃朗裁磿r候進(jìn)入了危險區(qū)域?除了“你不能證明它不會發(fā)生!”之外,這些問題基本上沒有得到回答。事實(shí)上,這些洗禮者的立場非常非科學(xué)和極端——是一種關(guān)于數(shù)學(xué)和代碼的陰謀論——而且已經(jīng)呼吁實(shí)施實(shí)際暴力,所以我會做一些我通常不會做的事情,質(zhì)疑他們的動機(jī)。
具體來說,我認(rèn)為有三個方面的情況發(fā)生了變化:
首先,回想一下,約翰·馮·諾伊曼對羅伯特·奧本海默有關(guān)他參與制造核武器的憂慮做出了回應(yīng)——這些核武器幫助結(jié)束了第二次世界大戰(zhàn)并阻止了第三次世界大戰(zhàn)——他說:“有些人承認(rèn)罪行是為了聲稱自己的功勞。”有什么辦法可以以最引人注目的方式聲稱自己的工作的重要性,而不顯得過于自負(fù)呢?這解釋了那些實(shí)際上正在構(gòu)建和資助人工智能的洗禮者言行不一致的現(xiàn)象——觀察他們的行動,而不是他們的言辭。(杜魯門在與奧本海默會面后說得更狠:“別讓那個哭鼻子再進(jìn)來”)。
其次,一些洗禮者實(shí)際上是走私者。有一個專門的職業(yè)“人工智能安全專家”、“人工智能倫理學(xué)家”、“人工智能風(fēng)險研究員”。他們是為了悲觀而受薪水的,他們的言論應(yīng)該得到適當(dāng)?shù)奶幚怼?/p>
第三, 加利福尼亞州因我們眾多的邪教而聞名,從培訓(xùn)魂、人民寺廟,到天堂之門和曼森家族。盡管并非所有這些邪教都是有害的,甚至對于那些感到疏離的人來說,它們可能有助于找到一個歸屬感。但有些邪教確實(shí)非常危險,邪教通常很難在終將導(dǎo)致暴力和死亡的界限上取得平衡。
事實(shí)是,對于舊金山灣區(qū)的每個人來說顯而易見,但可能對其他地方的人來說并不明顯,"人工智能風(fēng)險"已經(jīng)發(fā)展成為一個邪教,并突然在全球媒體關(guān)注和公眾討論中浮出水面。這個邪教不僅吸引了一些邊緣人物,還吸引了一些真正的行業(yè)專家和相當(dāng)數(shù)量的富有捐贈者,其中包括直到最近的山姆·班克曼-弗里德。它還發(fā)展出了一整套邪教行為和信仰。
正是由于這種邪教,才出現(xiàn)了一群聲音極端的人工智能風(fēng)險悲觀者——并不是因?yàn)樗麄冋娴膿碛心撤N秘密的知識,使得他們的極端主義變得合乎邏輯,而是因?yàn)樗麄冏约喊炎约杭拥茂偪瘢娴氖菢O端到極點(diǎn)。
事實(shí)證明,這種類型的邪教并不新鮮——在西方有著悠久的千禧年主義傳統(tǒng),會產(chǎn)生啟示錄型邪教。人工智能風(fēng)險邪教具有所有千禧年啟示錄型邪教的特征。以下是來自維基百科的內(nèi)容,我加入了一些補(bǔ)充:
千禧主義是一種由一群人或運(yùn)動(AI風(fēng)險厭惡者)相信社會即將發(fā)生根本性轉(zhuǎn)變(AI的出現(xiàn))的信念,隨后一切都將發(fā)生改變(AI烏托邦、反烏托邦或世界末日)。只有戲劇性的事件(AI禁令、對數(shù)據(jù)中心的空襲、對無監(jiān)管AI的核打擊)被視為能夠改變世界(阻止AI),而這種變革預(yù)計將由一群虔誠而專注的人群帶來或幸存下來。在大多數(shù)千禧主義情景中,即將到來的災(zāi)難或戰(zhàn)斗(AI啟示錄或其預(yù)防)將被一個新的、純凈的世界(AI禁令)所緊隨,信徒將會得到獎賞(或至少被承認(rèn)一直正確)。
這種末日邪教的模式如此明顯,以至于我對更多的人沒有看到它感到驚訝。
別誤會,了解邪教是很有趣的,它們的書面材料常常富有創(chuàng)意和吸引力,它們的成員在晚宴和電視節(jié)目中也很引人入勝。但是,它們的極端信仰不應(yīng)決定法律和社會的未來-顯然不應(yīng)該。
AI風(fēng)險2:人工智能會毀掉我們的社會嗎?
第二個廣為傳播的AI風(fēng)險是AI會毀掉我們的社會,通過產(chǎn)生輸出結(jié)果,即使我們沒有被直接殺害,也會對人類造成深遠(yuǎn)的傷害,使用這種末日論者的術(shù)語來說就是“有害”的。
簡而言之,如果殺人機(jī)器人不能殺死我們,仇恨言論和錯誤信息將會毀掉我們。
這是一個相對較新的末日論關(guān)注點(diǎn),它分支出來并在一定程度上接管了我上面描述的“AI風(fēng)險”運(yùn)動。實(shí)際上,AI風(fēng)險的術(shù)語最近從“AI安全”(由擔(dān)心AI會直接殺死我們的人使用)變?yōu)椤癆I對齊”(由擔(dān)心社會“傷害”的人使用)。最初關(guān)注AI安全的人對這種轉(zhuǎn)變感到沮喪,盡管他們不知道如何讓它回到原來的軌道-他們現(xiàn)在主張將實(shí)際的AI風(fēng)險主題更名為“AI不會殺掉所有人主義”,盡管這種術(shù)語尚未被廣泛采用,但至少它是清楚的。
AI社會風(fēng)險主張的特點(diǎn)就是它自己的術(shù)語:“AI對齊”。對齊什么?人類價值觀。哪些人類價值觀?啊,這就是問題的復(fù)雜之處。
碰巧的是,我親眼目睹了類似的情況-社交媒體的“信任與安全”戰(zhàn)爭。如今顯而易見,社交媒體服務(wù)多年來一直面臨來自政府和活動人士的巨大壓力,要求禁止、限制、審查和壓制各種內(nèi)容。而“仇恨言論”(及其數(shù)學(xué)對應(yīng)物“算法偏見”)和“錯誤信息”的相同擔(dān)憂直接從社交媒體背景轉(zhuǎn)移到了“AI對齊”的新領(lǐng)域。
我從社交媒體戰(zhàn)爭中獲得的主要教訓(xùn)是:
一方面,不存在絕對的言論自由立場。首先,包括美國在內(nèi)的每個國家至少都會將某些內(nèi)容定為非法。其次,某些內(nèi)容,比如兒童色情和煽動現(xiàn)實(shí)世界暴力的行為,幾乎被幾乎每個社會普遍認(rèn)為是禁止的-不論是否合法。因此,任何促進(jìn)或生成內(nèi)容(言論)的技術(shù)平臺都將受到一定的限制。
另一方面,滑坡效應(yīng)不是謬誤,而是不可避免的結(jié)果。一旦建立了限制甚至極其可怕內(nèi)容的框架,例如針對仇恨言論、傷害性詞語或錯誤信息(如“教皇去世”這樣明顯的虛假陳述),將會有令人震驚的廣泛政府機(jī)構(gòu)、活動人士壓力團(tuán)體和非政府實(shí)體踏入行動,并要求對他們認(rèn)為威脅社會和/或個人偏好的言論進(jìn)行越來越多的審查和壓制,甚至采取公然犯罪的方式。實(shí)際上,這種循環(huán)似乎可以無限延續(xù),得到整個精英權(quán)力結(jié)構(gòu)中那些積極支持的權(quán)威主義監(jiān)察員的支持。這在社交媒體上已經(jīng)持續(xù)了十年,除了一些特例,情況越來越熱烈。
因此,這就是現(xiàn)在圍繞“AI對齊”形成的動態(tài)。其支持者聲稱擁有智慧來設(shè)計對社會有益的AI生成的言論和思想,并禁止對社會有害的AI生成的言論和思想。而其反對者則聲稱思想警察極其傲慢和專橫-而且在美國至少往往是徹底違法的,并實(shí)際上試圖成為一種新型的融合政府-企業(yè)-學(xué)術(shù)權(quán)威主義言論專政,直接從喬治·奧威爾的《1984》中摘取。
由于“信任與安全”和“AI對齊”的支持者都聚集在全球人口中非常狹窄的一部分中,這部分人正是美國沿海精英的代表,其中包括許多科技行業(yè)的從業(yè)人員和作家,我相信我的許多讀者會認(rèn)為,為了避免摧毀社會,對AI輸出進(jìn)行嚴(yán)格限制是必要的。我現(xiàn)在不打算說服你們改變這種觀點(diǎn),我只是簡單地陳述這是需求的本質(zhì),而且世界上大多數(shù)人既不同意你們的意識形態(tài),也不希望看到你們獲勝。
如果你不同意當(dāng)前通過不斷加強(qiáng)的言論規(guī)范對社交媒體和AI強(qiáng)加的小眾道德觀,你應(yīng)該意識到對AI允許說什么/生成什么的爭論將比對社交媒體審查的爭論更加重要-遠(yuǎn)遠(yuǎn)重要。AI極有可能成為世界上一切事物的控制層。它被允許如何運(yùn)作可能比任何其他事情都更加重要。你應(yīng)該意識到,一小撮孤立的黨派社會工程師正在試圖在他們聲稱為了保護(hù)你們的名義下,決定這一點(diǎn)。
簡而言之,不要讓思想警察壓制AI。
AI風(fēng)險3:會奪走我們所有的工作嗎?
擔(dān)心因機(jī)械化、自動化、計算機(jī)化或AI而導(dǎo)致失業(yè)的恐懼已經(jīng)持續(xù)數(shù)百年,自從機(jī)械織布機(jī)等機(jī)械裝置首次出現(xiàn)以來。盡管每一項(xiàng)重大新技術(shù)在歷史上都帶來了更多高薪工作,但每一波這種恐慌都伴隨著“這一次不同”的說法-這一次終于會發(fā)生,這一次的技術(shù)將給人類勞動力以致命一擊。然而,這從未發(fā)生過。
在最近的過去,我們經(jīng)歷過兩次由技術(shù)驅(qū)動的失業(yè)恐慌周期-2000年代的外包恐慌和2010年代的自動化恐慌。盡管在這兩個十年里,許多評論家、專家甚至科技行業(yè)高管都大聲疾呼大規(guī)模失業(yè)即將來臨,但到2019年底-即COVID爆發(fā)前-世界上的工作崗位數(shù)量創(chuàng)歷史新高,薪資水平也達(dá)到了歷史最高水平。
然而,這個錯誤觀念卻不會消失。
果然,它又回來了。
這一次,我們終于有了一種將奪走所有工作,使人類工人變得多余的技術(shù)-真正的人工智能。這一次歷史不會重演,AI將導(dǎo)致大規(guī)模失業(yè),而不是迅速的經(jīng)濟(jì)、就業(yè)和工資增長,對嗎?
不,那是不可能發(fā)生的-事實(shí)上,如果允許人工智能在經(jīng)濟(jì)中得以發(fā)展和普及,它可能會引發(fā)有史以來最引人注目和持續(xù)的經(jīng)濟(jì)繁榮,相應(yīng)地創(chuàng)造就業(yè)和工資增長的紀(jì)錄-正好與恐懼相反。原因如下。
自動化殺死工作的末日論者一直在犯的核心錯誤被稱為“勞動總量謬誤”。這種謬誤是錯誤的觀念,即在任何特定時期內(nèi),經(jīng)濟(jì)中需要完成的勞動是固定的,要么由機(jī)器完成,要么由人類完成-如果由機(jī)器完成,就不會有工作可供人類去做。
勞動總量謬誤自然而然地源于天真的直覺,但在這里,天真的直覺是錯誤的。當(dāng)技術(shù)應(yīng)用于生產(chǎn)時,我們獲得了生產(chǎn)力增長-即通過減少投入而增加產(chǎn)出。其結(jié)果是商品和服務(wù)的價格下降。隨著商品和服務(wù)的價格下降,我們支付的費(fèi)用也減少了,這意味著我們現(xiàn)在有額外的消費(fèi)能力,可以購買其他東西。這增加了經(jīng)濟(jì)中的需求,推動了新的生產(chǎn)-包括新產(chǎn)品和新行業(yè)-的創(chuàng)造,從而為以前被機(jī)器取代的人們創(chuàng)造了新的就業(yè)機(jī)會。結(jié)果是一個更大的經(jīng)濟(jì)體,物質(zhì)繁榮水平更高,行業(yè)更多,產(chǎn)品更多,就業(yè)機(jī)會也更多。
但好消息還不止于此。我們還會獲得更高的工資。這是因?yàn)椋瑥膫€體工人的層面來看,市場根據(jù)工人的邊際生產(chǎn)力來確定報酬。與傳統(tǒng)企業(yè)相比,科技融入業(yè)務(wù)的工人將更具生產(chǎn)力。雇主要么會因?yàn)楣と说纳a(chǎn)力提高而支付更多的薪水,要么其他雇主會純粹出于自身利益而支付更多薪水。結(jié)果是,引入技術(shù)到一個行業(yè)通常不僅會增加該行業(yè)的就業(yè)機(jī)會,還會提高工資水平。
總結(jié)一下,技術(shù)使人們能夠更具生產(chǎn)力。這導(dǎo)致現(xiàn)有商品和服務(wù)的價格下降,工資上升。這進(jìn)而導(dǎo)致經(jīng)濟(jì)增長和就業(yè)增長,并激勵創(chuàng)造新的工作崗位和新的產(chǎn)業(yè)。如果市場經(jīng)濟(jì)得以正常運(yùn)作,如果技術(shù)得以自由引入,這將是一個永不停歇的持續(xù)向上循環(huán)。正如彌爾頓·弗里德曼所觀察到的,“人類的欲望和需求是無窮無盡的”-我們總是希望擁有更多。科技融入市場經(jīng)濟(jì)是我們接近滿足每個人可能想要的一切,但永遠(yuǎn)無法完全實(shí)現(xiàn)的方式。這就是為什么技術(shù)不會破壞就業(yè),永遠(yuǎn)也不會。
對于那些沒有接觸過這些思想的人來說,這些想法確實(shí)是令人震驚的,可能需要一些時間來理解。但我發(fā)誓我并不是編造它們-事實(shí)上,你可以在標(biāo)準(zhǔn)經(jīng)濟(jì)學(xué)教材中找到關(guān)于它們的所有內(nèi)容。我推薦你閱讀亨利·哈茲里特(Henry Hazlitt)的《經(jīng)濟(jì)學(xué)一課》中的“機(jī)械的詛咒”一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)關(guān)于蠟燭制造商向太陽提出請愿書的諷刺,因?yàn)樘柵c照明行業(yè)存在不公平競爭,這里為我們現(xiàn)代化。
但你可能會想,這一次不同。這一次,隨著AI的出現(xiàn),我們擁有了可以取代所有人類勞動力的技術(shù)。
但是,根據(jù)我上面描述的原理,想想如果所有現(xiàn)有的人類勞動力都被機(jī)器替代會意味著什么。
這意味著經(jīng)濟(jì)生產(chǎn)率增長的起飛速度將是絕對天文數(shù)字,遠(yuǎn)遠(yuǎn)超過任何歷史先例。現(xiàn)有商品和服務(wù)的價格將全面下降,接近于零。消費(fèi)者福利將飆升。消費(fèi)者的購買力將飆升。經(jīng)濟(jì)中的新需求將迅速爆發(fā)。企業(yè)家們將創(chuàng)造令人眼花繚亂的新行業(yè)、產(chǎn)品和服務(wù),并盡快雇傭盡可能多的人工智能和人力來滿足所有新的需求。
假設(shè)AI再次取代了這種勞動力?這個循環(huán)將重復(fù),推動消費(fèi)者福利、經(jīng)濟(jì)增長以及就業(yè)和工資增長更上層樓。這將是一個直線上升的螺旋,直達(dá)亞當(dāng)·斯密和卡爾·馬克思從未敢于夢想的物質(zhì)烏托邦。
我們應(yīng)該感到如此幸運(yùn)。
AI風(fēng)險4:人工智能會導(dǎo)致嚴(yán)重的不平等嗎?
對于AI奪走工作的擔(dān)憂直接引出了下一個聲稱的AI風(fēng)險:假設(shè)AI確實(shí)奪走了所有的工作,不論是出于好的還是壞的原因。那么,這難道不會導(dǎo)致巨大而嚴(yán)重的財富不平等嗎?AI的所有者獲得了所有的經(jīng)濟(jì)回報,而普通人卻一無所得?
即生產(chǎn)資料的所有者-資產(chǎn)階級-將不可避免地從真正做工作的人-無產(chǎn)階級-那里竊取所有的社會財富。盡管這個觀點(diǎn)在現(xiàn)實(shí)中被多次證明為錯誤,但它是一個無論多少次都無法消失的謬誤。但讓我們還是從根本上否定它。
這一理論的缺陷在于,作為一種技術(shù)的所有者,將其保留給自己并不符合自身利益-事實(shí)上相反,將其賣給盡可能多的客戶才符合自身利益。任何產(chǎn)品的最大市場都是整個世界,也就是80億人口。因此,實(shí)際上,每一項(xiàng)新技術(shù)-即使最初只向高薪大公司或富有的消費(fèi)者銷售-都會迅速傳播,直到它進(jìn)入最大可能的大眾市場,最終覆蓋整個地球上的每一個人。
經(jīng)典的例子是埃隆·馬斯克在2006年對特斯拉提出的所謂“秘密計劃”-當(dāng)然,他當(dāng)時是公開發(fā)表的:
第一步,制造昂貴的跑車
第二步,用這筆錢制造一輛價格實(shí)惠的車
第三步,用這筆錢制造一輛更加實(shí)惠的車
...這當(dāng)然正是他所做的,結(jié)果成為了世界上最富有的人。
最后一點(diǎn)非常關(guān)鍵。如果埃隆今天只賣車給富人,他會更加富有嗎?不會。如果他只為自己制造汽車,他會比現(xiàn)在更富有嗎?當(dāng)然不會。不,他通過銷售給最大可能的市場-全世界-來最大化自己的利潤。
簡而言之,每個人都會得到這個東西-就像我們過去在汽車、電力、無線電、計算機(jī)、互聯(lián)網(wǎng)、移動電話和搜索引擎方面所看到的一樣。這些技術(shù)的制造者非常有動力將價格降低,以至于地球上的每個人都能夠負(fù)擔(dān)得起。這正是在人工智能領(lǐng)域已經(jīng)發(fā)生的事情-這就是為什么今天你可以以低廉甚至免費(fèi)的價格使用最先進(jìn)的生成式人工智能,例如微軟的必應(yīng)(Bing)和谷歌的Bard-而且這種情況將繼續(xù)發(fā)生。這不是因?yàn)檫@些供應(yīng)商愚蠢或慷慨,而是因?yàn)樗麄冐澙?他們希望最大限度地擴(kuò)大市場規(guī)模,從而最大化他們的利潤。
因此,發(fā)生的情況與技術(shù)推動財富集中化相反-最終包括全球所有人在內(nèi)的技術(shù)的個體用戶獲得了權(quán)力,并獲得了大部分產(chǎn)生的價值。與之前的技術(shù)一樣,建造人工智能的公司-假設(shè)它們必須在自由市場中運(yùn)作-將競相努力實(shí)現(xiàn)這一目標(biāo)。
這并不是說不平等不是我們社會面臨的問題。它是一個問題,只是它不是由技術(shù)驅(qū)動的,而是由相反的因素驅(qū)動,即那些對新技術(shù)最抵制的經(jīng)濟(jì)部門,那些對阻止采用人工智能等新技術(shù)干預(yù)最多的部門-特別是房屋、教育和醫(yī)療保健部門。人工智能和不平等的實(shí)際風(fēng)險不在于人工智能會導(dǎo)致更大的不平等,而是我們將不允許利用人工智能來減少不平等。
AI風(fēng)險5:人工智能會導(dǎo)致人們做壞事嗎?
到目前為止,我已經(jīng)解釋了五個最常提出的AI風(fēng)險中的四個實(shí)際上并不存在-人工智能不會自主行動并殺死我們,人工智能不會毀掉我們的社會,人工智能不會導(dǎo)致大規(guī)模失業(yè),人工智能不會引發(fā)災(zāi)難性的不平等增加。但現(xiàn)在讓我們來討論第五個風(fēng)險,這是我實(shí)際上同意的一個觀點(diǎn):人工智能將使壞人更容易做壞事。
從某種意義上說,這是個重言。技術(shù)是一種工具。工具,從火和石頭開始,可以用來做好事-烹飪食物和建造房屋-也可以用來做壞事-燒傷人和毆打人。任何技術(shù)都可以用于善惡之中。沒錯。毫無疑問,人工智能將使罪犯、恐怖分子和敵對政府更容易做壞事。
這使得一些人提議,好吧,既然這樣,那么在這種情況下,讓我們不冒這個風(fēng)險,讓我們在這種情況發(fā)生之前禁止人工智能。不幸的是,人工智能并不是一種難以獲得的隱秘物質(zhì),比如钚。恰恰相反,它是世界上最容易獲得的材料-數(shù)學(xué)和代碼。
人工智能已經(jīng)猛虎出籠。你可以從成千上萬的免費(fèi)在線課程、書籍、論文和視頻中學(xué)習(xí)如何構(gòu)建人工智能,而且優(yōu)秀的開源實(shí)現(xiàn)正在日益增多。人工智能就像空氣-它將無處不在。為了阻止人工智能的發(fā)展,所需要的極權(quán)壓制程度將如此嚴(yán)酷-世界政府監(jiān)控和控制所有計算機(jī)?穿著黑色直升機(jī)的武裝暴徒搶奪流氓顯卡?-以至于我們將沒有一個社會可以保護(hù)。
因此,解決壞人利用人工智能做壞事的風(fēng)險有兩種非常直接的方法,這正是我們應(yīng)該關(guān)注的。
首先,我們已經(jīng)有法律來將大多數(shù)壞事與人工智能聯(lián)系起來犯罪化。入侵五角大樓?這是犯罪。從銀行盜取錢財?這是犯罪。制造生物武器?這是犯罪。實(shí)施恐怖襲擊?這是犯罪。我們可以簡單地專注于在我們可以的情況下預(yù)防這些犯罪行為,并在無法預(yù)防時對其進(jìn)行起訴。我們甚至不需要新的法律-我不知道是否有任何一個實(shí)際上被提出的壞的人工智能使用方法不違法。如果發(fā)現(xiàn)新的壞的使用方法,我們禁止該使用方法。證明了問題。
但你會注意到我在其中提到了什么-我說我們應(yīng)該首先集中精力在防止人工智能協(xié)助犯罪之前-難道這種預(yù)防不意味著禁止人工智能嗎?好吧,還有另一種方法來防止這種行為,那就是將人工智能作為一種防御工具。使壞人在實(shí)現(xiàn)壞目標(biāo)時危險的能力,同樣也使得在實(shí)現(xiàn)良好目標(biāo)的好人手中具有強(qiáng)大的能力-特別是那些工作是預(yù)防壞事發(fā)生的好人。
例如,如果你擔(dān)心人工智能生成假人和虛假視頻,答案是構(gòu)建新的系統(tǒng),讓人們可以通過加密簽名驗(yàn)證自己和真實(shí)內(nèi)容。在人工智能出現(xiàn)之前,數(shù)字化創(chuàng)作和篡改真實(shí)和虛假內(nèi)容已經(jīng)存在;答案不是禁止文字處理軟件和Photoshop-或者人工智能-而是利用技術(shù)構(gòu)建一個真正解決問題的系統(tǒng)。
因此,第二點(diǎn),讓我們大力推動將人工智能用于善良、合法和防御性目的。讓我們將人工智能應(yīng)用于網(wǎng)絡(luò)防御、生物防御、追捕恐怖分子以及我們?yōu)榱吮Wo(hù)自己、我們的社區(qū)和我們的國家而做的一切。
當(dāng)然,已經(jīng)有很多聰明的人在政府內(nèi)外正在做這件事-但如果我們將目前專注于徒勞地試圖禁止人工智能的所有努力和智慧應(yīng)用于利用人工智能來防范壞人做壞事,我認(rèn)為毫無疑問,一個融入人工智能的世界將比我們今天生活的世界更加安全。
應(yīng)該采取什么行動?
我提出一個簡單的計劃:
1. 允許大型人工智能公司盡可能快速和積極地發(fā)展人工智能,但不允許它們獲得監(jiān)管控制,不允許它們建立一種受到錯誤的人工智能風(fēng)險聲稱保護(hù)的政府壟斷聯(lián)盟。這將最大程度地發(fā)揮這些公司的驚人能力所帶來的技術(shù)和社會回報,它們是現(xiàn)代資本主義的寶貴財富。
2. 創(chuàng)業(yè)型人工智能公司應(yīng)被允許盡可能快速和積極地發(fā)展人工智能。它們既不應(yīng)面對大公司獲得政府授予的保護(hù),也不應(yīng)接受政府援助。它們應(yīng)該被允許自由競爭。即使初創(chuàng)公司失敗,它們在市場中的存在也將不斷激勵大公司做到最好-不管以哪種方式,我們的經(jīng)濟(jì)和社會都會獲勝。
3. 開源人工智能應(yīng)被允許自由擴(kuò)散和與大型人工智能公司和初創(chuàng)公司競爭。開源領(lǐng)域不應(yīng)受到任何監(jiān)管壁壘的限制。即使開源技術(shù)不能戰(zhàn)勝公司,它的廣泛可用性對世界各地想要學(xué)習(xí)如何構(gòu)建和使用人工智能并成為技術(shù)未來一部分的學(xué)生們是一種福音,它將確保無論一個人是誰,有多少錢,都能從中受益。
4. 為了抵消壞人利用人工智能做壞事的風(fēng)險,政府與私營部門合作,應(yīng)積極參與潛在風(fēng)險領(lǐng)域,利用人工智能來最大限度地提升社會的防御能力。這不僅限于人工智能相關(guān)的風(fēng)險,還包括更一般的問題,如營養(yǎng)不良、疾病和氣候問題。人工智能可以是解決問題的非常強(qiáng)大的工具,我們應(yīng)該將其作為這樣的工具來接受和運(yùn)用。
這就是我們?nèi)绾卫萌斯ぶ悄軄碚仁澜纭?/p>
是時候開始行動了。
傳奇與英雄
我以兩個簡單的陳述作為結(jié)尾。
人工智能的發(fā)展始于20世紀(jì)40年代,與計算機(jī)的發(fā)明同時進(jìn)行。關(guān)于神經(jīng)網(wǎng)絡(luò)(我們今天所擁有的人工智能的架構(gòu))的第一篇科學(xué)論文于1943年發(fā)表。
在過去的80年里,整整幾代人的人工智能科學(xué)家出生、上學(xué)、工作,許多人甚至去世,都沒有看到我們現(xiàn)在所獲得的回報,他們都是傳奇人物。
如今,越來越多的工程師群體正在努力將人工智能變?yōu)楝F(xiàn)實(shí),其中許多人年輕,可能有祖父母甚至曾祖父母參與了人工智能理念的創(chuàng)造。
然而,他們面臨著一片聲稱他們草率和邪惡的恐懼聲音和悲觀主義。
我不相信他們是草率或邪惡的人,他們每一個人都是英雄。我和我的公司非常高興支持盡可能多的他們,我們將100%站在他們和他們的工作旁邊。
-
互聯(lián)網(wǎng)
+關(guān)注
關(guān)注
55文章
11244瀏覽量
106261 -
人工智能
+關(guān)注
關(guān)注
1806文章
48980瀏覽量
248825
原文標(biāo)題:AI的洗禮者和走私者
文章出處:【微信號:alpworks,微信公眾號:阿爾法工場研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
格靈深瞳亮相Create2025百度AI開發(fā)者大會
云端AI開發(fā)者工具的核心功能
Apex平臺:簡化AI API開發(fā),賦能開發(fā)者
2024年AI開發(fā)者中間件工具生態(tài)全面總結(jié)
AI開發(fā)平臺如何賦能開發(fā)者
深蕾半導(dǎo)體開發(fā)者中心上線多個AI Demo樣例

Luma AI全新視頻模型Ray 2即將面向消費(fèi)者、專業(yè)人士和開發(fā)者開放
云端AI開發(fā)者工具怎么用
Arm推出GitHub平臺AI工具,簡化開發(fā)者AI應(yīng)用開發(fā)部署流程
AI驅(qū)動智慧未來,2024 TUYA全球開發(fā)者大會(中東)圓滿落幕

2024 OPPO開發(fā)者盛會:共創(chuàng)全民參與的AI新紀(jì)元
多項(xiàng)AI新成果發(fā)布,涂鴉智能引領(lǐng)全球開發(fā)者共繪GenAI發(fā)展藍(lán)圖

2024 TUYA全球開發(fā)者大會(蘇州)啟幕,涂鴉攜手開發(fā)者共繪AI與能源領(lǐng)域新藍(lán)圖

涂鴉引領(lǐng)云開發(fā)AI浪潮,實(shí)用給力的三大開發(fā)者工具全新發(fā)布!

評論