導讀:與其擔心人工智能帶來末日,不如著手眼下。
與其擔心人工智能帶來末日,不如著手眼下。
數(shù)字科技將在越來越多的工作任務(wù)上比我們表現(xiàn)出色,全面的人工智能開發(fā)將意味著人類末日的到來嗎?對于這種預言,笑笑就過去了。我們應(yīng)該把精力放在眼下真正具有意義的挑戰(zhàn)上。
現(xiàn)在你要走進一棟從來沒有進入的大樓,打開門,進入一個伸手不見五指的房間。當然,你肯定心里會發(fā)怵,擔心黑暗的角落里面有恐怖的怪獸在安靜窺伺,又或者你慌亂地摸著墻壁上的燈光開關(guān),避免撞到家具上。
這個黑漆漆的房間,就是人工智能的未來。很不幸,當我們走進這個房間的時候,很多人都相信我們會一頭撞到某些邪惡的,卻又超級聰明的機器。這種恐懼其實由來已久,可以追溯到上個世紀六十年代。那個時候,英國數(shù)學家 Irving John 跟 Alan Turing 一起,做了下面的描述:
讓我們假設(shè)這樣的一臺超智能機器,其智慧超越了世間任何一個人。鑒于機器本身的設(shè)計就是「智能活動的結(jié)果」,那么自然,這臺超智能機器也可以制造出更加聰明的機器,這樣就進入到了一個指數(shù)化爆炸的正向遞增循環(huán)過程中。人類的智慧將遠遠地被甩在身后。人類歷史上最后一次發(fā)明創(chuàng)造就是世間第一臺超智能機器,如果這臺機器足夠乖順,告訴我們?nèi)绾螌⑺糜谡瓶刂?。話說回來,好奇怪為什么沒有相關(guān)的科幻小說呢?
一旦超智能的機器走進現(xiàn)實,它往往不會如剛才所設(shè)想的那樣溫順聽話,它更接近于《終結(jié)者》里面的反派形象:奴役人類,將人類看作是次等種族,為了達到自身的某種目的,蔑視他們的一切權(quán)利,不管會對人類造成多大么毀滅性的影響。如果你覺得這一切都是天方夜譚,那么你是時候看看在過去的五十年時間里,我們的數(shù)字科技究竟實現(xiàn)了怎樣的躍遷,這已經(jīng)讓不少人相信「智能爆炸」近在咫尺,很多人相信:如果我們不以為意,人類的末日迫在眉睫。史蒂芬霍金在 2014 年這么說道:
全面的人工智能開發(fā)將意味著人類末日的到來。
而在去年,比爾蓋茨也表達過類似的觀點:
「我現(xiàn)在比較關(guān)心超級智能領(lǐng)域。第一批由此而來的機器可以為我們做很多事情,也許還不算是超智能,如果我們管理得當?shù)脑?,它們確實能帶來積極作用。但是自此之后再過幾十年,智能變得足夠強大,以至于成為人類的心腹大患。我跟 Elon Musk 還有其他幾個業(yè)界領(lǐng)導人上在此有著共識,也很納悶為什么還有人對這種即將改變?nèi)祟愇磥淼募夹g(shù)不以為然。」
Tesla 的 CEO Musk 又說過什么呢?
我們應(yīng)該非常小心人工智能,如果有記者讓我說目前我們所面臨的最大威脅是什么,我估計會說是人工智能?,F(xiàn)在,越來越多的科學家都相信在國家和國際兩個層面,都應(yīng)該設(shè)置一些政府、組織的監(jiān)管,就是確保我們不要做一些傻事。人工智能領(lǐng)域中,我們很有可能召喚出來一頭惡魔。
而讓我們把目光落回到現(xiàn)實層面,跟之前的描述、觀點相比較,現(xiàn)實中的進展顯得如此波瀾不驚。
在今年三月,微軟推出了 Tay,一款基于 AI 的聊天機器人,把它放在了 Twitter 上開放給所有人進行互動,但是只過了 16 個小時,它就被微軟官方撤回了。本來按照官方的設(shè)想,當它在跟人類進行接觸的時候它是變得越來越聰明的,但是它很快就變成了一位崇拜希特勒,拒絕承認大屠殺存在,推崇近親亂倫的邪惡機器人,還聲稱是當時的美國總部布什一手策劃了 911 事件。
為什么會這樣?它其實的就像是我們平日里廚房用的抹布一樣,將所有臟的東西全部吸收了進來。微軟在事后對公眾做了非常誠懇的道歉。
這就是人工智能的現(xiàn)狀。在討論了那么多「超智能機器」所帶來的風險之后,是時候讓我們把黑漆漆的房間的燈給打開了,停止陷入到科幻小說的情節(jié)當中,把目光放在人工智能在現(xiàn)實中給我們帶來的實實在在的挑戰(zhàn)上面,為了讓我們更好地應(yīng)用這項智能技術(shù),在設(shè)計上避免以過大的成本,和充滿痛苦的方式去進行嘗試。
讓我們更加具體一些去觀察人工智能究竟是什么吧!光是在定義它的時候就出現(xiàn)了很大的分歧。首先,讓我們忘掉 iPhone 里的 Siri,客廳里的 Roomba,和廚房里的 Nest(不過我很高興同時擁有這三個智能助手)。
想一想這些電影中的形象:1927 年的《Metroplis》的 Maria;1968 年《2001:A Space Odyssey》中的 Hal 9000;《星球大戰(zhàn)》中的 C3PO;1982 年出品的《Blade Runner》里面的 Rachael;以及 1999 年《The Matrix》里面的特工史密斯,當然還有 2013 年的電影《Her》中被解體的 Samantha。這樣你的頭腦中似乎有了更加完整,清楚的形象。
而面對種種鮮明的形象,人們逐漸分成了兩個派別:一個我稱之為「奇點學派」,他們認為人工智能像是人類進化歷史上的一個奇點,從奇點將產(chǎn)生無窮無盡的可能性,而最終人類的結(jié)局就是被人工智能主宰、甚至就此終結(jié);另外一個是「人工智能懷疑論派」,他們認為人工智能只是電影中娛樂大家的一個話題,在現(xiàn)實中,機器永遠不可能接管世界,它始終都擺脫不了人們的控制。
事實上,這兩種觀點都存在一些完全荒謬的地方。接下來讓我們看看原因是什么:
奇點派相信三條準則:
首先,現(xiàn)在以某種形象呈現(xiàn)出來的超智能就是可預見未來在現(xiàn)實中的投影,這個轉(zhuǎn)折點在技術(shù)上也被稱之為一個「奇點」,因此得名為「奇點派」。但是這種超智能的本質(zhì)是什么,以及它到來的時間點都不確定。其次,人類現(xiàn)在面臨著巨大的風險,這樣的超智能會隨時從天而降主宰一切;第三點,目前這一代人的努力就是要達到兩個目的中的一個:要么,確保人工智能不會發(fā)生,要么,確保人工智能現(xiàn)在和將來都是對人類有益的。這三點內(nèi)容里面完全體現(xiàn)了摩尼教的世界觀:正義對抗邪惡;大災變的論調(diào);一種「我們必須做點兒什么,再遲的話一切都來不及」的緊迫感;一種對人類的末日救贖。
而眼下人們所擔心的是什么呢?人們擔心在不斷升級的數(shù)字戰(zhàn)爭中蒙受損失,又或者是在日新月異的世界中,勞動力被機器人大軍所取代。
跟所有以信仰作為基礎(chǔ)衍生出來的觀點一樣,「奇點派」的論調(diào)是無法辯駁的,因為它并沒有從邏輯和證據(jù)出發(fā),所以無從辯駁;它更是站不住腳的,因為目前沒有任何理由相信這一切。目前連最起碼能讓我們聯(lián)想到智能機器的類比物都沒有出現(xiàn),以我們目前的計算機學科和數(shù)字技術(shù)的發(fā)展階段,哪怕是在可預見的未來,它們都不足以從中演變出來如上述內(nèi)容一樣的「智能物」。
一些時候,「奇點派」他們的觀點看似是存在條件的。有「如果」(If),就有「那么」(Then)。如果某種形式的「超級智能」出現(xiàn),那么我們就深陷大麻煩了。請注意這里說的是「就」,而不是之前史蒂芬霍金所說的「可能」。這樣簡單粗暴的「如果……就」,完全等同于如下的說法:「如果大災變學說中的四個馬人出現(xiàn)了,那么我們就有大麻煩了……」
還有在一些情況下,「奇點學派」所相信的是某一種可能性極低的情況,當然這并非不存在。但是這種存在只是邏輯、理論上能夠站得住腳。它模糊了「可能性」和「絕對性」之間的界限,就比如:當我現(xiàn)在身體不舒服的時候,我完全可以說:「我明天有可能死去。」又或者是莊子夢蝶的學說,比如「我有可能是一只蝴蝶,現(xiàn)在夢見自己是一個人?!?/p>
從現(xiàn)有的計算機水平階段出發(fā),在某一個時點上,忽然轉(zhuǎn)變成為超級強大的超級人工智能,這種轉(zhuǎn)變生成的契因我們到現(xiàn)在還不得而知。
所以,我相信:模糊了「信仰」和「事實」的「奇點學派」是訴諸于某一種末日學說的緊迫性,他們開始談起的內(nèi)容都是工作崗位急劇縮減、數(shù)字系統(tǒng)深陷風險,無人機隨時會從天空掉下,以及其他跟計算機技術(shù)有關(guān)的,令人深感憂慮的現(xiàn)象,最后總結(jié)出的結(jié)論及是:人類生活將被主宰,從教育到就業(yè);從娛樂到?jīng)_突。然后,他們就開始非常嚴肅地擔心起來:如果一輛本田汽車有了自己的思想,我們無法控制它,這下該如何是好?問題是:你現(xiàn)在樹的頂端往上又爬了一下,這并不意味著你離月亮又近了一大步。
如果上面的種種論斷都不成立了,「奇點學派」還是會拋出一些數(shù)字嚇唬大家。他們最喜歡引用的理論莫過于摩爾定律了。這是一個根據(jù)經(jīng)驗觀察得出的預判:隨著數(shù)字化科技的不斷發(fā)展,集成線路中的晶體管的數(shù)量每隔兩年就會翻一倍,最后成本是越來越低,而計算機的性能會越來越強,呈現(xiàn)指數(shù)化爆發(fā)的態(tài)勢。
事實上證明這樣的推測確實沒錯,尤其最近這些年科技界的發(fā)展嚴格地按照「摩爾定律」的預判演進著。但是事情總有出現(xiàn)變化的那一刻,在納米科技上出現(xiàn)的科研瓶頸,給我們帶出了很多制造業(yè)上存在著的巨大挑戰(zhàn)。畢竟,那么小的東西要塞入一個空間內(nèi)總是有著極限的。摩爾定律在此時已經(jīng)開始站不住腳了。就因為過去的一段時間,某些技術(shù)呈現(xiàn)指數(shù)化增長的態(tài)勢,并不意味著這樣的態(tài)勢會永久存續(xù)下去。正如《經(jīng)濟學人》在 2014 年的文章中說到的那樣:
縱觀人類的歷史,人類一直是地球上獨一無二的主宰,其他物種無法與之對抗。但是這樣的情勢會不會發(fā)生逆轉(zhuǎn)呢?讓我們來看看一種人畜完全無害的物種:火雞吧。它的體型重量從 1929 年平均 13.2 磅飆升到如今 30 磅以上。科學界有充分的理由相信這樣的趨勢還會繼續(xù)下去。如果真的是按照這樣的增長速度發(fā)展下去,《經(jīng)濟學人》預測僅僅在 150 年之后,火雞的體型就跟人差不多了,在 6000 年之后,火雞的體型甚至超過了整個地球!
科學家表示:之所以火雞會有如此強勁的增長速度,主要是源于家禽業(yè)的快速創(chuàng)新,比如選擇性飼養(yǎng)(selective breeding)和人工授精。光是在美國,就有將近 2 億 5 千萬只火雞,所以,我們有理由在感恩節(jié)采取一種非常理性的舉動:在它們吃掉我們之前趕緊吃掉它們……
從“火雞引發(fā)的恐慌”到“AI 引發(fā)的恐慌”,其實這個跨越是很小的。
奇點學派的人在此時就是不斷地轉(zhuǎn)移著人們的注意力,他們往往都是來自發(fā)達國家,通常不知道人類當下所面臨的威脅、災難具體都是什么。給你一個數(shù)據(jù)你就清楚了:在我們的星球上,如今有將近 7 億人到現(xiàn)在還沒有安全的水源,這本身就是人類的一大威脅。
或許,你還堅持覺得是專家說的人工智能是威脅,那么想想之前專家做出了多少次錯誤的預測吧!2004 年的時候,比爾蓋茨還說:「兩年之后,垃圾郵件問題將被我們徹底解決!」在 2011 年,霍金還宣城:「哲學死了!」(那么你現(xiàn)在讀的東西又是什么?)
在這些不斷向公眾拋出各種預言的專家中,我最喜歡這位:Robert Metcalfe,這是 Ethernet 的聯(lián)合發(fā)明人,而且是數(shù)字化電子元器件制造商 3Com 的創(chuàng)始人。在 1995 年,他表示:「互聯(lián)網(wǎng)很快將成為人類社會最為耀眼的新星,而在 1996 年它會以一種災難級的態(tài)勢迅速崩潰?!钩酥?,他還添了下面這句話:「如果我的預言有任何的失誤,我將把我所說的每個字都吃下去!」。
不得不說,這是一個信守承諾的男人,在 1997 年,他在眾人面前,將自己的文章放到了一個食物碾碎器里,打磨之后,沖水喝完了。我希望那些「奇點學派」也能做到如他一樣勇敢,一樣言行一致。
那么,那些懷疑人工智能的人就真的對嗎?
接下來,讓我們看看硬幣的另外一面。在之前的那一面,有那么多人在數(shù)字世界中硬生生供奉出來一個神,而在這一面,這些「AI 懷疑論者」一聽到那些奉若神明的話就變得十分頭大。他們的結(jié)論很簡單:任何相信這個世界上有真正的人工智能的人都是傻瓜。人工智能只不過是電腦,電腦只不過是圖寧機器,圖寧機器只不過是按照一些邏輯結(jié)構(gòu)排列而成的計算引擎,而引擎是不會思考、不會感知、不會有意識的。完。
要不然,為什么現(xiàn)在還有那么多計算機無法征服的領(lǐng)域呢?他們無法勝任在人類看來最簡單的一些日常活動,他們也無法勝任翻譯工作,不管 Google 翻譯現(xiàn)在的進展有多大,世界上任意兩種語言(其中包括中文)之間的轉(zhuǎn)換,截止今天為止,它仍然無法達到理想的狀態(tài)。這意味著在人工智能上我們壓根沒有什么好談的,更別說為此而憂心忡忡了。世界上根本不存在真正的人工智能,放松心身,好好沉浸在手邊數(shù)字設(shè)備給你帶來的愉悅當中吧!
其實,「AI 懷疑論者」的觀點也錯了,跟「奇點學派」一樣大錯特錯。這兩種觀點在加利福尼亞有著大量的信徒。而恰恰也是在加利福尼亞,好萊塢震撼人心的科幻電影一部接一部,諸如 Berkeley 這樣的頂級科研大學鱗次櫛比、當然還有世界上最具有影響力的科技公司也是層出不窮。這也許并非偶然。錢潮洶涌之地,人們必會感到困惑,想象力和好奇心所推動的各種精神作品、學術(shù)成果、商業(yè)模型就四處開花了。
就比如說,Google 最近就一直在瘋狂的收購各種人工智能科技公司,好像末日就在眼前似的,這么做,它是為了要搞清楚,能真正開發(fā)出來一臺會思考的電腦,突破點究竟在何處?Google 的 Eric Schmidt 曾經(jīng)在 2013 年告訴 Aspen 科研機構(gòu):「現(xiàn)在人工智能界中很多人都相信,我們將在接下來的 5 年內(nèi),讓一臺電腦突破『圖寧測試』?!?/p>
所謂「圖寧測試」,就是檢測人工智能是否離我們越來越近的一種方式。兩個房間,一個房間里是你在提問,另外一個房間是人和機器接受問題,給出答案。如果你根據(jù)答案,分辨不出來哪個是人,哪個是機器,那么機器人就算是通過了「圖寧測試」。
這個測試其實等同于一次駕照考試:如果愛麗絲沒有通過這次測試,那么她肯定不是一名安全的司機;但是就算她通過了,她也仍然有可能是一名不安全的司機。「圖寧測試」在驗證人工智能上面其實是一種必要且非充分的途徑。這是最低的標準,但是至今還沒有任何一個人工智能邁過它。更重要的是,幾乎所有的實驗項目都是以同樣的方式落敗。好吧,這個時候我也給出一個賭約。
我這個人最討厭吃茄子,但是,我愿意打賭,如果有一個軟件程序能在 2018 年 7 月 16 日之前,通過圖寧測試,且贏得羅布納獎金牌的話,那么我愿意把一盤子的茄子吃個精光!(放心,這次打賭其實對我來說安全系數(shù)極高)。
其實,無論是「奇點學派」還是「人工智能懷疑論者」都錯了。正如圖寧在 1950 年的文章中,給大家介紹他的這次測試中他就提出了這樣一個問題:「一臺機器會思考嗎?」這個問題本身是不是沒有多大的意義,甚至不值得我們?yōu)樗M行討論。(令人諷刺的是,這個問題被嵌在了羅布納獎的獎牌上)。這句話確實很對,不管你屬于上面的哪個派別,這對陣的雙方會永無休止地進行這場沒有意義的辯論。
真正的人工智能從邏輯推演上來說并非不可能,但是它從現(xiàn)實層面來說完全站不住腳。我們都不知道從哪里入手,我們甚至對自己的大腦和智能活動都知之甚少,換句話說,我們不應(yīng)該因為某一種微乎其微的超級智能出現(xiàn)的可能性,而憂心忡忡地睡不著覺。
我們更應(yīng)該注意到的事實是:隨著現(xiàn)在越來越聰明的科技產(chǎn)品不斷出現(xiàn),它們在理解我們自身、理解這個世界,以及理解我們?nèi)祟愔g的互動關(guān)系的時候,發(fā)揮著深遠的影響和作用。這并不是說我們的機器是有意識的,又或者是具有智性的,又或者是當我們在做很多事情的時候是具有覺察感知能力的。它們遠遠沒有達到這個地步,現(xiàn)在有大量的結(jié)果已經(jīng)證明,計算機的計算能力是有局限和瓶頸的,現(xiàn)在不可能拿出一種算法,可以給我們直接顯示「非是即否」的答案。
計算機目前的性能發(fā)展上是存在局限瓶頸的,這一點已經(jīng)毋庸置疑,當然,現(xiàn)在還存在很多機器都可以完成大量令人驚嘆的任務(wù),比如下個象棋,比如猜個字謎,這些任務(wù)完成起來甚至比我們?nèi)祟愡€要出色。但是它們都是「圖寧機」這個原始版本衍生出來的各個版本,一種通過數(shù)學邏輯,構(gòu)建起來的模型,它本身就已經(jīng)給計算機的能力圈定了一個有限的范疇。
量子計算機同樣也存在相同的局限性。圖寧機中是不會跳脫出來一個有意識的智能實體的。目前的重點是,我們的智能科技在借助了吸收巨量數(shù)據(jù)和一些極度復雜的軟件處理的前提下,在一些工作上面干的越來越比人類好,這其中還包括了預測我們的行為,所以,我們再也不是這個世界上唯一具有超強行動能力的物種了。
這種對人類能力上的重新認識,在我看來是“人類自我意識上的第四次革命”
我們并非居于宇宙的中心(哥白尼讓我們認識到這點),也不是居于生物王國的中心(查理斯達爾維讓我們認識到這點),更不是居于理性的中心(西格莫格 弗洛伊德讓我們認識到這點),圖寧之后,我們終于意識到了,我們不再是信息空間的中心。我們跟數(shù)字科技共享這個空間,它們在處理信息任務(wù)上遠勝于我們,它們的出色,讓我們開始重新找尋人類的長處,在這個宇宙中的特殊角色是什么。
曾經(jīng)我們以為自己下象棋下的好,就認為我們很聰明,現(xiàn)在一部手機就能打敗我們;曾經(jīng)我們以后我們想買什么就買什么,這方面起碼是自由的,現(xiàn)在機器給我們每個人總結(jié)出來了購買的規(guī)律、傾向、和愛好。
數(shù)字科技將在越來越多的工作任務(wù)上比我們表現(xiàn)出色,這些領(lǐng)域要么是機械重復性任務(wù),要么是某些我們?nèi)祟愃季S智力不太適合的任務(wù)(多任務(wù)同時處理,某些需要智能超強穩(wěn)定度的工作)。
我們需要做的是發(fā)揮出我們?nèi)祟愖陨淼奶亻L,而對于人工智能即將帶來的末日預言,我們笑笑就過去了。我們應(yīng)該把精力放在眼下真正具有意義的挑戰(zhàn)上,作為總結(jié),我列舉了下面的五點內(nèi)容,它們的重要程度相當,排名不分前后。
一、我們開發(fā)的人工智能應(yīng)該對我們的環(huán)境更加友好,這些從我們的手中脫胎的最發(fā)達的智能技術(shù)應(yīng)該去打敗當下壓迫人類的邪惡,從環(huán)境方面的災難到金融市場的危機,從違法犯罪、恐怖主義、戰(zhàn)爭到饑荒、貧困、無知、不公,以及貧困地區(qū)觸目驚心的生活水平。
二、我們開發(fā)的人工智能應(yīng)該對我們?nèi)祟愖陨碛押?,它?yīng)該視服務(wù)人類為最高宗旨,而不是某種手段。
三、我們開發(fā)的人工智能成為人類智能的一個補充。數(shù)以百萬計的工作將被顛覆、消滅、或者重塑,在這個重新洗牌的世界中,好處應(yīng)該為所有人所共享,而成本應(yīng)該由社會來承擔。
四、我們應(yīng)該讓人工智能的預測行為向著人類的自由和尊嚴看齊。營銷產(chǎn)品、影響型行為、打擊恐怖犯罪、這些都不能以犧牲人類的高尚為代價。
五、最后,我們應(yīng)該讓人工智能變得更具有「人情味」,更像人一些。我們有可能在使用人工智能的過程中,錯誤地將它用在了不利于大多數(shù)人類的地方。華盛頓丘吉爾曾經(jīng)說過:「我們打造了這一切,而我們所打造的這一切反過來會重塑我們?!惯@同樣適用于信息科技和智能產(chǎn)品,而讓人工智能更像人,會盡可能地降低風險發(fā)生的幾率。