趙國(guó)軍,趙國(guó)軍講師,趙國(guó)軍聯(lián)系方式,趙國(guó)軍培訓(xùn)師-【中華講師網(wǎng)】
薪酬績(jī)效實(shí)戰(zhàn)落地專家,著有《薪酬設(shè)計(jì)與績(jī)效考核全案》
52
鮮花排名
0
鮮花數(shù)量
掃一掃加我微信
趙國(guó)軍:為什么最近有很多名人,比如比爾蓋茨,馬斯克、霍金等,讓人們警惕人工智能?(2)
2016-01-20 11009
第二部分開始:
文章的第一部分討論了已經(jīng)在我們?nèi)粘I钪须S處可見(jiàn)的弱人工智能,然后討論了為什么從弱人工智能到強(qiáng)人工智能是個(gè)很大的挑戰(zhàn),然后我們談到了為什么技術(shù)進(jìn)步的指數(shù)級(jí)增長(zhǎng)表面強(qiáng)人工智能可能并不那么遙遠(yuǎn)。第一部分的結(jié)束,我們談到了一旦機(jī)器達(dá)到了人類級(jí)別的智能,我們將見(jiàn)到如下的場(chǎng)景:
這讓我們無(wú)所適從,尤其考慮到超人工智能可能會(huì)發(fā)生在我們有生之年,我們都不知道該用什么表情來(lái)面對(duì)。
再我們繼續(xù)深入這個(gè)話題之前,讓我們提醒一下自己超級(jí)智能意味著什么。
很重要的一點(diǎn)是速度上的超級(jí)智能和質(zhì)量上的超級(jí)智能的區(qū)別。很多人提到和人類一樣聰明的超級(jí)智能的電腦,第一反應(yīng)是它運(yùn)算速度會(huì)非常非??臁秃孟褚粋€(gè)運(yùn)算速度是人類百萬(wàn)倍的機(jī)器,能夠用幾分鐘時(shí)間思考完人類幾十年才能思考完的東西
這聽起來(lái)碉堡了,而且超人工智能確實(shí)會(huì)比人類思考的快很多,但是真正的差別其實(shí)是在智能的質(zhì)量而不是速度上。用人類來(lái)做比喻,人類之所以比猩猩智能很多,真正的差別并不是思考的速度,而是人類的大腦有一些獨(dú)特而復(fù)雜的認(rèn)知模塊,這些模塊讓我們能夠進(jìn)行復(fù)雜的語(yǔ)言呈現(xiàn)、長(zhǎng)期規(guī)劃、或者抽象思考等等,而猩猩的腦子是做不來(lái)這些的。就算你把猩猩的腦子加速幾千倍,它還是沒(méi)有辦法在人類的層次思考的,它依然不知道怎樣用特定的工具來(lái)搭建精巧的模型——人類的很多認(rèn)知能力是猩猩永遠(yuǎn)比不上的,你給猩猩再多的時(shí)間也不行。
而且人和猩猩的智能差別不只是猩猩做不了我們能做的事情,而是猩猩的大腦根本不能理解這些事情的存在——猩猩可以理解人類是什么,也可以理解摩天大樓是什么,但是它不會(huì)理解摩天大樓是被人類造出來(lái)的,對(duì)于猩猩來(lái)說(shuō),摩天大樓那么巨大的東西肯定是天然的,句號(hào)。對(duì)于猩猩來(lái)說(shuō),它們不但自己造不出摩天大樓,它們甚至沒(méi)法理解摩天大樓這東西能被任何東西造出來(lái)。而這一切差別,其實(shí)只是智能的質(zhì)量中很小的差別造成的。
而當(dāng)我們?cè)谟懻摮斯ぶ悄軙r(shí)候,智能的范圍是很廣的,和這個(gè)范圍比起來(lái),人類和猩猩的智能差別是細(xì)微的。如果生物的認(rèn)知能力是一個(gè)樓梯的話,不同生物在樓梯上的位置大概是這樣的:
要理解一個(gè)具有超級(jí)智能的機(jī)器有多牛逼,讓我們假設(shè)一個(gè)在上圖的樓梯上站在深綠色臺(tái)階上的一個(gè)機(jī)器,它站的位置只比人類高兩層,就好像人類比猩猩只高兩層一樣。這個(gè)機(jī)器只是稍微有點(diǎn)超級(jí)智能而已,但是它的認(rèn)知能力之于人類,就好像人類的認(rèn)知能力之于猩猩一樣。就好像猩猩沒(méi)有辦法理解摩天大樓是能被造出來(lái)的一樣,人類完全沒(méi)有辦法理解比人類高兩層臺(tái)階的機(jī)器能做的事情。就算這個(gè)機(jī)器試圖向我們解釋,效果也會(huì)像教猩猩造摩天大樓一般。
而這,只是比我們高了兩層臺(tái)階的智能罷了,站在這個(gè)樓梯頂層的智能之于人類,就好像人類之于螞蟻一般——它就算花再多時(shí)間教人類一些最簡(jiǎn)單的東西,我們依然是學(xué)不會(huì)的。
但是我們討論的超級(jí)智能并不是站在這個(gè)樓梯頂層,而是站在遠(yuǎn)遠(yuǎn)高于這個(gè)樓梯的地方。當(dāng)智能爆炸發(fā)生時(shí),它可能要花幾年時(shí)間才能從猩猩那一層往上邁一步,但是這個(gè)步子會(huì)越邁越快,到后來(lái)可能幾個(gè)小時(shí)就能邁一層,而當(dāng)它超過(guò)人類十層臺(tái)階的時(shí)候,它可能開始跳著爬樓梯了——一秒鐘爬四層臺(tái)階也未嘗不可。所以讓我們記住,當(dāng)?shù)谝粋€(gè)到達(dá)人類智能水平的強(qiáng)人工智能出現(xiàn)后,我們將在很短的時(shí)間內(nèi)面對(duì)一個(gè)站在下圖這樣很高很高的樓梯上的智能(甚至比這更高百萬(wàn)倍):
前面已經(jīng)說(shuō)了,試圖去理解比我們高兩層臺(tái)階的機(jī)器就已經(jīng)是徒勞的,所以讓我們很肯定的說(shuō),我們是沒(méi)有辦法知道超人工智能會(huì)做什么,也沒(méi)有辦法知道這些事情的后果。任何假裝知道的人都沒(méi)搞明白超級(jí)智能是怎么回事。
自然演化花了幾億年時(shí)間發(fā)展了生物大腦,按這種說(shuō)法的話,一旦人類創(chuàng)造出一個(gè)超人工智能,我們就是在碾壓自然演化了。當(dāng)然,可能這也是自然演化的一部分——可能演化真正的模式就是創(chuàng)造出各種各樣的智能,直到有一天有一個(gè)智能能夠創(chuàng)造出超級(jí)智能,而這個(gè)節(jié)點(diǎn)就好像踩上了地雷的絆線一樣,會(huì)造成全球范圍的大爆炸,從而改變所有生物的命運(yùn)。
科學(xué)界中大部分人認(rèn)為踩上絆線不是會(huì)不會(huì)的問(wèn)題,而是時(shí)間早晚的問(wèn)題。想想真嚇人。
那我們?cè)撛趺崔k呢?
可惜,沒(méi)有人都告訴你踩到絆線后會(huì)發(fā)生什么。但是人工智能思想家Nick Bostrom認(rèn)為我們會(huì)面臨兩類可能的結(jié)果——永生和滅絕。
首先,回顧歷史,我們可以看到大部分的生命經(jīng)歷了這樣的歷程:物種出現(xiàn),存在了一段時(shí)間,然后不可避免的跌落下生命的平衡木,跌入滅絕的深淵。
歷史上來(lái)說(shuō),“所有生物終將滅絕”就像“所有人都會(huì)死”一樣靠譜。至今為止,存在過(guò)的生物中99.9%都已經(jīng)跌落了生命的平衡木,如果一個(gè)生物繼續(xù)在平衡木上走,早晚會(huì)有一陣風(fēng)把它吹下去。Bostrom把滅絕列為一種吸引態(tài)——所有生物都有墜入的風(fēng)險(xiǎn),而一旦墜入將沒(méi)有回頭。
雖然大部分科學(xué)家都承認(rèn)一個(gè)超人工智能有把人類滅絕的能力,也有一些人為如果運(yùn)用得當(dāng),超人工智能可以幫助人類和其它物種,達(dá)到另一個(gè)吸引態(tài)——永生。Bostrom認(rèn)為物種的永生和滅絕一樣都是吸引態(tài),也就是我一旦我們達(dá)成了永生,我們將永遠(yuǎn)不再面臨滅絕的危險(xiǎn)——我們戰(zhàn)勝了死亡和幾率。所以,雖然絕大多數(shù)物種都從平衡木上摔了下去滅絕了,Bostrom認(rèn)為平衡木外是有兩面的,只是至今為止地球上的生命還沒(méi)聰明到發(fā)現(xiàn)怎樣去到永生這另一個(gè)吸引態(tài)。
如果Bostrom等思想家的想法是對(duì)的,而且根據(jù)我的研究他們確實(shí)很可能是對(duì)的,那么我們需要接受兩個(gè)事實(shí):
1)超人工智能的出現(xiàn),將有史以來(lái)第一次,將物種的永生這個(gè)吸引態(tài)變?yōu)榭赡?/span>
2)超人工智能的出現(xiàn),將造成非常巨大的沖擊,而且這個(gè)沖擊可能將人類吹下平衡木,并且落入其中一個(gè)吸引態(tài)
有可能,當(dāng)自然演化踩到絆線的時(shí)候,它會(huì)永久的終結(jié)人類和平衡木的關(guān)系,創(chuàng)造一個(gè)新的世界,不管這時(shí)人類還是不是存在。
現(xiàn)在的問(wèn)題就是:“我們什么時(shí)候會(huì)踩到絆線?”以及“從平衡木上跌下去后我們會(huì)掉入哪個(gè)吸引態(tài)?
沒(méi)人知道答案,但是一些聰明人已經(jīng)思考了幾十年,接下來(lái)我們看看他們想出來(lái)了些什么。
___________
先來(lái)討論“我們什么時(shí)候會(huì)踩到絆線?”也就是什么時(shí)候會(huì)出現(xiàn)第一個(gè)超級(jí)智能。
不出意外的,科學(xué)家和思想家對(duì)于這個(gè)意見(jiàn)的觀點(diǎn)分歧很大。很多人,比如Vernor Vinge教授,科學(xué)家Ben Goertzel,SUN創(chuàng)始人Bill Joy,發(fā)明家和未來(lái)學(xué)家Ray Kurzweil,認(rèn)同機(jī)器學(xué)習(xí)專家Jeremy Howard的觀點(diǎn),Howard在TED演講時(shí)用到了這張圖:
這些人相信超級(jí)智能會(huì)發(fā)生在不久的將來(lái),因?yàn)橹笖?shù)級(jí)增長(zhǎng)的關(guān)系,雖然機(jī)器學(xué)習(xí)現(xiàn)在還發(fā)展緩慢,但是在未來(lái)幾十年就會(huì)變得飛快。
其它的,比如微軟創(chuàng)始人Paul Allen,心理學(xué)家Gary Marcus,NYU的電腦科學(xué)家Ernest Davis,以及科技創(chuàng)業(yè)者M(jìn)itch Kapor認(rèn)為Kurzweil等思想家低估了人工智能的難度,并且認(rèn)為我們離絆線還挺遠(yuǎn)的。
Kurzweil一派則認(rèn)為唯一被低估的其實(shí)是指數(shù)級(jí)增長(zhǎng)的潛力,他們把質(zhì)疑他們理論的人比作那些1985年時(shí)候看到發(fā)展速度緩慢的因特網(wǎng),然后覺(jué)得因特網(wǎng)在未來(lái)不會(huì)有什么大影響的人一樣。
而質(zhì)疑者們則認(rèn)為智能領(lǐng)域的發(fā)展需要達(dá)到的進(jìn)步同樣是指數(shù)級(jí)增長(zhǎng)的,這其實(shí)把技術(shù)發(fā)展的指數(shù)級(jí)增長(zhǎng)抵消了。
爭(zhēng)論如此反復(fù)。
第三個(gè)陣營(yíng),包括Nick Bostrom在內(nèi),認(rèn)為其它兩派都沒(méi)有理由對(duì)踩絆線的時(shí)間那么有信心,他們同時(shí)認(rèn)為 a) 這事情完全可能發(fā)生在不久的未來(lái) b)但是這個(gè)事情沒(méi)個(gè)準(zhǔn),說(shuō)不定會(huì)花更久
還有不屬于三個(gè)陣營(yíng)的其他人,比如哲學(xué)家Hubert Dreyfus,相信三個(gè)陣營(yíng)都太天真了,根本就沒(méi)有什么絆線。超人工智能是不會(huì)被實(shí)現(xiàn)的。
當(dāng)你把所有人的觀點(diǎn)全部融合起來(lái)的話是怎樣呢?
2013年的時(shí)候,Bostrom做了個(gè)問(wèn)卷調(diào)查,涵蓋了數(shù)百位人工智能專家,問(wèn)卷的內(nèi)容是“你預(yù)測(cè)人類級(jí)別的強(qiáng)人工智能什么時(shí)候會(huì)實(shí)現(xiàn)”,并且讓回答者給出一個(gè)樂(lè)觀估計(jì)(強(qiáng)人工智能有10%的可能在這一年達(dá)成),正常估計(jì)(有50%的可能達(dá)成),和悲觀估計(jì)(有90%可能達(dá)成)。當(dāng)把大家的回答統(tǒng)計(jì)后,得出了下面的結(jié)果:
樂(lè)觀估計(jì)中位年(強(qiáng)人工智能有10%的可能在這一年達(dá)成):2022年
正常估計(jì)中位年(強(qiáng)人工智能有50%的可能在這一年達(dá)成):2040年
悲觀估計(jì)中位年(強(qiáng)人工智能有90%的可能在這一年達(dá)成):2075年
所以一個(gè)中位的人工智能專家認(rèn)為25年后的2040年我們能達(dá)成強(qiáng)人工智能,而2075年這個(gè)悲觀估計(jì)表明,如果你現(xiàn)在夠年輕,有一半以上的人工智能專家認(rèn)為在你的有生之年能夠有90%的可能見(jiàn)到強(qiáng)人工智能的實(shí)現(xiàn)。
另外一個(gè)獨(dú)立的調(diào)查,由作家James Barrat在Ben Goertzel的強(qiáng)人工智能年會(huì)上進(jìn)行,他直接問(wèn)了參與者認(rèn)為強(qiáng)人工智能哪一年會(huì)實(shí)現(xiàn),選項(xiàng)有2030年,2050年,2100年,和永遠(yuǎn)不會(huì)實(shí)現(xiàn)。結(jié)果是:
2030年:42%的回答者認(rèn)為強(qiáng)人工智能會(huì)實(shí)現(xiàn)
2050年:25%的回答者
2100年:20%
2100年以后:10%
永遠(yuǎn)不會(huì)實(shí)現(xiàn):2%
這個(gè)結(jié)果和Bostrom的結(jié)果很相似。在Barrat的問(wèn)卷中,有超過(guò)三分之二的參與者認(rèn)為強(qiáng)人工智能會(huì)在2050年實(shí)現(xiàn),有近乎半數(shù)(42%)的人認(rèn)為未來(lái)15年(2030年)就能實(shí)現(xiàn)。并且,只有2%的參與者認(rèn)為強(qiáng)人工智能永遠(yuǎn)不會(huì)實(shí)現(xiàn)。
但是強(qiáng)人工智能并不是絆線,超人工智能才是。那么專家們對(duì)超人工智能是怎么想的呢?
Bostrom的問(wèn)卷還詢問(wèn)專家們認(rèn)為達(dá)到超人工智能要多久,選項(xiàng)有a)達(dá)成強(qiáng)人工智能兩年內(nèi),b)達(dá)成強(qiáng)人工智能30年內(nèi)。問(wèn)卷結(jié)果如下:
中位答案認(rèn)為強(qiáng)人工智能到超人工智能只花2年時(shí)間的可能性只有10%左右,但是30年之內(nèi)達(dá)成的可能性高達(dá)75%
從以上答案,我們可以估計(jì)一個(gè)中位的專家認(rèn)為強(qiáng)人工智能到超人工智能可能要花20年左右。所以,我們可以得出,現(xiàn)在全世界的人工智能專家中,一個(gè)中位的估計(jì)是我們會(huì)在2040年達(dá)成強(qiáng)人工智能,并在20年后的2060年達(dá)成超人工智能——也就是踩上了絆線。
當(dāng)然,以上所有的數(shù)據(jù)都是推測(cè),它只代表了現(xiàn)在人工智能領(lǐng)域的專家的中位意見(jiàn),但是它告訴我們的是,很大一部分對(duì)這個(gè)領(lǐng)域很了解的人認(rèn)為2060年是一個(gè)實(shí)現(xiàn)超人工智能的合理預(yù)測(cè)——距今只有45年。
那么我們來(lái)看一下下一個(gè)問(wèn)題,踩到絆線后,我們將跌向平衡木的哪一個(gè)方向?
超級(jí)智能會(huì)產(chǎn)生巨大的力量,所以關(guān)鍵的問(wèn)題時(shí)——到時(shí)這股力量究竟由誰(shuí)掌握,掌握這份力量的人會(huì)怎么做?
這個(gè)問(wèn)題的答案將決定超人工智能究竟是天堂還是地獄。
同樣的,專家們?cè)谶@個(gè)問(wèn)題上的觀點(diǎn)也不統(tǒng)一。Bostrom的問(wèn)卷顯示專家們看待強(qiáng)人工智能對(duì)于人類社會(huì)的影響時(shí),52%認(rèn)為結(jié)果會(huì)是好或者非常好的,31%認(rèn)為會(huì)是糟糕的或者非常糟糕的,只有17%的人認(rèn)為結(jié)果會(huì)是不好不壞的。也就是說(shuō),這個(gè)領(lǐng)域的專家普遍認(rèn)為這將是一個(gè)很大的事情,不論結(jié)果好壞。要注意的是,這個(gè)問(wèn)題問(wèn)的是強(qiáng)人工智能,如果問(wèn)的是超人工智能,認(rèn)為結(jié)果不好不壞的人可能不會(huì)有17%這么多。
在我們深入討論好壞這個(gè)問(wèn)題之前,我們先把“什么時(shí)候會(huì)發(fā)生”和“這是好事還是壞事”的結(jié)果綜合起來(lái)畫張表,這代表了大部分專家的觀點(diǎn):
我們等下再考慮主流陣營(yíng)的觀點(diǎn)。咱們先來(lái)問(wèn)一下你自己是怎么想的,其實(shí)我大概能猜到你是怎么想的,因?yàn)槲议_始研究這個(gè)問(wèn)題前也是這樣的想的。很多人其實(shí)不關(guān)心這個(gè)話題,原因無(wú)非是:
像本文第一部分所說(shuō),電影展示了很多不真實(shí)的人工智能場(chǎng)景,讓我們認(rèn)為人工智能不是正經(jīng)的課題。作家James Barrat把這比作傳染病控制中心發(fā)布吸血鬼警報(bào)一樣滑稽。
因?yàn)檎J(rèn)知偏差,所以我們?cè)谝?jiàn)到證據(jù)前很難相信一件事情是真的。我確信1988年的時(shí)候電腦科學(xué)家們就已經(jīng)常在討論因特網(wǎng)將是多么重要,但是一般人并不會(huì)認(rèn)為因特網(wǎng)會(huì)改變他們的生活——直到他們的生活真的被改變了。一方面,1988年的電腦確實(shí)不夠給力,所以那時(shí)的人們看著電腦會(huì)想:“這破玩意兒也能改變我的生活,你逗我吧?”人們的想象力被自己對(duì)于電腦的體驗(yàn)而約束。讓他們難以想象電腦會(huì)變成現(xiàn)在的樣子。同樣的事情正發(fā)生在人工智能領(lǐng)域。我們聽到很多人說(shuō)人工智能將會(huì)造成很大影響,但是因?yàn)檫@個(gè)事情還沒(méi)發(fā)生,因?yàn)槲覀兒鸵恍┤醣说娜斯ぶ悄芟到y(tǒng)的個(gè)人經(jīng)歷,讓我們難以相信這東西真的能改變我們的生活。而這些認(rèn)知偏差,正是專家們?cè)谂?duì)抗的。
就算我們相信人工智能的巨大潛力,你今天又花了多少時(shí)間思考“在接下來(lái)的永恒中,絕大部分時(shí)間我都不會(huì)再存在”這個(gè)問(wèn)題?雖然這個(gè)問(wèn)題比你今天干的大部分事情都重要很多,但是正常人都不會(huì)老是想這個(gè)吧。這是因?yàn)槟愕拇竽X總是關(guān)注日常的小事,不管長(zhǎng)期來(lái)看有多少重要的事情,我們天生就是這么思考的。
這篇東西的主要目標(biāo)就是讓你脫離普通人陣營(yíng),加入專家思考的陣營(yíng),哪怕能讓你站到兩條不確定線的交點(diǎn)上,目標(biāo)也達(dá)到了。
在我的研究中,我見(jiàn)識(shí)到了各種各樣的觀點(diǎn),但是我發(fā)現(xiàn)大多數(shù)人的觀點(diǎn)都停留在主流陣營(yíng)中。事實(shí)上超過(guò)四分之三的專家都屬于主流陣營(yíng)中的兩個(gè)小陣營(yíng)焦慮大道和信心角
我們將對(duì)這兩個(gè)小陣營(yíng)做深入的談?wù)?,讓我們從比較有趣的那個(gè)開始吧
為什么未來(lái)會(huì)是天堂
研究人工智能這個(gè)領(lǐng)域后,我發(fā)現(xiàn)有比預(yù)期的多得多的人站在信心角當(dāng)中:
站在信心角中的人非常興奮,他們認(rèn)為他們將走向平衡木下比較有趣的那個(gè)吸引態(tài),未來(lái)將實(shí)現(xiàn)他們的夢(mèng)想,他們只需耐心等待。
把這一部分人從其他思想家區(qū)分開來(lái)的是這些人對(duì)于比較有趣的那個(gè)吸引態(tài)的欲望——他們很有信心永生是我們的發(fā)展方向。
這份信心是哪里來(lái)的不好說(shuō),評(píng)論家認(rèn)為是這些人太過(guò)興奮而產(chǎn)生了盲點(diǎn),忽略了可能的負(fù)面結(jié)果。但是信心角的人還是把批評(píng)者當(dāng)作末日論者來(lái)看待,他們認(rèn)為技術(shù)會(huì)繼續(xù)幫助我們而不是傷害我們。
兩邊的觀點(diǎn)我們都會(huì)說(shuō),這樣你能形成自己的觀點(diǎn),但是在讀下面的內(nèi)容前,請(qǐng)把質(zhì)疑暫時(shí)擱置,讓我們看看平衡木兩邊究竟有什么,并且記住這些事情是有可能發(fā)生的。如果我們給一個(gè)打獵采集者看我們現(xiàn)在的舒適家居、技術(shù)、富庶,在他眼里這一切也會(huì)像魔法一樣——我們也要接受未來(lái)完全可能出現(xiàn)能把我們嚇尿的變革。
Bostrom描述了三種超人工智能可能的工作模式
-       先知模式:能準(zhǔn)確回答幾乎所有的問(wèn)題,包括對(duì)人類來(lái)說(shuō)很困難的復(fù)雜問(wèn)題,比如“怎樣造一個(gè)更好的汽車引擎?”
-       精靈模式:能夠執(zhí)行任何高級(jí)指令,比如用分子組合器造一個(gè)更好的汽車引擎出來(lái)
-       獨(dú)立意志模式(sovereign):可以執(zhí)行開放式的任務(wù),能在世界里自由活動(dòng),可以自己做決定,比如發(fā)明一種比汽車更快、更便宜、更安全的交通模式。
這些對(duì)人類來(lái)說(shuō)很復(fù)雜的問(wèn)題,對(duì)于一個(gè)超級(jí)智能來(lái)說(shuō)可能就像“我的筆掉了,你能幫我撿一下嗎?”這么簡(jiǎn)單。
Eliezer Yudkowsky,是這么說(shuō)的:
“根本沒(méi)有困難的問(wèn)題,只有對(duì)于特定級(jí)別的智能來(lái)說(shuō)難的問(wèn)題。在智能的階梯上走一小步,一些不可能的問(wèn)題就變得簡(jiǎn)單了,如果走一大步,所有問(wèn)題都變得簡(jiǎn)單了?!?/span>
信心角里有很多熱忱的科學(xué)家、發(fā)明家和創(chuàng)業(yè)者,但是對(duì)于人工智能的未來(lái)最有發(fā)言權(quán)的,當(dāng)屬Ray Kurzweil.
對(duì)于Kurzweil的評(píng)價(jià)非常兩極化,既有如對(duì)神人般的崇拜,也有翻白眼似的不屑。也有一些中立主義者,比如作家Douglas Hofstadter,他覺(jué)得Kurzweil的觀點(diǎn)就好像把美食和狗屎混在一起,讓你分不清是好是壞。
不管你同不同意Kurzweil的觀點(diǎn),他都是一個(gè)牛人。他年輕時(shí)候就開始搞發(fā)明,之后幾十年發(fā)明了很多東西,比如第一臺(tái)平板掃描儀,第一臺(tái)能把文字轉(zhuǎn)化為語(yǔ)言的掃描儀(盲人使用),著名的Kurzweil音樂(lè)合成器(第一臺(tái)真正意義上的電子鋼琴),以及第一套商業(yè)銷售的語(yǔ)音識(shí)別系統(tǒng)。他是五本暢銷書的作者。他很喜歡做大膽的預(yù)測(cè),而且一直很準(zhǔn),比如他80年代末的時(shí)候預(yù)測(cè)到2000年后因特網(wǎng)會(huì)成為全球級(jí)的現(xiàn)象。他被《華爾街日?qǐng)?bào)》成為“不休的天才”,被《福布斯》稱為“終極思想機(jī)器”,被《Inc.》稱作“愛(ài)迪生真正的傳人”,被比爾蓋茨稱為“我認(rèn)識(shí)的對(duì)人工智能預(yù)測(cè)最厲害的人?!?012年谷歌創(chuàng)始人Larry Page曾邀請(qǐng)他擔(dān)任谷歌的工程總監(jiān),2011年他共同創(chuàng)立了奇點(diǎn)大學(xué)(Singularity University),現(xiàn)在大學(xué)由美國(guó)太空總署運(yùn)運(yùn)營(yíng),由谷歌贊助。
Kurzweil的經(jīng)歷很重要,因?yàn)楫?dāng)他講述自己對(duì)未來(lái)的愿景時(shí),他聽起來(lái)就是個(gè)瘋子,但是他不瘋,恰恰相反,他非常聰明而有知識(shí)。你可能覺(jué)得他對(duì)于未來(lái)的想法是錯(cuò)的,但是他不傻。知道他是一個(gè)聰明人讓我很開心,因?yàn)楫?dāng)我知道他對(duì)未來(lái)的預(yù)測(cè)后,我急切的很希望他的預(yù)測(cè)是對(duì)的。信心角中的很多思想家都認(rèn)同Kurzweil的預(yù)測(cè),他也有很多粉絲,被稱為奇點(diǎn)主義者。
時(shí)間線
Kurzweil相信電腦會(huì)在2029年達(dá)成強(qiáng)人工智能,而到了2045年,我們不但會(huì)有超人工智能,還會(huì)有一個(gè)完全不同的世界——奇點(diǎn)時(shí)代。他的人工智能時(shí)間線曾經(jīng)被認(rèn)為非常的狂熱,現(xiàn)在也還是有很多人這么認(rèn)為,但是過(guò)去15年弱人工智能的快速發(fā)展讓更多的專家靠近了Kurzweil的時(shí)間線。雖然他的時(shí)間線比之前提到的2040年和2060年更加早,但是并沒(méi)有早多少。
Kurzweil的奇點(diǎn)時(shí)代是三個(gè)技術(shù)領(lǐng)域的共同革命造成的——生物技術(shù)、納米技術(shù)和最重要的人工智能技術(shù)。
在我們繼續(xù)討論人工智能前,讓我們談一下納米技術(shù)這個(gè)任何關(guān)于人工智能的討論都會(huì)涉及到的領(lǐng)域
納米技術(shù)
納米技術(shù)說(shuō)的是在1-100納米的范圍內(nèi)操縱物質(zhì)的技術(shù)。一納米是一米的十億分之一,是一毫米的一百萬(wàn)分之一。1-100納米這個(gè)范圍涵蓋了病毒(100納米長(zhǎng)),DNA(10納米寬), 大分子比如血紅蛋白(5納米),和中分子比如葡萄糖(1納米)。當(dāng)我們能夠完全掌握納米技術(shù)的時(shí)候,我們離在原子層面操縱物質(zhì)就只差一步了,因?yàn)槟侵皇且粋€(gè)數(shù)量級(jí)的差距(約0.1納米)。
要了解在納米量級(jí)操縱物質(zhì)有多困難,我們可以換個(gè)角度來(lái)比較。國(guó)際空間站距離地面431公里。如果一個(gè)人身高431公里,也就是他站著能夠頂?shù)絿?guó)際空間站的話,他將是普通人類的25萬(wàn)倍大。如果你把1-100納米放大25萬(wàn)倍,你算出的是0.25毫米-25毫米。所以人類使用納米技術(shù),就相當(dāng)于一個(gè)身高431公里的巨人用沙子那么大的零件搭精巧的模型。如果要達(dá)到原子級(jí)別操縱物質(zhì),就相當(dāng)于讓這個(gè)431公里高的巨人使用0.025毫米大的零件。
關(guān)于納米技術(shù)的思考,最早由物理學(xué)家費(fèi)曼在1959年提出,他解釋道:“據(jù)我所知,物理學(xué)的原理,并不認(rèn)為在原子級(jí)別操縱物質(zhì)是不可能的。原則上來(lái)說(shuō),物理學(xué)家能夠制造出任何化學(xué)家能寫出來(lái)的物質(zhì)——只要把一個(gè)個(gè)原子按照化學(xué)家寫出來(lái)的放在一起就好了?!逼鋵?shí)就是這么簡(jiǎn)單,所以我們只要知道怎樣移動(dòng)單個(gè)的分子和原子,我們就可以造出任何東西。
工程師Eric Drexler提出納米級(jí)組裝機(jī)后,納米技術(shù)在1986年成為了一門正經(jīng)的學(xué)科。納米級(jí)組裝機(jī)的工作原理是這樣的:一個(gè)牛逼掃描儀掃描物件的3D原子模型,然后自動(dòng)生成用來(lái)組裝的軟件。然后由一臺(tái)中央電腦和數(shù)萬(wàn)億的納米“機(jī)器人”,通過(guò)軟件用電流來(lái)指揮納米機(jī)器人,最后組成所需要的物件。
--------------------------
再扯遠(yuǎn)一點(diǎn)
納米技術(shù)有一些不是那么有趣的部分——能夠制造數(shù)萬(wàn)億的納米機(jī)器人唯一合理的方法就是制造可以自我復(fù)制的范本,然后讓指數(shù)級(jí)增長(zhǎng)來(lái)完成建造任務(wù)。很機(jī)智吧?
是很機(jī)智,但是這一不小心就會(huì)造成世界末日。指數(shù)級(jí)增長(zhǎng)雖然能很快的制造數(shù)萬(wàn)億的納米機(jī)器人,但這也是它可怕的地方——如果系統(tǒng)出故障了,指數(shù)級(jí)增長(zhǎng)沒(méi)有停下來(lái),那怎么辦?納米機(jī)器人將會(huì)吞噬所有碳基材料來(lái)支持自我復(fù)制,而不巧的是,地球生命就是碳基的。地球上的生物質(zhì)量大概包含10^45個(gè)碳原子。一個(gè)納米機(jī)器人有10^6個(gè)碳原子的話,只需要10^39個(gè)納米機(jī)器人就能吞噬地球上全部的生命了,而2^130約等于10^39,也就是說(shuō)自我復(fù)制只要進(jìn)行130次就能吞噬地球生命了。科學(xué)家認(rèn)為納米機(jī)器人進(jìn)行一次自我復(fù)制只要100秒左右,也就是說(shuō)一個(gè)簡(jiǎn)單的錯(cuò)誤可能就會(huì)在3.5小時(shí)內(nèi)毀滅地球上全部的生命。
更糟糕的是,如果恐怖分子掌握了納米機(jī)器人技術(shù),并且知道怎么操縱它們的話,他可以先造幾萬(wàn)億個(gè)納米機(jī)器人,然后讓它們散播開來(lái)。然后他就能發(fā)動(dòng)襲擊,這樣只要花一個(gè)多小時(shí)納米機(jī)器人就能吞噬一切,而且這種攻擊無(wú)法阻擋。未來(lái)真的是能把人嚇尿的。
------------------------
等我們掌握了納米技術(shù)后,我們就能用它來(lái)制造技術(shù)產(chǎn)品、衣服、食物、和生物產(chǎn)品,比如人造紅細(xì)胞、癌癥細(xì)胞摧毀者、肌肉纖維等等。而在納米技術(shù)的世界里,一個(gè)物質(zhì)的成本不再取決于它的稀缺程度或是制造流程的難度,而在于它的原子結(jié)構(gòu)有多復(fù)雜。在納米技術(shù)的時(shí)代,鉆石可能比橡皮擦還便宜。
我們還沒(méi)掌握這種技術(shù),我們甚至不知道我們對(duì)于達(dá)成這種技術(shù)的難度是高估了還是低估了,但是我們看上去離那并不遙遠(yuǎn)。Kurzweil預(yù)測(cè)我們會(huì)在21世紀(jì)20年代掌握這樣的技術(shù)。各國(guó)政府知道納米技術(shù)將能改變地球,所以他們投入了很多錢到這個(gè)領(lǐng)域,美國(guó)、歐盟和日本至今已經(jīng)投入了50億美元。
設(shè)想一下,一個(gè)具有超級(jí)智能的電腦,能夠使用納米級(jí)的組裝器,是種什么樣的體驗(yàn)?要記得納米技術(shù)是我們?cè)谘芯康耐嬉鈨海椅覀兙涂煺莆者@項(xiàng)技術(shù)了,而我們能做的一切在超人工智能看來(lái)就是小兒科罷了,所以我們要假設(shè)超人工智能能夠創(chuàng)造出比這要發(fā)達(dá)很多很多的技術(shù),發(fā)達(dá)到我們的大腦都沒(méi)有辦法理解。
因此,當(dāng)考慮“如果人工智能革命的成果對(duì)我們是好的”這個(gè)命題的時(shí)候,要記得我們根本沒(méi)法高估會(huì)發(fā)生什么。所以就算下面對(duì)于超人工智能的預(yù)測(cè)顯得太不靠譜,要記得這些進(jìn)展可能是用我們沒(méi)有辦法想象的方法達(dá)成的。事實(shí)上,我們的大腦很可能根本沒(méi)法預(yù)測(cè)將會(huì)發(fā)生什么。
----------------
人工智能能為我們做什么
擁有了超級(jí)智能和超級(jí)智能所能創(chuàng)造的技術(shù),超人工智能可以解決人類世界的所有問(wèn)題。氣候變暖?超人工智能可以用更優(yōu)的方式產(chǎn)生能源,完全不需要使用化石燃料,從而停止二氧化碳排放。然后它能創(chuàng)造方法移除多余的二氧化碳。癌癥?沒(méi)問(wèn)題,有了超人工智能,制藥和健康行業(yè)將經(jīng)歷無(wú)法想象的革命。世界饑荒?超人工智能可以用納米技術(shù)直接搭建出肉來(lái),而這些搭建出來(lái)的肉和真肉在分子結(jié)構(gòu)上會(huì)是完全相同的——換句話說(shuō),就是真肉。
納米技術(shù)能夠把一堆垃圾變成一堆新鮮的肉或者其它食品,然后用超級(jí)發(fā)達(dá)的交通把這些食物分配到世界各地。這對(duì)于動(dòng)物也是好消息,我們不需要屠殺動(dòng)物來(lái)獲得肉了。而超人工智能在拯救瀕危物種和利用DNA復(fù)活已滅絕物種上面也能做很多事情。超人工智能甚至可以解決復(fù)雜的宏觀問(wèn)題——我們關(guān)于世界經(jīng)濟(jì)和貿(mào)易的爭(zhēng)論將不再必要,甚至我們對(duì)于哲學(xué)和道德的苦苦思考也會(huì)被輕易的解決。
但是,有一件事是如此的吸引人,光是想想就能改變對(duì)所有事物的看法了:
幾個(gè)月前,我提到我很羨慕那些可能達(dá)成了永生的文明。但是,現(xiàn)在,我已經(jīng)在認(rèn)真的考慮達(dá)成永生這個(gè)事情很可能在我們有生之年就能達(dá)成。研讀人工智能讓你重新審思對(duì)于所有事情的看法,包括死亡這一很確定的事情。
自然演化沒(méi)有理由讓我們活得比現(xiàn)在更長(zhǎng)。對(duì)于演化來(lái)說(shuō),只要我們能夠活到能夠生育后代,并且養(yǎng)育后代到能夠自己保護(hù)自己的年紀(jì),那就夠了——對(duì)演化來(lái)說(shuō),活30多歲完全夠了,所以額外延長(zhǎng)生命的基因突變并不被自然選擇所鐘愛(ài)。這其實(shí)是很無(wú)趣的事情。
而且因?yàn)樗腥硕紩?huì)死,所以我們總是說(shuō)“死亡和繳稅”是不可避免的。我們看待衰老就像看待時(shí)間一樣——它們一直向前,而我們沒(méi)有辦法阻止它們。
但是這個(gè)假設(shè)是錯(cuò)的,費(fèi)曼曾經(jīng)寫道:
“在所有的生物科學(xué)中,沒(méi)有任何證據(jù)說(shuō)明死亡是必需的。如果你說(shuō)你想造永動(dòng)機(jī),那我們對(duì)于物理學(xué)的研究已經(jīng)讓我們有足夠的理論來(lái)說(shuō)明這是不可能的。但是在生物領(lǐng)域我們還沒(méi)發(fā)現(xiàn)任何證據(jù)證明死亡是不可避免的。也就是說(shuō)死亡不一定是不可避免的,生物學(xué)家早晚會(huì)發(fā)現(xiàn)造成我們死亡的原因是什么,而死亡這個(gè)糟糕的‘病’就會(huì)被治好,而人類的身體也將不再只是個(gè)暫時(shí)的容器?!?/span>
企業(yè)管理經(jīng)驗(yàn)

服務(wù)通道 撥打咨詢電話

頂部 電腦版

水木hr361人力資源管理網(wǎng)

全部評(píng)論 (0)

Copyright©2008-2024 版權(quán)所有 浙ICP備06026258號(hào)-1 浙公網(wǎng)安備 33010802003509號(hào) 杭州講師網(wǎng)絡(luò)科技有限公司
講師網(wǎng) kasajewelry.com 直接對(duì)接10000多名優(yōu)秀講師-省時(shí)省力省錢
講師網(wǎng)常年法律顧問(wèn):浙江麥迪律師事務(wù)所 梁俊景律師 李小平律師