人工智能的結(jié)課論文(2)
人工智能的結(jié)課論文
人工智能的結(jié)課論文篇二
人工智能的曙光
強(qiáng)大的電腦科技將重新規(guī)劃人類的未來,但如何才能確保其帶來的好處會(huì)多于危險(xiǎn)呢?
“世上真的有上帝嗎?”科學(xué)家用顫抖的聲音問道。
“現(xiàn)在有了。”世界上最聰明的人工智能電腦回答。話畢,一道電光閃過它的電源插頭――人們?cè)僖碴P(guān)不掉它了。
這是斯蒂芬・霍金在出席脫口秀時(shí)闡述的一則“恐怖故事”,而在前不久的倫敦“谷歌時(shí)代精神”大會(huì)上,霍金平靜地描述了人類的命運(yùn):“在未來100年內(nèi),結(jié)合人工智能的計(jì)算機(jī)將會(huì)變得比人類更聰明。”
斯蒂芬・霍金警示道:“人工智能的全面發(fā)展可能為讓人類征途畫上句號(hào)。”特斯拉汽車公司與美國(guó)太空探索技術(shù)公司CEO伊隆・馬斯克則擔(dān)心人工智能可能會(huì)成為人類生存所要面臨的最大威脅。持有同樣看法的還有微軟創(chuàng)始人比爾・蓋茨。今年年初,他們都在在一封提倡控制人工智能發(fā)展的公開信上簽下自己的名字。
人們害怕自己所創(chuàng)造出來的人工智能會(huì)反客為主成為自己的主宰,或是劊子手――雖然這種觀點(diǎn)還很新,但已然成為一種不可忽視的新趨勢(shì)。畢竟,這是由著名的宇宙論者,硅谷企業(yè)家以及微軟的創(chuàng)始人,可能還是盧德派分子(強(qiáng)烈反對(duì)提高機(jī)械化和自動(dòng)化者)提出的,而這一觀點(diǎn)也被用來反對(duì)諸如谷歌、微軟等大公司對(duì)于人工智能開發(fā)的巨大投資。隨著超級(jí)電腦的日益普及,機(jī)器人在各個(gè)戰(zhàn)場(chǎng)的無往不勝,只把人工智能和機(jī)器人定義在科學(xué)領(lǐng)域就顯得太自欺欺人了,現(xiàn)在的問題是,我們究竟該擔(dān)心什么?
你教我語(yǔ)言以及……
首先我們需要了解一下電腦現(xiàn)在能做什么,以及它們未來可能能做什么。得益于加工工藝的發(fā)展以及越來越豐富的數(shù)碼數(shù)據(jù),人工智能的能力得到了爆炸性增長(zhǎng)。通過模仿人類大腦的神經(jīng)元以及攝入大量的數(shù)據(jù),如今的“深度學(xué)習(xí)”系統(tǒng)可以教會(huì)他們自己完成諸多任務(wù)。從圖形識(shí)別到翻譯,人工智能幾乎可以和人類做的一樣好。結(jié)局就是,那些需要?jiǎng)幽X完成的游戲,如“青蛙過河”,現(xiàn)在已經(jīng)可以通過電腦程序解決。2014年由Facebook公司推出的DeepFace演算系統(tǒng),就可以從圖片中識(shí)別出人臉,識(shí)別率高達(dá)97%。
尤為關(guān)鍵的是,這項(xiàng)能力是有特定用途的。如今的人工智能是通過簡(jiǎn)單粗暴的數(shù)值計(jì)算來偽裝成“智能”,而不是像人類的思想一樣是在自主地思考,或是出于對(duì)某物的興趣和渴望進(jìn)行思考。現(xiàn)在的電腦智能尚無法像人類那樣擁有靈活的推測(cè)判斷的能力。
不過,人工智能已有足夠的力量給人類的生活帶來翻天覆地的影響。它可以與人類互補(bǔ),從而增強(qiáng)人類的能力。就拿國(guó)際象棋來說,電腦現(xiàn)在已經(jīng)玩得比任何人都好,雖然世界頂尖的國(guó)際象棋大師并不是機(jī)器,但被世界棋王卡斯帕洛夫稱為“半人馬”的就是混合著人類與演算程序的隊(duì)伍。這樣一種集成形態(tài)會(huì)逐漸成為人機(jī)追逐賽的常態(tài):有了人工智能的幫助,醫(yī)生可以更方便地標(biāo)記癌癥;智能手機(jī)中的語(yǔ)音識(shí)別系統(tǒng)可以將互聯(lián)網(wǎng)帶給數(shù)百萬發(fā)展中國(guó)家的文盲人群;數(shù)字助理會(huì)對(duì)學(xué)術(shù)研究提出有用的假說;圖像分類系統(tǒng)讓可穿戴電腦將真實(shí)世界的有用信息直觀呈現(xiàn)在人們的眼前。
從短期來看,不是所有的情況都是樂觀的。比如,人工智能又喚醒了機(jī)械設(shè)備對(duì)于國(guó)家安全的作用。無論是專制國(guó)家還是民主國(guó)家,這種可以監(jiān)視上億個(gè)場(chǎng)景,并且可以通過人臉或聲音從人群中識(shí)別出每一個(gè)市民的能力,都會(huì)對(duì)民眾自由構(gòu)成重大的威脅。
即使整個(gè)社會(huì)都能從人工智能那兒得到巨大的好處,仍會(huì)有許多個(gè)人遭受損失。曾經(jīng),做著如今電腦們做的活兒的是苦工們,而且大多是女性:她們?yōu)樽约旱纳纤緜冏鲋鵁o盡的計(jì)算工作。而就像現(xiàn)在電腦替代了她們一樣,人工智能可能會(huì)讓整個(gè)白領(lǐng)階層都丟了工作。當(dāng)然,更多的教育和訓(xùn)練會(huì)有所幫助,而借助人工智能產(chǎn)生的財(cái)富也會(huì)被用于創(chuàng)造新的工作,不過工人們注定會(huì)失去位置。
監(jiān)視手段和混亂并不是霍金、馬斯克和蓋茨所擔(dān)心的,也不是好萊塢近期密集推出未來人工智能電影的原因。他們所擔(dān)心的是更長(zhǎng)遠(yuǎn)、更具啟示的問題:這些具有超人的智慧與能力的機(jī)器人們會(huì)最終與人類作對(duì)。
不過,離這樣的人工智能出現(xiàn)還有很長(zhǎng)一段路要走,而實(shí)際上它們可能根本不會(huì)被創(chuàng)造出來。即使對(duì)大腦進(jìn)行了長(zhǎng)達(dá)一個(gè)世紀(jì)之久的研究,心理學(xué)家、神經(jīng)學(xué)家、社會(huì)學(xué)家以及哲學(xué)家們?nèi)耘f無法理解大腦是由什么構(gòu)成的,或者它是什么。
我知道如何詛咒
不過即使霍金認(rèn)為人工智能很有希望將實(shí)現(xiàn),對(duì)于科學(xué)家們而言這仍是仍重而道遠(yuǎn),必須小心謹(jǐn)慎地進(jìn)行規(guī)劃。其實(shí)這一過程比看上去要容易,尤其是人類已經(jīng)創(chuàng)造出了有著超人能力和沒有共同利益的自治實(shí)體,并且使用了很長(zhǎng)一段時(shí)間。政府官僚、市場(chǎng)以及軍隊(duì)都可以完成獨(dú)立的、無組織的人類所不能完成的任務(wù)。而這些團(tuán)體都如人工智能一樣,可以自主運(yùn)作,承擔(dān)自己的生活,以及如果沒有法律法規(guī)的管轄,它們都會(huì)對(duì)社會(huì)造成危害。
這些相似點(diǎn)應(yīng)該能夠安撫人們對(duì)于未來人工智能的恐懼,而這同時(shí)也為科學(xué)家如何安全地開發(fā)人工智能提出了實(shí)質(zhì)性的建議。就如同軍隊(duì)需要平民的監(jiān)督,市場(chǎng)需要被調(diào)節(jié),以及政府需要公開化和透明化一樣,人工智能系統(tǒng)也需要公開檢驗(yàn)。而由于在設(shè)計(jì)系統(tǒng)時(shí)不可能預(yù)見到所有的情況及應(yīng)對(duì)方法,所以該系統(tǒng)也一定要有一個(gè)關(guān)閉按鈕。這些措施也能在不妨礙人工智能系統(tǒng)開發(fā)的同時(shí)有效地約束它。從核武器到交通規(guī)則,人類有能力用巧妙的技術(shù)和合法的約束控制這些強(qiáng)大的科技革新。
“人類最終會(huì)創(chuàng)造出一種自主的非人類的智能”這一觀點(diǎn)就像幽靈一樣一直縈繞在人們心頭。這實(shí)在是太特別了,讓人們不斷地為其爭(zhēng)論。是的,這里危機(jī)重重,不過這也不能掩蓋,人工智能的曙光所帶來的巨大利益。
看了“人工智能的結(jié)課論文”的人還看了: