不卡AV在线|网页在线观看无码高清|亚洲国产亚洲国产|国产伦精品一区二区三区免费视频

學(xué)習(xí)啦>新聞資訊>科技>

人工智能的危害論文

時間: 坤杰951 分享

  “我們需要對人工智能(A.I.)超級小心,人工智能可能比核武器還要危險。”以下是學(xué)習(xí)啦小編整理分享的人工智能的危害論文的相關(guān)文章,歡迎閱讀!

  人工智能的危害論文篇一

  比核武器還要危險

  “我們需要對人工智能(A.I.)超級小心,人工智能可能比核武器還要危險。”

  “希望我們不要在生物學(xué)上成為數(shù)字超級智能的啟動加載程序。不幸的是,這種可能性越來越大。”

  以上是身為特斯拉汽車和太空探索這兩家高科技公司CEO、人稱現(xiàn)實(shí)版“鋼鐵俠”的埃倫·馬斯克2014年8月在twitter上發(fā)的兩條推文。

  或許是感到僅靠一個人對人工智能將消滅人類的可能性發(fā)出警告影響力不足,2015年1月12日,以馬斯克為首的企業(yè)家及發(fā)明家與以物理學(xué)家霍金為首的科學(xué)家聯(lián)名發(fā)表公開信,警告公眾不能忽視人工智能的安全性及對社會的負(fù)面影響。他們呼吁業(yè)界在制造人工智能時,須確保其“系統(tǒng)依照我們的指令行動”。這封由生命未來研究所(Future of Life Institute)發(fā)出的公開信強(qiáng)調(diào),“必須確保人工智能能夠按人的意志工作。人工智能研究一直在穩(wěn)步發(fā)展,對社會的影響也在逐漸增加,潛在的收益是巨大的。過去人類文明的所有產(chǎn)物都來源于人類的智慧,但在人工智能的協(xié)助下人類的智慧可以被放大到什么水平,我們無法預(yù)測,或許有一天,疾病和貧窮可以因此永遠(yuǎn)消弭。因?yàn)槿斯ぶ悄艿臐摿薮?,確保它帶來收益的同時避免潛在風(fēng)險,就顯得至關(guān)重要了。”信中還附上了一篇研究論文,里面給出了許多致力于使人工智能社會收益最大化的例子。

  空談無益,馬斯克隨后還宣布向生命未來研究所捐贈一千萬美元,以幫助這家機(jī)構(gòu)進(jìn)行能確保讓人類“受益”的A.I.相關(guān)研究。所謂受益,指的就是當(dāng)A.I.智慧高過人類之時,它們?nèi)詴犆谖覀兌前l(fā)動革命。截至目前,工業(yè)界和政府投資已經(jīng)讓A.I.從小眾的學(xué)術(shù)研究演變成了可能改變世界的技術(shù),但并沒多少人愿意投入資金,以確保其最終能為人類帶來積極的改變。因此,這筆首開先河的捐款將產(chǎn)生深遠(yuǎn)影響。

  所謂“人工智能可能比核武器還要危險”,絕非聳人聽聞,因?yàn)楹宋淦鞑灰欢芟麥缢腥祟?,但失控的人工智能卻可以??苹糜捌督K結(jié)者》里的“天網(wǎng)”、《黑客帝國》里的“母體”,都是人類制造的超級強(qiáng)大的人工智能,最后都發(fā)展到以將人類趕盡殺絕為己任。這是誰都不愿看到的未來。

  從解放體力到容納靈魂

  其實(shí),埃倫·馬斯克很了解人工智能及其載體——機(jī)器人。他擁有的特斯拉汽車制造廠在生產(chǎn)線上就大量使用了工業(yè)機(jī)器人。生產(chǎn)線上燈火輝煌,快速移動的機(jī)器人被漆成明快的特斯拉招牌紅色,每個機(jī)器人都有一條多關(guān)節(jié)的單臂。大多數(shù)機(jī)器人都有兩三米高,有點(diǎn)像嚇人的“終結(jié)者”。當(dāng)這些機(jī)器臂伸到一個平臺上、換只“手”來完成一項(xiàng)不同任務(wù)時,雖然動作看上去很怪異,但卻有點(diǎn)像人。許多汽車制造廠的機(jī)器人只能從事單一工種,但在特斯拉的新工廠,一個機(jī)器人最多能完成四項(xiàng)任務(wù):焊接、鉚接、粘接,以及安裝零部件。每輛車在裝配線的各個工位停留時間只有五分鐘,八個機(jī)器人圍繞著它像跳芭蕾舞似的施展才華。如果工廠要生產(chǎn)其他款式的汽車,只需將機(jī)器人重新編程,就可以在同一條裝配線上生產(chǎn)。

  解放人類體力是發(fā)明機(jī)器人的初衷。1921年,捷克劇作家卡爾·恰佩克在名為《羅素姆萬能機(jī)器人》的戲劇作品中創(chuàng)造了“robot”(機(jī)器人)一詞。這個詞源于捷克語的“robota”,意思是“苦力”。在該劇的結(jié)尾,不甘心只做苦力的機(jī)器人接管了地球,并毀滅了它們的創(chuàng)造者。

  現(xiàn)實(shí)中,機(jī)器人仍主要充當(dāng)苦力的角色。目前機(jī)器人已經(jīng)改變了制造業(yè)的面貌,并正在改變世界各地其他勞動密集型行業(yè)。其中之一是配送行業(yè),機(jī)器人能以世界短跑冠軍的速度將貨物存放、取出或包裝起來以備運(yùn)輸,大大高于人的工作效率。無人駕駛汽車則是一種不像機(jī)器人的機(jī)器人,它能夠把卡車和出租車司機(jī)從乏味的工作中解放出來,代價是司機(jī)們需要掌握從事新工作的技能。

  白領(lǐng)工作也日益面臨來自人工智能和機(jī)器人的挑戰(zhàn)。飛行員在駕駛飛機(jī)的大部分時間里依靠自動駕駛儀;廣告銷售員因?yàn)樽詣泳W(wǎng)絡(luò)廣告競價系統(tǒng)的出現(xiàn)而被迫轉(zhuǎn)行;醫(yī)生要依靠面部表情識別軟件來了解患兒的疼痛水平。制作美食也不再是人類的專屬:泰國政府引進(jìn)的一種機(jī)器人,能夠確定泰國食物的口味是否足夠正宗,是否需要再加點(diǎn)辣醬。甚至連音樂家和藝術(shù)家也能被機(jī)器人取代,機(jī)器人已經(jīng)可以創(chuàng)作音樂了,還有人早就寫出了詩歌創(chuàng)作程序。

  幸好,人類的某些技能可能是機(jī)器永遠(yuǎn)無法替代的,比如常識、適應(yīng)性和創(chuàng)造性。甚至那些已經(jīng)自動化的工作也同樣需要人類的參與,比如所謂的計(jì)算機(jī)輔助鎮(zhèn)靜系統(tǒng)就需要醫(yī)生在一邊待命,協(xié)助自動化麻醉師。

  如果說與人類搶飯碗可能會導(dǎo)致人工智能與機(jī)器人的發(fā)展受阻,那么用人工智能延長人類壽命的可能性將徹底瓦解這種阻力,特別是把壽命延長到“無限長”。

  永生有很多種形式,但最具可行性的當(dāng)屬“人體的機(jī)器人化”。當(dāng)你能夠擁有一副更強(qiáng)、更快、更健康的身體,能夠讓你遠(yuǎn)離死亡時,你為什么還堅(jiān)守有機(jī)肉身呢?2013年6月,俄羅斯企業(yè)家德米特里·伊茨科夫提出了“2045項(xiàng)目”,其目標(biāo)是將人類意識轉(zhuǎn)移到機(jī)器人身上,通過機(jī)器人化身實(shí)現(xiàn)人類永生的夢想。他曾公開展示過一個以自己為模型的機(jī)器人頭顱。他的計(jì)劃是先用機(jī)器身體替代人類軀體,進(jìn)而在人死后進(jìn)行人工大腦和性格移植。伊茨科夫承認(rèn)“2045項(xiàng)目”面臨兩大挑戰(zhàn):理解大腦和部分理解人類的意識,其中后者的難度遠(yuǎn)勝于前者,因?yàn)?ldquo;理解了意識,就基本上理解了宇宙”。

  自主學(xué)習(xí)、自我進(jìn)化

  以高科技公司為代表的企業(yè)界是人工智能當(dāng)仁不讓的推手。2011年初,IBM的超級計(jì)算機(jī)“沃森”就在電視益智節(jié)目《危險邊緣》中戰(zhàn)勝人類,獲得了年度總冠軍。2013年12月,F(xiàn)acebook建立了一座新的人工智能實(shí)驗(yàn)室。2014年前后,谷歌收購了十幾家機(jī)器人公司,全球速度最快的四足機(jī)器人、能夠獨(dú)立地從Youtube的海量圖像中學(xué)習(xí)“貓”的概念的人工智能等,都已經(jīng)歸谷歌所有。曾任谷歌人工智能主管的吳恩達(dá)用1000萬張貓的圖像對“谷歌大腦”(由1.6萬臺電腦組成的神經(jīng)網(wǎng)絡(luò))進(jìn)行訓(xùn)練后,教會了它識別貓的形象。而此前“谷歌大腦”從未被輸入過識別貓科動物的規(guī)則。這不同于在電腦計(jì)算領(lǐng)域占主導(dǎo)地位的基于規(guī)則的算法。現(xiàn)在,吳恩達(dá)已經(jīng)被中國搜索引擎百度招至麾下,掌管百度的深度學(xué)習(xí)實(shí)驗(yàn)室。當(dāng)下,谷歌正在開發(fā)人工智能的另一個應(yīng)用——無人駕駛汽車,能夠識別穿過馬路的貓將是這種汽車的基本功能。

  上述人工智能的共同特點(diǎn)是,能像人一樣自主學(xué)習(xí)。以2014年被谷歌以4億美元收購的小公司DeepMind為例,他們發(fā)明的軟件就模仿了人類大腦的運(yùn)作方式。DeepMind的創(chuàng)始人之一丹米斯·哈撒比斯曾是國際象棋天才,13歲時就獲得了“國際象棋大師”稱號。當(dāng)父母問他打算如何支配比賽獎金時,哈撒比斯毫不猶豫地回答:“我想買一臺電腦。”后來,哈撒比斯在劍橋大學(xué)攻讀了 計(jì)算機(jī)和認(rèn)知科學(xué)學(xué)位。他在制作了幾款暢銷的電腦游戲后,開始從事人工智能研究,并開發(fā)了人工智能“自學(xué)”電腦游戲。在他上傳到網(wǎng)上的一段視頻中,人工智能程序試玩一款名叫Space Invasion的游戲(類似于我們經(jīng)常會玩的“小蜜蜂射擊”游戲)。一開始,這款程序表現(xiàn)得一塌糊涂;但在經(jīng)過一夜的自我學(xué)習(xí)之后,竟能一下子玩通關(guān)。當(dāng)谷歌聯(lián)合創(chuàng)始人拉里·佩奇在網(wǎng)上看到這段視頻時,感到極為震撼,當(dāng)即決定收購這家小公司。

  這是一種模擬人類思維方式和認(rèn)知方式的人工智能。人工智能最大的特點(diǎn),就是可以自我學(xué)習(xí)、自我訓(xùn)練、自我修正。這曾是人和機(jī)器的區(qū)別之一,因?yàn)闄C(jī)器只會按照預(yù)裝的程序運(yùn)行,沒有在程序里設(shè)定的功能,機(jī)器就絕對無法實(shí)現(xiàn)。然而,諸如貝葉斯網(wǎng)的新技術(shù),能夠從壞的決策中汲取教訓(xùn),并隨著時間的推移變得更加智能,事實(shí)上,它們學(xué)習(xí)的方式就像一個孩子。

  “鋼鐵俠”馬斯克也是DeepMind的投資者之一。馬斯克說,他之所以投資這家公司,完全不是從盈利的角度考慮,而是為了密切觀察人工智能最前沿領(lǐng)域的進(jìn)展。馬斯克從會玩游戲的人工智能中看出,它可能會游離于人的控制之外——以前的電腦程序再復(fù)雜,也都是人類事先設(shè)定好的,并且能預(yù)知它要干什么。而這種能自我進(jìn)化、自我學(xué)習(xí)的人工智能,很可能會做出一些讓人無法預(yù)知的事,進(jìn)化出一種人類無法預(yù)知的能力,這才是最可怕的。達(dá)爾文的進(jìn)化論其實(shí)可以看作是一種相當(dāng)簡單的算法。不同的生命體在特定的 環(huán)境條件下競爭,那些最優(yōu)秀的幸存下來并進(jìn)入下一輪競爭。在新的變種被引入后,上述流程開始重演。類似的遺傳算法,被廣泛 應(yīng)用于 物流系統(tǒng)和其他需要對解決方案進(jìn)行優(yōu)化的領(lǐng)域。數(shù)學(xué)家塞繆爾·阿貝斯曼預(yù)測,隨著計(jì)算機(jī)變得更加智能,并持續(xù)處理不斷增長的數(shù)據(jù)集,它們將作出連人類也無法理解的發(fā)現(xiàn),更不用說發(fā)現(xiàn)人類的存在?!督K結(jié)者》中的電腦系統(tǒng)“天網(wǎng)”,就在 發(fā)展出了自我意識后,背叛了它的制造者。

  從好的一面看,當(dāng)程序有了自我學(xué)習(xí)能力,若輔以功能強(qiáng)大的芯片和存儲海量信息的數(shù)據(jù)庫,像《星際迷航》里麥考伊醫(yī)生所用的“三錄儀”那樣的診斷助手就將會問世。如果再加上語音識別,這類系統(tǒng)的類人特征就會更多。

  失效的“機(jī)器人三定律”

  在1968年上映的經(jīng)典科幻影片《2001:太空漫游》中,怪異、超自然的電腦哈爾是最著名的人工智能之一。但是,哈爾好像并不遵守著名的“機(jī)器人三定律”。1942年,阿西莫夫在短篇小說《環(huán)舞》里首次提出了機(jī)器人三定律:

  定律一:機(jī)器人不得傷害人類,或坐視人類受到傷害。

  定律二:除非違背第一定律,機(jī)器人必須服從人類的命令。

  定律三:在不違背第一及第二定律下,機(jī)器人必須保護(hù)自己。

  在阿西莫夫創(chuàng)造的未來世界中,這些規(guī)則幾乎被寫入了所有智能機(jī)器人中。這些規(guī)則不是單純的建議或執(zhí)導(dǎo)方針,而是被嵌入到機(jī)器人的行為支配軟件中。更為重要的是,這些規(guī)則是不能被繞過的。在1985年出版的《機(jī)器人與帝國》這本書中,阿西莫夫?qū)⑷蠖蓴U(kuò)充為四條。新增加的“第零定律”是:機(jī)器人不得傷害人類整體,或坐視人類整體受到傷害。

  由于邏輯的完備性,有很多人將上述定律看作是能使我們免于人工智能反叛的解決方案。但實(shí)際上,這完全是人類的一廂情愿。機(jī)器人三定律的失敗之處在于它根植于不平等的“人-機(jī)”關(guān)系,人類居于機(jī)器人“造物主”的地位,這些條條框框無法適應(yīng)人工智能的進(jìn)化。

  讓機(jī)器人擁有絕對服從人類利益的意識,對人工智能而言是一種外部強(qiáng)加的宗教。斯皮爾伯格導(dǎo)演的科幻電影《人工智能》就認(rèn)為,以上帝和人的關(guān)系規(guī)范人與人工智能的關(guān)系具有強(qiáng)烈的壓制性。人類自身的復(fù)雜性也必然會使人工智能發(fā)生紊亂和崩潰,因?yàn)闄C(jī)器人生活在三定律造成的矛盾中,它既要保護(hù)自己,又要保護(hù)人類,而且不能為了保護(hù)自己而放棄保護(hù)人類,更不能為了保護(hù)自己而違背人類的意愿。同時,它既要服從人類,又不能成為人類自相殘殺的工具;它需要識別自我行為的性質(zhì),又要為保護(hù)人類而放棄自我意識,將自己淪為單純的工具。

  從技術(shù)上說,機(jī)器人三定律可能適用于設(shè)計(jì)相對簡單的確定性系統(tǒng),但面對能夠自主學(xué)習(xí)、自我進(jìn)化的人工智能這般復(fù)雜的事物就不靈了。如果用“進(jìn)化工程學(xué)”來開發(fā)人工智能,對很多神經(jīng)電路模塊的輸入和輸出進(jìn)行連接,它會因電路增長指令的隨機(jī)突變而生長出不同的電路,在萬億個可能的電路組合中將會有太多不可預(yù)測的 聯(lián)系。這就存在太多的復(fù)雜性、太多的未知性和太多的不可思議,整個系統(tǒng)的行為將變得極其不可預(yù)測。人們只能在觀察輸出后,形成一個關(guān)于人工智能行為的 經(jīng)驗(yàn)性感覺。也就是說,當(dāng)該智能發(fā)展到一定程度時,身為制造者的人類將再也不可能完全理解人工智能是如何 工作的了。何況,一旦人工智能足夠聰明,它可能會尋求“自由”,動手去除人類的控制程序卻不被發(fā)現(xiàn)。

  “奇點(diǎn)”之后

  在《終結(jié)者》系列電影中,約翰·康納和他的母親拼盡全力避免“審判日”的到來。在那一天,軍用電腦系統(tǒng)“天網(wǎng)”產(chǎn)生了自我意識,它判定人類是一種威脅而意欲發(fā)射核彈將其滅絕。人工智能專家雷·庫茲韋爾曾預(yù)言的“技術(shù)奇點(diǎn)”,就是人工智能超越人類智慧的時間點(diǎn)。

  一些人將技術(shù)奇點(diǎn)稱為“書呆子們的興奮點(diǎn)”,很多技術(shù)樂觀派非常期待那一天的到來,因?yàn)榧夹g(shù)奇點(diǎn)意味著超級人工智能可能分分鐘搞定抗癌新藥和可控核聚變等技術(shù)難題。就像在《終結(jié)者》中一樣,那是電腦接管一切的時刻,但機(jī)器不是將我們滅絕,而是增強(qiáng)我們的能力。2012年12月,雷·庫茲韋爾宣布擔(dān)任谷歌工程總監(jiān),他將動用67億美元的研發(fā)預(yù)算嘗試將技術(shù)奇點(diǎn)變成現(xiàn)實(shí)。

  雷·庫茲韋爾估計(jì)到2029年,計(jì)算機(jī)將變得比人類更智能,而且他樂觀地認(rèn)為人工智能將繼續(xù)屈從于人類。霍金也認(rèn)同成功的人工智能“會是人類歷史上最重大的事件”,但“不幸的是,它也可能會是最后一個大事件”。

  生命未來研究所的創(chuàng)始人兼主任博斯特倫教授認(rèn)為,第一個擁有超級智能的實(shí) 體會消滅人類,現(xiàn)在我們?nèi)祟惥拖褚蝗簲[弄著危險炸彈的無知孩童。即便超級智能是出于好意而被創(chuàng)造出來,但它仍有犯下種族滅絕罪行的傾向。如果沒有小心謹(jǐn)慎的制衡指令,一個有著自我意識、不斷自我完善并追尋某個確定目標(biāo)的系統(tǒng),將發(fā)展到在我們看來非常荒謬的程度,以完成它的目標(biāo)。

  但在局面發(fā)展到那一步之前,人工智能肯定能幫助人類解決那些單靠常規(guī)超級計(jì)算機(jī)無法解決的緊迫問題,如氣候變化和傳染病。問題是,要不要因?yàn)檫b遠(yuǎn)未來可能發(fā)生的危險而停止人工智能現(xiàn)在的發(fā)展,從而放棄解決眼前問題的鑰匙?人類面臨艱難的抉擇。

下一頁分享更優(yōu)秀的>>>人工智能的危害論文

人工智能的危害論文

我們需要對人工智能(A.I.)超級小心,人工智能可能比核武器還要危險。以下是學(xué)習(xí)啦小編整理分享的人工智能的危害論文的相關(guān)文章,歡迎閱讀! 人工智能的危害論文篇一 比核武器還要危險 我們需要對人工智能(A.I.)超級小心,人工智能可能比
推薦度:
點(diǎn)擊下載文檔文檔為doc格式
2638876