關(guān)于人工智能的論文(2)
關(guān)于人工智能的論文
關(guān)于人工智能的論文篇二
人工智能的倫理問(wèn)題
無(wú)人駕駛車(chē)業(yè)已駛上加利福尼亞的公路,現(xiàn)在言及如何讓機(jī)器的行為符合倫理為時(shí)已不算太早。超級(jí)智能或許離我們太遙遠(yuǎn),但是,我們可以開(kāi)始考慮如何讓人工智能符合人類(lèi)、
乃至所有有感情的生物的利益了。
上個(gè)月,一款專(zhuān)門(mén)被設(shè)計(jì)用于下圍棋的電腦程序“阿爾法狗”(AlphaGo)以4:1擊敗世界頂尖職業(yè)圍棋選手李世石,在圍棋愛(ài)好者群體中引發(fā)轟動(dòng)。
你可能會(huì)問(wèn),這算是新聞嗎?早在二十年前,IBM的電腦“深藍(lán)”(Deep Blue)就曾打敗過(guò)國(guó)際象棋世界冠軍加里・卡斯帕羅夫;且眾所周知,自那以后技術(shù)一直在進(jìn)步。但是,“深藍(lán)”獲勝純因計(jì)算能力,它能比世界冠軍計(jì)算出更多步棋。相比8×8格的國(guó)際象棋,圍棋的棋盤(pán)更復(fù)雜,為19×19格,圍棋可能的走法要超過(guò)宇宙中的原子數(shù),因此,單憑強(qiáng)大的計(jì)算能力不太可能打敗對(duì)最佳走法有著強(qiáng)烈直覺(jué)的人類(lèi)。
“阿爾法狗”的勝利之道,在于同其他程序進(jìn)行海量對(duì)弈,并采納被證明成功的戰(zhàn)略。因而可以說(shuō),“阿爾法狗”進(jìn)化為全世界最優(yōu)秀的圍棋選手只用了兩年,而人類(lèi)的大腦在自然過(guò)程中完成這樣的進(jìn)化,可能需要數(shù)百萬(wàn)年的時(shí)間。
“阿爾法狗”的主人、谷歌公司執(zhí)行董事長(zhǎng)埃里克・施密特(Eric Schmidt)熱衷于人工智能(AI)。他在人機(jī)大戰(zhàn)之前表示,無(wú)論結(jié)果如何,人類(lèi)必將是贏家,因?yàn)槿斯ぶ悄艿倪M(jìn)步會(huì)令每個(gè)人更聰明、能力更強(qiáng),“只會(huì)讓人類(lèi)更美好”。
果真如此嗎?就在“阿爾法狗”凱旋的同時(shí),微軟的“聊天機(jī)器人”泰勒(Taylor)卻嘗到了苦頭。這款自稱(chēng)“Tay”的機(jī)器人的用途是與18~24歲的年輕人互動(dòng)。Tay可以從接收到的信息中學(xué)習(xí),并逐步提高對(duì)話能力。不幸的是,上線不到一天,就有人“教導(dǎo)”Tay有關(guān)種族主義和性別歧視的觀點(diǎn)。當(dāng)她開(kāi)始贊揚(yáng)希特勒時(shí),微軟不得不將其關(guān)閉,并刪掉了其大部分攻擊性的言論。
我不知道那些將Tay教成種族主義者的人自己是否是種族主義者,抑或他們只是認(rèn)為玩壞微軟的新產(chǎn)品是饒有趣味的事。但不管怎樣,“阿爾法狗”的勝利與Tay的失敗同樣令人類(lèi)警醒。在有著特定規(guī)則和明確目標(biāo)的游戲中釋放人工智能的潛能是一回事,而把人工智能投入真實(shí)世界則是另一回事――兩者截然不同,環(huán)境的不可預(yù)知性可能暴露軟件漏洞,引發(fā)災(zāi)難性后果。
牛津大學(xué)人類(lèi)未來(lái)研究所所長(zhǎng)尼克・波斯特洛姆(Nick Bostrom)在其著作《超級(jí)智能》(Super intelligence)中指出,關(guān)閉一個(gè)智能機(jī)器并不總是像關(guān)閉Tay那樣輕而易舉。他將“超級(jí)智能”定義為“幾乎在任何領(lǐng)域都超越人類(lèi)最聰明大腦的智能,包括科學(xué)創(chuàng)造力、整體智慧和社交能力”。這樣的系統(tǒng)也許能挫敗我們關(guān)閉它的企圖。
有人質(zhì)疑超級(jí)智能會(huì)不會(huì)實(shí)現(xiàn)。對(duì)此,波斯特洛姆 和文森特・穆勒(Vincent Müller)一起咨詢(xún)了人工智能專(zhuān)家,問(wèn)機(jī)器智力何時(shí)能有50%的可能達(dá)到人類(lèi)水平,以及何時(shí)有90%的幾率達(dá)到人類(lèi)水平。估計(jì)的中位數(shù)顯示,50%的可能性在2045~2050年達(dá)成,90%的可能性在2075年達(dá)成。大部分專(zhuān)家都預(yù)計(jì),達(dá)到人類(lèi)智能后不到30年,人工智能就會(huì)發(fā)展到超級(jí)智能水平。
我們不應(yīng)對(duì)這些估計(jì)太較真,因?yàn)閷?zhuān)家總體的回復(fù)率只有31%,而且這一領(lǐng)域的研究者們往往想通過(guò)拔高人工智能的潛力來(lái)提高自己所在領(lǐng)域的重要性。
超級(jí)智能或許離我們太遙遠(yuǎn),尤其是在我們還面臨更緊迫的問(wèn)題時(shí)更是如此。但是,我們可以開(kāi)始考慮如何讓人工智能符合人類(lèi)、乃至所有有感情的生物的利益。
無(wú)人駕駛車(chē)業(yè)已駛上加利福尼亞的公路,現(xiàn)在言及如何讓機(jī)器的行為符合倫理為時(shí)已不算太早。隨著無(wú)人駕駛車(chē)的改進(jìn),他們將拯救生命,因?yàn)樗麄儽热祟?lèi)司機(jī)更少犯錯(cuò)誤。然而,他們有時(shí)也將面臨在不同的生命間做出選擇。比如,他們是否應(yīng)該急轉(zhuǎn)彎以免撞到橫穿馬路的小孩,而不顧將車(chē)上乘客置于險(xiǎn)境?前面出現(xiàn)小狗該怎么辦?如果為了不危及乘客安全而采取的措施對(duì)車(chē)本身有損,又該怎么辦?
只是在開(kāi)始討論無(wú)人駕駛汽車(chē)時(shí),我們可能就會(huì)發(fā)現(xiàn)有許多功課要做。但無(wú)人車(chē)畢竟并非超級(jí)智能??梢韵胍?jiàn),在廣泛的領(lǐng)域向比我們還要聰明的機(jī)器講解倫理問(wèn)題,更將是極其困難的任務(wù)。
在《超級(jí)智能》一書(shū)的開(kāi)頭,波斯特洛姆講了一個(gè)麻雀的寓言:這些麻雀心想,如果能培訓(xùn)一只貓頭鷹來(lái)幫助他們筑巢和撫育雛鳥(niǎo),一定很不錯(cuò)。于是,他們開(kāi)始找貓頭鷹蛋。其中一只麻雀站出來(lái)表示反對(duì),認(rèn)為應(yīng)該先考慮如何馴服貓頭鷹;但其他麻雀很不耐煩,迫不及待地就著手啟動(dòng)激動(dòng)人心的新計(jì)劃。他們將在成功養(yǎng)大一只貓頭鷹后應(yīng)對(duì)馴服貓頭鷹的挑戰(zhàn),例如不讓其吃掉麻雀。
如果我們想得到一只有智慧而不僅僅是智能超群的貓頭鷹,那就別學(xué)那些沒(méi)有耐心的麻雀?jìng)儭?/p>
關(guān)于人工智能的論文相關(guān)文章:
1.人工智能小論文
2.人工智能科技論文