人工智能的危害論文(2)
人工智能的危害論文篇二
關(guān)于約束人工智能情感的思考
摘 要:人工智能是近來(lái)研究熱點(diǎn)。分別在人工智能界別、角色、賦予人以及制度等方面重點(diǎn)探討其可能的情感約束作用,以期達(dá)到人工智能技術(shù)在很好的發(fā)展的同時(shí),不至于因?yàn)?ldquo;情感泛濫”而引發(fā)一些嚴(yán)重地后果的目的。
關(guān)鍵詞:人工智能 情感 約束
中圖分類號(hào):TP18 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-3973(2013)001-085-03
1引言
人工智能(Artificial Intelligence,AI)自從20世紀(jì)50年代產(chǎn)生,經(jīng)過(guò)長(zhǎng)期發(fā)展,已經(jīng)有了長(zhǎng)足的進(jìn)步,并且已經(jīng)深入到社會(huì)生活的諸多領(lǐng)域,如語(yǔ)言處理、智能數(shù)據(jù)檢索系統(tǒng)、視覺(jué)系統(tǒng)、自動(dòng)定理證明、智能計(jì)算、問(wèn)題求解、人工智能程序語(yǔ)言以及自動(dòng)程序設(shè)計(jì)等。隨著科學(xué)技術(shù)的不斷發(fā)展,現(xiàn)在的人工智能已經(jīng)不再是僅僅具有簡(jiǎn)單的模仿與邏輯思維能力,人們也越來(lái)越期待人工智能能夠幫助或者替代人類從事各種復(fù)雜的工作,加強(qiáng)人的思維功能、行為功能或是感知功能。這就要求人工智能具有更強(qiáng)的情感識(shí)別、情感表達(dá)以及情感理解能力。通俗的說(shuō),為了使得人工智能對(duì)外界的變化適應(yīng)性更強(qiáng),需要給它們賦予相應(yīng)的情感從而能夠應(yīng)對(duì)這個(gè)難以預(yù)測(cè)的世界。
在賦予人工智能“情感”的過(guò)程中,面臨著許多的問(wèn)題,有科技層面上的,也有社會(huì)學(xué)層面的。本文在這里只討論其中一個(gè)比較基本的社會(huì)學(xué)問(wèn)題:“人工智能情感約束問(wèn)題”,即關(guān)注于如何約束賦予給人工智能的情感,不至于使其“情感泛濫”。情感指的是一種特殊的思維方式,人工智能具有了情感后的問(wèn)題是:人工智能的情感是人類賦予的,人工智能自身并不會(huì)創(chuàng)造或者控制自己的情感。如果賦予人工智能的情感種類不合理,或者是賦予的情感程度不恰當(dāng),都有可能造成“情感泛濫”并導(dǎo)致一些災(zāi)難性的后果。例如,當(dāng)人工智能具有了情感之后,如果人類自身管理不恰當(dāng),有可能導(dǎo)致人工智能反過(guò)來(lái)傷害人類。盡管目前我們只能在一些科幻作品中看到這種情況發(fā)生,但誰(shuí)也不能保證未來(lái)有一天會(huì)不會(huì)真的出現(xiàn)這種悲劇。
本文第二章對(duì)人工智能情感研究進(jìn)行了概要性回顧,第三章對(duì)如何約束人工智能情感進(jìn)行了嘗試性探討,最后一章對(duì)全文進(jìn)行了總結(jié)。
2人工情感發(fā)展情況概述
隨著科學(xué)家對(duì)人類大腦及精神系統(tǒng)深入的研究,已經(jīng)愈來(lái)愈肯定情感是智能的一部分。人工情感是以人類自然情感理論為基礎(chǔ),結(jié)合人工智能、機(jī)器人學(xué)等學(xué)科,對(duì)人類情感過(guò)程進(jìn)行建模,以期獲得用單純理性思維難以達(dá)到的智能水平和自主性的一種研究方向。目前,研究者的研究方向主要是人工情感建模、自然情感機(jī)器識(shí)別與表達(dá)、人工情感機(jī)理等四個(gè)方面的內(nèi)容。其中,尤以人工情感機(jī)理的研究困難最大,研究者也最少。
目前人工情感在很多領(lǐng)域得到了應(yīng)用和發(fā)展,比較典型的是在教育教學(xué)、保健護(hù)理、家庭助理、服務(wù)等行業(yè)領(lǐng)域。在教育教學(xué)方面比較典型的例子是德國(guó)人工智能研究中心發(fā)展的三個(gè)方案:在虛擬劇場(chǎng)、虛擬市場(chǎng)和對(duì)話Agent中引入情感模型和個(gè)性特征來(lái)幫助開(kāi)發(fā)兒童的想象力及創(chuàng)造力。在保健護(hù)理方面比較典型的是家庭保健與護(hù)理方向,如Lisetti等人研制的一個(gè)用于遠(yuǎn)程家庭保健的智能情感界面,用多模態(tài)情感識(shí)別手段來(lái)識(shí)別病人的情感狀態(tài),并輸入不同媒體和編碼模型進(jìn)行處理,從而為醫(yī)生提供關(guān)于病人簡(jiǎn)明而有價(jià)值的情感信息以便于進(jìn)行有效的護(hù)理。服務(wù)型機(jī)器人的典型例子是卡內(nèi)基梅隆大學(xué)發(fā)明的一個(gè)機(jī)器人接待員Valerie。Valerie的面孔形象的出現(xiàn)在一個(gè)能夠轉(zhuǎn)動(dòng)方向的移動(dòng)屏幕上時(shí)可以向訪問(wèn)者提供一些天氣和方位方面的信息,還可以接電話、解答一些問(wèn)題;并且Valerie有自己的性格和愛(ài)好,情感表達(dá)較為豐富。當(dāng)然這些只是人工情感應(yīng)用領(lǐng)域中的幾個(gè)典型的例子,人工智能情感的潛力仍然是巨大的。
盡管關(guān)于人工情感的研究已經(jīng)取得了一定的成果,給我們帶來(lái)了很多驚喜和利益,但由于情緒表現(xiàn)出的無(wú)限紛繁以及它與行為之間的復(fù)雜聯(lián)系,人們對(duì)它的運(yùn)行機(jī)理了解的還不成熟,以致使得目前人工情感的研究仍面臨著諸如評(píng)價(jià)標(biāo)準(zhǔn)、情感道德約束等多方面問(wèn)題。所以必須清楚的認(rèn)識(shí)到我們目前對(duì)于人工情感的計(jì)算乃至控制機(jī)制并沒(méi)有一個(gè)成熟的體系。
3對(duì)人工智能的情感約束
正如上文所述,如果放任人工智能“情感泛濫”,很有可能會(huì)造成嚴(yán)重的后果。為了使人工智能技術(shù)更好的發(fā)展,使智能與情感恰到好處的結(jié)合起來(lái),我們有必要思考如何對(duì)賦予人工智能情感進(jìn)行引導(dǎo)或者約束。
3.1根據(jù)級(jí)別賦予情感
可以根據(jù)人工智能級(jí)別來(lái)賦予其情感,如低級(jí)別人工智能不賦予情感、高級(jí)別人工智能賦予其適當(dāng)?shù)那楦?。眾所周知,人工智能是一門交叉科學(xué)科,要正確認(rèn)識(shí)和掌握人工智能的相關(guān)技術(shù)的人至少必須同時(shí)懂得計(jì)算機(jī)學(xué)、心理學(xué)和哲學(xué)。首先需要樹(shù)立這樣的一個(gè)觀點(diǎn):人工智能的起點(diǎn)不是計(jì)算機(jī)學(xué)而是人的智能本身,也就是說(shuō)技術(shù)不是最重要的,在這之前必須得先解決思想問(wèn)題。而人工智能由于這方面沒(méi)有一個(gè)嚴(yán)格的或是量度上的控制而容易出現(xiàn)問(wèn)題。從哲學(xué)的角度來(lái)說(shuō),量變最終會(huì)導(dǎo)致質(zhì)變?,F(xiàn)在是科學(xué)技術(shù)飛速發(fā)展的時(shí)代,不能排除這個(gè)量變導(dǎo)致質(zhì)變時(shí)代的人工智能機(jī)器人的到來(lái),而到那個(gè)時(shí)候后果則不堪設(shè)想。因此,在現(xiàn)階段我們就應(yīng)該對(duì)人工智能的情感賦予程度進(jìn)行一個(gè)約束。
根據(jù)維納的反饋理論,人工智能可以被分成高低兩個(gè)層次。低層次的是智能型的人工智能,主要具備適應(yīng)環(huán)境和自我優(yōu)化的能力。高層次的是情感型的人工智能,它的輸入過(guò)程主要是模仿人的感覺(jué)方式,輸出過(guò)程則是模仿人的反應(yīng)情緒。據(jù)此我們可分別將機(jī)器人分為一般用途機(jī)器人和高級(jí)用途機(jī)器人兩種。一般用途機(jī)器人是指不具有情感,只具有一般編程能力和操作功能的機(jī)器人。那么對(duì)于一般用途的機(jī)器人我們完全可以嚴(yán)格的用程序去控制它的行為而沒(méi)必要去給他賦予情感。而對(duì)于高級(jí)層面的情感機(jī)器人來(lái)說(shuō),我們就適當(dāng)?shù)馁x予一些情感。但即使是這樣一部分高層次的情感機(jī)器人,在賦予人工情感仍然需要考慮到可能會(huì)帶來(lái)的某些潛在的危害,要慎之又慎。 3.2根據(jù)角色賦予情感
同樣也可以根據(jù)人工智能機(jī)器人角色的不同選擇性的賦予其不同類型的情感。人類與機(jī)器合作起來(lái)比任何一方單獨(dú)工作都更為強(qiáng)大。正因?yàn)槿绱?,人類就要善于與人工智能機(jī)器合作,充分發(fā)揮人機(jī)合作的最大優(yōu)勢(shì)。由于計(jì)算機(jī)硬件、無(wú)線網(wǎng)絡(luò)與蜂窩數(shù)據(jù)網(wǎng)絡(luò)的高速發(fā)展,目前的這個(gè)時(shí)代是人工智能發(fā)展的極佳時(shí)期,使人工智能機(jī)器人處理許多以前無(wú)法完成的任務(wù),并使一些全新的應(yīng)用不再禁錮于研究實(shí)驗(yàn)室,可以在公共渠道上為所有人服務(wù),人機(jī)合作也將成為一種大的趨勢(shì),而他們會(huì)以不同的角色與我們進(jìn)行合作?;蜃鳛楣ぞ?、顧問(wèn)、工人、寵物、伴侶亦或是其他角色??傊覀儜?yīng)該和這些機(jī)器建立一種合作互助的關(guān)系,然后共同完任務(wù)。這當(dāng)然是一種很理想的狀態(tài),要做到這樣,首先需要我們?nèi)祟愞D(zhuǎn)變自身現(xiàn)有的思維模式:這些機(jī)器不再是一種工具,而是平等的服務(wù)提供人。
舉例來(lái)說(shuō),當(dāng)機(jī)器人照顧老人或是小孩的時(shí)候,我們應(yīng)該賦予它更多的正面情緒,而不要去賦予負(fù)面情緒,否則如果機(jī)器人的負(fù)向情緒被激發(fā)了,對(duì)于這些老人或者小孩來(lái)說(shuō)危險(xiǎn)性是極大的;但是,如果機(jī)器人是作為看門的保安,我們對(duì)這種角色的機(jī)器人就可以適當(dāng)?shù)馁x予一些負(fù)向的情緒,那么對(duì)于那些不按規(guī)則的來(lái)訪者或是小偷就有一定的威懾力。總之,在我們賦予這些智能機(jī)器人情感前必須要周到的考慮這些情感的程度和種類,不要沒(méi)有顧忌的想當(dāng)然的去賦予,而是按分工、作用賦予限制性的情感約束,達(dá)到安全的目的。
3.3對(duì)賦予人進(jìn)行約束
對(duì)人工智能情感賦予者進(jìn)行約束,提高賦予者的自身素質(zhì),并定期考核,并為每一被賦予情感的人工智能制定責(zé)任人。
縱觀人工智能技術(shù)發(fā)展史,我們可以發(fā)現(xiàn)很多的事故都是因?yàn)槿藶橐蛩貙?dǎo)致的。比如,首起機(jī)器人殺人案:1978年9月的一天,在日本廣島,一臺(tái)機(jī)器人正在切割鋼板,突然電腦系統(tǒng)出現(xiàn)故障,機(jī)器人伸出巨臂,把一名工人活生生地送到鋼刀下,切成肉片。
另外,某些研究者也許會(huì)因?yàn)槔娴恼T惑,而將人工智能運(yùn)用在不正當(dāng)領(lǐng)域,或者人工智能技術(shù)落入犯罪分子的手中,被他們用來(lái)進(jìn)行反對(duì)人類和危害社會(huì)的犯罪活動(dòng)。也就是用于所謂的“智能犯罪”。任何新技術(shù)的最大危險(xiǎn)莫過(guò)于人類對(duì)它失去控制,或者是它落入那些企圖利用新技術(shù)反對(duì)人類的人的手中。
因此為了減少這些由于人而導(dǎo)致的悲劇,我們需要對(duì)這些研究者本身進(jìn)行約束。比如通過(guò)相應(yīng)的培訓(xùn)或是定期的思想政治教育、或是理論知識(shí)的學(xué)習(xí)并制定定期的考核制度來(lái)保證這些專家自身的素質(zhì),又或者加強(qiáng)對(duì)人工智能事故的追究機(jī)制,發(fā)生問(wèn)題能立即查詢到事故方等等,通過(guò)這樣一系列強(qiáng)有力的硬性指標(biāo)達(dá)到減少由于人為因素導(dǎo)致悲劇的目的。
3.4制定相應(yīng)的規(guī)章制度來(lái)管理人工智能情感的發(fā)展
目前世界上并未出臺(tái)任何一項(xiàng)通用的法律來(lái)規(guī)范人工智能的發(fā)展。不過(guò)在1939 年,出生在俄國(guó)的美籍作家阿西莫夫在他的小說(shuō)中描繪了工程師們?cè)谠O(shè)計(jì)和制造機(jī)器人時(shí)通過(guò)加入保險(xiǎn)除惡裝置使機(jī)器人有效地被主人控制的情景。這就從技術(shù)上提出了預(yù)防機(jī)器人犯罪的思路。幾年后, 他又為這種技術(shù)裝置提出了倫理學(xué)準(zhǔn)則的道德三律:(1)機(jī)器人不得傷害人類,或看到人類受到傷害而袖手旁觀;(2)在不違反第一定律的前提下,機(jī)器人必須絕對(duì)服從人類給與的任何命令;(3)在不違反第一定律和第二定律的前提下,機(jī)器人必須盡力保護(hù)自己。這一“機(jī)器人道德三律”表現(xiàn)了一種在道德憂思的基礎(chǔ)上,對(duì)如何解決人工智能中有害人類因素所提出的道德原則,雖然得到很多人的指責(zé),但其首創(chuàng)性還是得到公認(rèn)的。盡管這個(gè)定律只是小說(shuō)家提出來(lái)的,但是也代表了很多人的心聲,也是值得借鑒的。
那么對(duì)于人工智能情感的約束呢?顯然,更加沒(méi)有相應(yīng)的法律法規(guī)來(lái)規(guī)范。那么,我們就只能在賦予人工智能情感的道理上更加的小心翼翼。比如,我們可以制定一些應(yīng)急方案來(lái)防止可能導(dǎo)致的某些后果,也即出現(xiàn)了問(wèn)題如何及時(shí)的處理之。另外我們?cè)诓僮骱凸芾砩蠎?yīng)更加慎重的去對(duì)待。也希望隨著科學(xué)技術(shù)的發(fā)展,能夠在不久的將來(lái)出臺(tái)一部相應(yīng)的規(guī)章制度來(lái)規(guī)范人工智能情感的管理,使之更加精確化、合理化。
4結(jié)束語(yǔ)
人工智能的情感研究目的就是探索利用情感在生物體中所扮演的一些角色、發(fā)展技術(shù)和方法來(lái)增強(qiáng)計(jì)算機(jī)或機(jī)器人的自治性、適應(yīng)能力和社會(huì)交互的能力。但是現(xiàn)階段對(duì)這方面的研究雖然在技術(shù)上可能已經(jīng)很成熟,但是人工智能情感畢竟是模擬人的情感,是個(gè)很復(fù)雜的過(guò)程,本文嘗試性的在人工智能發(fā)展中可能遇到的問(wèn)題進(jìn)行了有益的探討。但是不可否認(rèn)仍然有很長(zhǎng)的道路要走,但是對(duì)于人工智能的發(fā)展勁頭我們不可否認(rèn),將來(lái)“百分百情感機(jī)器人”的問(wèn)世也許是遲早的事情。
看了“人工智能的危害論文”的人還看了: