關(guān)于人工智能利弊的論文(2)
關(guān)于人工智能利弊的論文
關(guān)于人工智能利弊的論文篇二
一、不確定性人工智能的研究方法
傳統(tǒng)的人工智能以確定性作為基礎(chǔ),出現(xiàn)了以符號主義、連接主義、行為主義為代表的主流學(xué)派[1],在研究初期分別取得了一系列的理論和應(yīng)用成果。隨著研究的深入和相關(guān)學(xué)科的發(fā)展,人們逐漸意識到要想徹底解決人工智能研究中遇到的難題,需要考慮到不確定性的因素,把確定性和不確定性有機(jī)統(tǒng)一,制造出真正“智能”的機(jī)器。
不確定性人工智能以不確定性為研究的重點(diǎn)和主要方面[2],從嶄新的角度對人工智能進(jìn)行研究,彌補(bǔ)了傳統(tǒng)確定性人工智能的不足。當(dāng)前在不確定性人工智能國內(nèi)外認(rèn)可的理論是鐘義群教授提出的“機(jī)制主義”[3]。機(jī)制主義考慮到了智能生成機(jī)制中的不確定性,并結(jié)合隨機(jī)性、模糊性、不完備性、不協(xié)調(diào)性、非恒常性等不確定性特征對信息獲取、認(rèn)知、形成知識、決策等過程進(jìn)行了分析。為了盡可能將理論和應(yīng)用相結(jié)合,國內(nèi)外研究者先后提出了概率理論、模糊集、粗糙集、非單調(diào)函數(shù)、云模型、分形網(wǎng)絡(luò)、混沌等針對不確定性問題的研究方法,本文將主要分析四種研究相對成熟的方法[4]。
1.概率理論
概率理論從事件發(fā)生的必然性和偶然性出發(fā),是處理隨機(jī)性的最重要手段[5],一直以來得到了很廣泛的應(yīng)用。例如:在產(chǎn)品生產(chǎn)中,通過抽樣來測試產(chǎn)品的合格率,通過標(biāo)準(zhǔn)差和方差來計算樣本的穩(wěn)定程度;在復(fù)雜系統(tǒng)中,通過分支線路的可靠性來評估系統(tǒng)整體的可靠性;在醫(yī)學(xué)上,通過馬爾可夫鏈來預(yù)測人群感染某類傳染病的程度等等。
2.模糊集
模糊集是用來表達(dá)模糊性概念的集合[6]。模糊集出現(xiàn)之前的集合都是具有某種屬性的對象的全體,屬性的劃分是確定性的,并且在對應(yīng)過程中,定義域中的一個值只能在值域中找到一個唯一與之對應(yīng)的值。但在模糊集中,定義域中的一個值可能會對應(yīng)值域中的兩個值,但到底更偏向于哪一個值,將通過隸屬度來考慮。隸屬度體現(xiàn)了元素對集合隸屬的程度,其取值范圍是[0,1]。通過引入隸屬度,使得元素和集合的關(guān)系從“屬于”和“不屬于”變成了“屬于”、“不屬于”和“隸屬度上屬于”三種情況。雖然概率論和模糊集是兩種不同的方法,在實際研究中,往往需要將兩種方法綜合起來考慮。模糊集運(yùn)算的基礎(chǔ)與隸屬度有關(guān),而隸屬度的計算需要通過一定數(shù)量的知識積累才能達(dá)到所需的精確度,即需要先驗知識。而先驗知識的獲取過程往往要用到統(tǒng)計的方法。
3.粗糙集
粗糙集從知識分類入手,著手通過不確定性本身提供的信息來研究不確定性[7]。其主要思想是將不確定或不精確的知識用已有知識庫的知識來刻畫,具體做法是在保持分類能力不變的情況下,通過知識約簡推導(dǎo)出概念的分類規(guī)則,得到不可區(qū)分的關(guān)系和等價類劃分所確定的近似域,從而找到數(shù)據(jù)中隱含的規(guī)律,把不確定性的知識放入對應(yīng)的集合中。
4.非單調(diào)邏輯
經(jīng)典邏輯都具備單調(diào)性,簡要地說,經(jīng)典邏輯一旦往一個方向發(fā)展后,就不會再回退,是一個不可逆的過程[8]。非單調(diào)邏輯屬于非標(biāo)準(zhǔn)邏輯的一種,是在人工智能研究的大背景下產(chǎn)生的,非單調(diào)邏輯隨著前提的增加,顯示出一種不確定性的狀態(tài),其發(fā)展是可逆的,具有定義域的開放性和值域的不確定性的特點(diǎn),類似于人類常識推理非單調(diào)的特點(diǎn)。非單調(diào)邏輯是處理不確定性問題的一種重要的方法。例如:新知識有可能對原有的知識進(jìn)行補(bǔ)充,原有的推理成立,繼續(xù)單調(diào)的發(fā)展;但新知識也有可能會與原有的知識沖突,這個時候原有的結(jié)論將不再成立,推理將不再具有單調(diào)性,需要回過頭對知識進(jìn)行更新或再劃分。
二、現(xiàn)有方法的局限性
雖然目前在不確定性人工智能研究方面取得了一系列的成果,但就其研究方法而言,應(yīng)用較廣的四種方法在實踐中暴露出了一定的局限性,需要有針對性地進(jìn)行改進(jìn)。
1.概率理論
概率理論中存在Zipf定理,即單詞出現(xiàn)的頻率與它的名次的常數(shù)次冪存在著簡單的反比關(guān)系。Zipf定理給不確定性人工智能的研究帶來了一定的啟示。例如:在預(yù)測一周內(nèi)降雨概率的時候,其概率可能并不與長期預(yù)測的結(jié)果相符合,因為具體時間段受到客觀條件的影響比較大,規(guī)律并不容易把握。所以就短時期來說,可以采用“學(xué)習(xí)”型概率。即將非單調(diào)邏輯和概率論相結(jié)合,也就是說根據(jù)具體情況,不斷修正原有相對固定的概率,更有針對性地給出相對精確的天氣預(yù)測。
當(dāng)把不確定性引入專家系統(tǒng)中,也存在類似的問題。專家系統(tǒng)的知識要想更具指導(dǎo)性,更類似真正的人類專家,還需要針對不同的情況及時進(jìn)行修正和更新,這也是基于非單調(diào)邏輯的考慮。另外,在考慮概率的情況下,還應(yīng)采用分區(qū)段學(xué)習(xí)的方法,將最新“學(xué)習(xí)”的經(jīng)驗與原有概率相結(jié)合,形成更新后的概率,更靈活地處理實際情況。
2.模糊集
模糊集雖然能比較好地處理亦此亦彼的模糊關(guān)系,有利于對不確定性人工智能中人的形象思維進(jìn)行模擬,但存在一個比較大的局限性,即隸屬度的問題。本文認(rèn)為隸屬度可以分為兩類,一種是確定性的隸屬度,一種是不確定性的隸屬度。通過全面的統(tǒng)計或科學(xué)的測量得到的隸屬度是確定性的隸屬度;而不全面的,帶有主觀偏向的隸屬度是不確定性的隸屬度。隸屬度主觀性過強(qiáng),不適合大范圍或者長時間的推廣。
其次,隸屬度還需要前期經(jīng)驗知識的積累,是先驗的。離開了經(jīng)驗,很難獲得隸屬度,而沒有隸屬
度,模糊集的后期 工作將難以開展。因此,能否得到一種相對客觀、靈活性更強(qiáng)的隸屬度函數(shù),成為能否促進(jìn)模糊集 發(fā)展的關(guān)鍵。當(dāng)前,隸屬度函數(shù)的確立還沒有一個統(tǒng)一的方法,比較常用的有模糊 統(tǒng)計法、例證法、專家 經(jīng)驗法和二元對比排序法。這四種主要的方法各有不同的適用性,需要針對不同的階段與 環(huán)境選取合適的方法,獲得較為客觀和相對準(zhǔn)確的隸屬度。
3.粗糙集
粗糙集與模糊集相比有一個重要的優(yōu)勢在于不需要先驗數(shù)據(jù),得到的數(shù)據(jù)比較客觀,但其本身仍然存在一定的局限性。如 果將 應(yīng)用推廣到地震預(yù)報、投資分析等需要大規(guī)模的數(shù)據(jù),并且數(shù)據(jù)之間關(guān)系錯綜復(fù)雜的問題上,不可避免地會出現(xiàn)數(shù)據(jù)之間的沖突或同一數(shù)據(jù)具有過多的屬性值的情況,如何高效地進(jìn)行約簡并作出正確的決策成為比較困難的問題,如果解決不好這個問題,將導(dǎo)致組合爆炸,粗糙集的優(yōu)勢也難以體現(xiàn)出來。
由于經(jīng)典的粗糙集理論是基于完備的系統(tǒng)來進(jìn)行推導(dǎo)和制定策略的,因此在處理不完備系統(tǒng)的時候,容易因為樣本數(shù)據(jù)丟失、損壞和不全面影響到推導(dǎo)和決策。此外,粗糙集要求所處理的信息是離散的。但是人們除了需要處理離散的信息,更多需要處理連續(xù)的信息,對于粗糙集來說,連續(xù)的信息將導(dǎo)致其很難進(jìn)行類屬的劃分,即使劃分出來,也將因為分類過細(xì)導(dǎo)致復(fù)雜性大大增加,失去了不確定性問題處理的低代價的優(yōu)勢,因此在處理連續(xù)數(shù)據(jù)的時候,可以考慮將粗糙集的思想和模糊集的理論結(jié)合起來,相輔相成解決問題。
4.非單調(diào)邏輯
非單調(diào)邏輯在不確定性人工智能的研究中雖然較好地符合了人類常識推理的特性,但由于更偏向于思維層次的否定之否逼近真理的過程,而不是一種具體的操作方法,因此不能單獨(dú)使用。要想解決不確定性的問題,必須根據(jù)待處理問題的特點(diǎn),有針對性地將非單調(diào)邏輯和概率理論、模糊集、粗糙集等具體方法有機(jī)結(jié)合起來,從而不斷地完善、逐步求精,最終得到滿意的結(jié)果。
三、結(jié)語
本文選取了在處理人工智能不確定性問題應(yīng)用比較多的概率理論、模糊集、粗糙集、非單調(diào)邏輯等研究手段來進(jìn)行分析,雖然提出了其方法局限性以及個人的建議,但并不是對這些方法的否認(rèn)。正如其不確定性的特征一樣,這是一個包容性很強(qiáng)的領(lǐng)域,允許不同方法相互完善,共同為不確定性人工智能的研究搭建堅實的基礎(chǔ)。
隨著不確定性人工智能相關(guān)理論和研究方法的完善[9],人工智能很有可能在兩個方面有所突破:(1)人是 社會性的人,智能是無法離開人類社會而單獨(dú)發(fā)展,所以軟件設(shè)計方面,未來的研究方法將有針對性地模擬“社會性”的屬性,將社會屬性作為不同智能機(jī)器交流的接口,從而迸發(fā)出單個機(jī)器無法比擬的集體智能。(2)物質(zhì)決定意識,當(dāng)前的 計算機(jī)硬件基礎(chǔ)仍然是基于馮諾依曼體系結(jié)構(gòu)的,要想機(jī)器徹底體現(xiàn)出智能,未來計算機(jī)的硬件基礎(chǔ)很可能會顛覆現(xiàn)有體系結(jié)構(gòu),從根本上實現(xiàn)不確定性。
看了“關(guān)于人工智能利弊的論文”的人還看了:
3.人工智能利弊論文