計算機該怎么學習
計算機該怎么學習
我們都知道當今社會是一個高速發(fā)展信息時代。在各行各業(yè)中都離不開信息的處理,這正是計算機被廣泛應(yīng)用于信息管理系統(tǒng)的環(huán)境原因。那么計算機的學習方法有哪些呢?下面是學習啦小編分享給大家的計算機入門學習方法的資料,希望大家喜歡!
計算機入門學習方法
一、學會使用搜索引擎
如果有問題找書很麻煩,那就用百度和google(谷歌)吧,輸入你的問題,應(yīng)該會有很多解答的。你也可以搜索你想要的資料,比如:文章、視頻教程、軟件下載等。搜索引擎上的資料是及時的最新的,這是個很好的學習工具。 要善于使用搜索引擎。這將會幫你提高很大的學習效率。而且你的問題基本都能在百度里面找到答案,接下來就是自己去實踐一下就好了!
二、閱讀電腦教程書籍
如果你想更系統(tǒng)的學習電腦。購買一本電腦相關(guān)的書籍是一個不錯的選擇。書籍是為了補充更完整、更系統(tǒng)的知識,如果你想學習一門軟件技術(shù),例如PS等,看書籍可以做筆記,學的更扎實。
三、電腦入門視頻教程
視頻教程補充了書籍的不形象的缺點,讓你看到各個步驟的操作,更加通俗易懂。但是學習周期比較長。
四、敢于動手,敢于嘗試
正如文章開頭說的,不要怕弄壞自己的電腦,大不了重裝一下系統(tǒng)。電腦出問題了,先利用搜索引擎搜索答案,然后就去嘗試網(wǎng)上給的答案,如果因為嘗試出問題了,自己再重裝一下系統(tǒng)就好了,一般的軟件問題主要重裝系統(tǒng)就能解決的,包治百病……
五、不要三天打魚兩天曬網(wǎng)式的學習。
做任何事情都要有始有終,不能半途而廢。如果你今天學點。明天不學習,隔三差五的學習。那么你永遠都是在這個水平。提高不了。學習了新的知識點就要花時間去鞏固。真正的做到把知識掌握在手中。
六、合理安排學習時間
學習要講究效率,合理分配時間,該做啥時就做啥。在合理的時候做合理的事情,不背道而馳。比如一天之中晚上花一個小時學習就可以了。
七、加入學習電腦的QQ群或者關(guān)注微信公眾號拓展自己的知識面
多關(guān)注一些電腦相關(guān)的微信公眾號,可以利用瑣碎的時間學習,多讀讀別人寫的相關(guān)文章?;蛘咧苯蛹尤隥Q交流群,可以直接與別人交流。
學習過電腦知識和沒有學過電腦知識的區(qū)別
打個比方說:你正在看蒼老師的作品,這時你爸突然闖進來,沒有學習過電腦知識的人可能就會立馬用鼠標去點關(guān)閉按鈕,由于太緊張,可能拿鼠標的手都在抖,結(jié)果沒有關(guān)閉成功,結(jié)果……(此處大概省略一萬字),而學習過電腦知識的人,直接使用Alt+F4快捷鍵,播放器瞬間被秒殺了,這就是差別啊!
計算機等級一級學習方法
首先,就是學會電腦的基本操作,大家對這方面是精通的了。但為了保險起見,還是給大家介紹一下~
計算機一級的基本操作題主要包括復(fù)制,粘貼,移動,更改屬性,刪除,重命名幾個方面,點擊鼠標右鍵就可以看到了。超級簡單吧。
第二個,就是文字處理了。計算機考試中的文字處理用的是Word文檔,總共分為以下幾點:
1)字體的顏色,大小,字形,下劃線等
2)邊框和底紋樣式和顏色(文字和表格都常考)
3)頁面布局,比如分欄,紙張大小,頁腳,頁眉,頁碼等
4)段落間距,行距,縮進等
5)一般文字處理題都會有一段可以插入表格的文字,所以第一要插入表格,然后設(shè)置表格格式,包括列寬、行高、文字和表格居中,最重要的就是插入函數(shù)計算,一般這樣的題都會考這一步,也很容易出問題。
第三個,是電子表格。電子表格的考核主要分為以下幾點。
1)合并或拆分單元格,插入行或列
2)更改表格格式,如表格套用格式
3)使用函數(shù),這一步最復(fù)雜,一定要多了解
4)排序,篩選和進行分類匯總
5)根據(jù)表格中的兩列數(shù)據(jù)插入圖表,插入標題,更改或刪除圖例
6)插入數(shù)據(jù)透視表
第四個,是演示文稿。小易覺得、同學們也許已經(jīng)習慣了PPT,但大學計算機一級考試考試卻不是用這個的,大家要熟悉以前中學時設(shè)計演示文稿的軟件,雖然二者有些許不同,但內(nèi)容也相差不大。
1)更改它的版式或模板,還有就是調(diào)整幻燈片的背景顏色
2)插入文本或圖片,其中插入剪貼畫比較有難度
3)設(shè)置切換效果和動畫效果
4)新建、刪除幻燈片,調(diào)換幻燈片順序
5)更改幻燈片的放映方式為觀眾自行瀏覽,這是??嫉囊稽c,千萬要注意
最后一項,是上網(wǎng)和發(fā)送或接收郵件。上網(wǎng)就是瀏覽和保存網(wǎng)頁,這個大家一般都會。小易重點說一下發(fā)送或接收郵件時要注意的問題。
1)一般在發(fā)送郵件時,都會讓你添加文件。文件就在考生文件夾中,你要先新建一個文件夾,將要發(fā)送的附件放入其中,再壓縮成一個壓縮包這樣才能添加進去。
2)接收郵件時一般會讓考生回復(fù),你只要找答復(fù)這兩個字就可以了。但是別忘了,這時候題目總會讓你保存附件,這條可千萬別忘了,根據(jù)學長學姐的血淚經(jīng)驗,同學們總忽略這一步,導致功虧一簣啊!
計算機學習閱讀理解的方法
自然語言計算領(lǐng)域皇冠上的明珠
如今,我們在圖像識別、機器翻譯和語音識別等研究領(lǐng)域已經(jīng)看到了機器學習帶來的顯著成果。例如圖像識別技術(shù)對癌細胞病理切片的識別能力已逐步超過人類,目前機器圍棋棋手的棋力已經(jīng)幾乎無人能敵……在人工智能技術(shù)進步向人們展現(xiàn)了各種可喜的成果之后,大家將探尋的目光投向更遠的未來,下一個人工智能技術(shù)的增長點在哪里?
狂熱過后,當我們重新審視人工智能這個問題時,一個最基本的問題可能尚未解決:計算機能夠理解多少我們的語言了?
一些人類學家認為,語言是構(gòu)建人類文明的基石。在語言之上,我們構(gòu)建了神話、宗教;構(gòu)建了城邦,帝國;還構(gòu)建了信任、信仰。計算機發(fā)明以來,層出不窮的編程語言都在教人們學會和計算機對話,而人們理想中的人工智能則是應(yīng)該主動學習,掌握人類語言的奧義。為此微軟提出了CaaP(Conversation as a Platform,對話即平臺)戰(zhàn)略,并將對話式人工智能作為微軟在人工智能領(lǐng)域布局的重點。
計算語言學協(xié)會(ACL, Association for Computational Linguistics)候任主席,微軟亞洲研究院副院長周明博士認為:“自然語言處理的基本研究包括分詞、斷句、句法語義分析等等。而機器閱讀理解就是自然語言計算領(lǐng)域皇冠上的明珠。”
一般來說,人們在讀完一篇文章之后就會在腦海里形成一定的印象,例如這篇文章講的是什么人,做了什么事情,出現(xiàn)了什么,發(fā)生在哪里等等。人們能夠很輕而易舉地歸納出文章中的重點內(nèi)容。機器閱讀理解的研究就是賦予計算機與人類同等的閱讀能力,即讓計算機閱讀一篇文章,隨后讓計算機解答與文中信息相關(guān)的問題。這種對人類而言輕而易舉的能力,對計算機來說卻并非如此。
很長一段時間以來,自然語言處理的研究都是基于句子級別的閱讀理解。例如給計算機一句話,理解句子中的主謂賓、定狀補,誰做了何事等等。但長文本的理解問題一直是研究的一個難點,因為這涉及到句子之間的連貫、上下文和推理等更高維的研究內(nèi)容。
比如下面這段文本: The Rhine (Romansh: Rein, German: Rhein, French: le Rhin, Dutch: Rijn) is a European river that begins in the Swiss canton of Graubünden in the southeastern Swiss Alps, forms part of the Swiss-Austrian, Swiss-Liechtenstein border, Swiss-German and then the Franco-German border, then flows through the Rhineland and eventually empties into the North Sea in the Netherlands. The biggest city on the river Rhine is Cologne, Germany with a population of more than 1,050,000 people. It is the second-longest river in Central and Western Europe (after the Danube), at about 1,230 km (760 mi), with an average discharge of about 2,900 m3/s (100,000 cu ft/s). (大意:萊茵河是一條位于歐洲的著名河流,始于瑞士阿爾卑斯山,流經(jīng)瑞士、 奧地利、列支敦士登、法國、德國、荷蘭,最終在荷蘭注入北海。萊茵河上最大的城市是德國科隆。它是中歐和西歐區(qū)域的第二長河流,位于多瑙河之后,約1230公里。)
若針對該段內(nèi)容提問:What river is larger than the Rhine?(什么河比萊茵河長?)人們可以輕易地給出答案:Danube(多瑙河)。但目前即使是最佳的系統(tǒng)模型R-NET給出的輸出也并不盡人意,它的回答是:科隆,可見要讓計算機真正地理解文本內(nèi)容并像人一樣可以對文字進行推理的難度是如此之大。在回答該問題時,計算機除了要處理文中的指代“it”,還需要算法和模型進一步對“larger than”和“after”這兩個表述進行推理,從而得知Danube是正確答案。此外,由于文中并沒有顯式提到Danube是“river”,所以又加大了系統(tǒng)的推理難度。
但大數(shù)據(jù)的發(fā)展讓學者們看到了這一研究方向的曙光??色@取的越來越大的文本數(shù)據(jù),加上深度學習的算法以及海量的云計算資源,使得研究者們可以針對長文本做點對點的學習,即對句子、短語、上下文進行建模,這其中就隱藏了一定的推理能力。所以,目前自然語言處理領(lǐng)域就把基于篇章的理解提上研究的議事日程,成為目前該領(lǐng)域的研究焦點之一。而針對上文提及的相關(guān)難點,微軟亞洲研究院自然語言計算研究組正在進行下一步的研究和探索。
做頂尖的機器閱讀理解研究
正如前文所說,機器閱讀理解的研究之路始終充滿著許多困難和挑戰(zhàn)。
首先是數(shù)據(jù)問題。目前基于統(tǒng)計方法(尤其是深度學習模型)的機器閱讀理解的研究離不開大量的、人工標注的數(shù)據(jù)。在SQuAD數(shù)據(jù)集推出之前,數(shù)據(jù)集常常面臨規(guī)模較小,或是質(zhì)量不佳(因為多是自動生成)的問題,而SQuAD無論是在數(shù)據(jù)規(guī)模還是數(shù)據(jù)質(zhì)量上都有一個很大的提升。在基于深度學習方法的研究背景下,數(shù)據(jù)量不夠就很難做出有效、或是有用的模型,更難對模型進行合理、標準的測試。
另一方面則是算法問題。之前自然語言處理在做閱讀理解或者是自動問答研究的時候,會把這個研究問題視作一個系統(tǒng)的工程,因而把這個問題分成許多不同的部分。例如先去理解用戶的問題;再去找答案的候選;再將候選答案進行精挑細選、互相比較;最后對候選答案進行排序打分,挑選出最可能的答案或者生成最終的答案。而這個繁復(fù)的過程中,似乎其中的每一步都是可以優(yōu)化的。
但它相應(yīng)地也會帶來一些問題。第一,當你分步去優(yōu)化這其中的每一個過程的時候,你會去研究如何更好地理解這個問題,或是研究如何更好地把答案做對,這些分目標研究結(jié)果的整合未必能和“如何將閱讀理解的答案正確找出來”這個目標完全吻合。第二,如果想做局部的優(yōu)化,就意味著每一個局部過程都需要相應(yīng)的(標注)數(shù)據(jù),這使得閱讀理解的研究進展緩慢。如果只使用問題-答案作為訓練數(shù)據(jù),中間模塊的優(yōu)化得到的監(jiān)督信息不那么直接,因而很難有效。
結(jié)合了上述問題,微軟亞洲研究院自然語言計算研究組的機器閱讀理解研究團隊采用的則是一個端到端的深度學習模型的解決方案,區(qū)別于上述的每一個細化環(huán)節(jié)的具體優(yōu)化過程,他們采取的方法是把中間環(huán)節(jié)盡可能的省去,使得整體的過程能夠得到最優(yōu)效果。
實際上,SQuAD的挑戰(zhàn)賽形式就是讓系統(tǒng)在閱讀完一篇幾百詞左右的短文之后再回答5個基于文章內(nèi)容的問題。這個問題可能比大家熟知的高考英文閱讀理解,或是托福閱讀考試都要難得多。人們參加的這些考試往往是一個答案被限定住范圍的選擇題。
但是在SQuAD的數(shù)據(jù)集中,問題和答案具有非常豐富的多樣性。這五個問題中可能涉及文章中的某一個人,某一個地點,或是某一個時間等等實體;也有可能會問一些為什么(Why)、怎么樣(How)的問題。后者的答案可能實際上是一句話,甚至是一小段話,因此解決這個問題只會更加棘手。
另外,在SQuAD數(shù)據(jù)集中,除了問題的多樣性之外,研究員們發(fā)現(xiàn)還有更多的挑戰(zhàn)。比如語言(包括詞級別和句子級別)的歧義性,對于同一個意思,問題和短文會用不同的詞語或者句型表述(在標注指南中就明確要求標注者盡可能使用不同的表述)。另一個很有難度的挑戰(zhàn)是對于有些問題,找到正確答案需要用到整篇短文中的不同句子的信息,進而對這些信息進行聚合和比較才能最終得出正確的答案。當然,也有一部分問題需要用到比較復(fù)雜的推理、常識和世界知識,面對這類問題就更是難以處理。下表是發(fā)布SQuAD數(shù)據(jù)集一文中給出的總結(jié)。
R-NET: 基于深度神經(jīng)網(wǎng)絡(luò)的端到端系統(tǒng)
為了研究機器閱讀理解的問題,包括韋福如和楊南等在內(nèi)的研究團隊試圖去建模人做閱讀理解的過程。他們采用了R-NET,一個多層的網(wǎng)絡(luò)結(jié)構(gòu),分別從四個層面對整個閱讀理解任務(wù)的算法進行了建模。
我們在做閱讀理解的過程中,一個常見的順序是這樣的:首先閱讀整篇文章,對文章有一個初步理解之后再去審題,從而對問題也有了一定認知。第二步,可能就需要將問題和文中的部分段落和內(nèi)容做一些關(guān)聯(lián)。例如題干中出現(xiàn)的某些關(guān)鍵已知信息(或證據(jù))的,找出一些候選答案,舉例來說:如果問題問的信息是時間,那么文中出現(xiàn)的與時間相關(guān)的信息就可能是候選答案。第三步,當我們將候選答案與問題進行對應(yīng)之后,我們還需要綜合全文去看待這些問題,進行證據(jù)的融合來輔證答案的正確性。最后一步,就是針對自己挑出的答案候選進行精篩,最終寫下最正確的答案。
有鑒于此,研究組提出的模型也就分為這樣的四層。最下面的一層做表示學習,就是給問題和文本中的每一個詞做一個表示,即深度學習里的向量。這里研究組使用的是多層的雙向循環(huán)神經(jīng)網(wǎng)絡(luò)。第二步,就是將問題中的向量和文本中的向量做一個比對,這樣就能找出那些問題和哪些文字部分比較接近。接下來,將這些結(jié)果放在全局中進行比對。這些都是通過注意力機制(attention)達到的。最后一步,針對挑出的答案候選區(qū)中的每一個詞匯進行預(yù)測,哪一個詞是答案的開始,到哪個詞是答案的結(jié)束。這樣,系統(tǒng)會挑出可能性最高的一段文本,最后將答案輸出出來。整個過程就是一個基于以上四個層面的神經(jīng)網(wǎng)絡(luò)的端到端系統(tǒng)。