日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习文献综述

發(fā)布時間:2023/12/20 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习文献综述 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

機器學習文獻綜述

一、背景介紹

數(shù)據(jù)庫:百度詞條、知網(wǎng)數(shù)據(jù)庫。檢索式:機器學習

檢索結(jié)果及分析:

機器學習有下面幾種定義: “機器學習是一門人工智能的科學,該領(lǐng)域的主要研究對象是人工智能,特別是如何在經(jīng)驗學習中改善具體算法的性能”。 “機器學習是對能通過經(jīng)驗自動改進的計算機算法的研究”。 “機器學習是用數(shù)據(jù)或以往的經(jīng)驗,以此優(yōu)化計算機程序的性能標準。” 一種經(jīng)常引用的英文定義是:A computer program is said to learn from experience E withrespect to some class of tasks T and performance measure P, if its performanceat tasks in T, as measured by P, improves with experience E。

機器學習是一門多領(lǐng)域交叉學科,涉及概率論、統(tǒng)計學、逼近論、凸分析、算法復雜度理論論等多門學科。專門研究計算機怎樣模擬或?qū)崿F(xiàn)人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結(jié)構(gòu)使之不斷改善自身的性能。它是人工智能的核心,是使計算機具有智能的根本途徑,其應用遍及人工智能的各個領(lǐng)域,它主要使用歸納、綜合而不是演繹。它的應用已遍及人工智能的各個分支,如專家系統(tǒng)、自動推理、自然語言理解、模式識別、計算機視覺、智能機器人等領(lǐng)域。

機器學習是人工智能研究較為年輕的分支,它的發(fā)展過程大體上分為四個時期。第一階段是20世紀50年代中葉到60年代中葉,屬于熱烈時期。在這個時期,所研究的是“沒有知識”的學習,即“無知”學習。其研究目標是各類自組織系統(tǒng)和自適應系統(tǒng),其主要研究方法是不斷修改系統(tǒng)的控制參數(shù)和改進系統(tǒng)的執(zhí)行能力,不涉及與具體任務有關(guān)的知識。本階段的代表性工作是:塞繆爾(Samuel)的下棋程序。但這種學習的結(jié)果遠不能滿足人們對機器學習系統(tǒng)的期望。第二階段是在60年代中葉到70年代中葉,被稱為機器學習的冷靜時期。本階段的研究目標是模擬人類的概念學習過程,并采用邏輯結(jié)構(gòu)或圖結(jié)構(gòu)作為機器內(nèi)部描述。本階段的代表性工作有溫斯頓(Winston)的結(jié)構(gòu)學習系統(tǒng)和海斯羅思(Hayes-Roth)等的基本邏輯的歸納學習系統(tǒng)。第三階段從20世紀70年代中葉到80年代中葉,稱為復興時期。在此期間,人們從學習單個概念擴展到學習多個概念,探索不同的學習策略和方法,且在本階段已開始把學習系統(tǒng)與各種應用結(jié)合起來,并取得很大的成功,促進機器學習的發(fā)展。1980年,在美國的卡內(nèi)基—梅隆(CMU)召開了第一屆機器學習國際研討會,標志著機器學習研究已在全世界興起。

從本質(zhì)上講,機器學習就是要使計算機能模擬人的學習行為,自動地通過學習獲取知識和技能,不斷改善性能,實現(xiàn)人工智能。

隨著計算機網(wǎng)絡技術(shù)的發(fā)展,各行各業(yè)積累的數(shù)字化數(shù)據(jù)越來越多,如微博的數(shù)字化、聊天記錄的數(shù)字化、視頻探頭信息的數(shù)字化,大數(shù)據(jù)(Big Data)成為當今流行的研究主題,在這種潮流下,如何對這些數(shù)據(jù)進行分析,從中發(fā)現(xiàn)蘊涵的規(guī)律及有價值的信息,機器學習我想將有一席用武之地。

?

二、研究現(xiàn)狀

數(shù)據(jù)庫:Find+發(fā)現(xiàn)。檢索式:機器學習*算法*綜述

檢索結(jié)果及分析:

1、機器學習分類

? 機器學習,一般根據(jù)處理的數(shù)據(jù)是否存在人為標注主要分為監(jiān)督學習和無監(jiān)督學習。監(jiān)督學習用有標簽的數(shù)據(jù)作為最終學習目標,通常學習效果好,但獲取有標簽數(shù)據(jù)的代價是昂貴的,無監(jiān)督學習相當于自學習或自助式學習,便于利用更多的數(shù)據(jù),同時可能會發(fā)現(xiàn)數(shù)據(jù)中存在的更多模式的先驗知識(有時會超過手工標注的模式信息),但學習效率較低。二者的共性是通過建立數(shù)學模型為最優(yōu)化問題進行求解,通常沒有完美的解法。

監(jiān)督學習的數(shù)據(jù)集包括初始訓練數(shù)據(jù)和人為標注目標,希望根據(jù)標注特征從訓練集數(shù)據(jù)中學習到對象劃分的規(guī)則,并應用此規(guī)則在測試集數(shù)據(jù)中預測結(jié)果,輸出有標記的學習方式。因此,監(jiān)督學習的根本目標是訓練機器學習的泛化能力。監(jiān)督學習的典型算法有:邏輯回歸、多層感知機、卷積神經(jīng)網(wǎng)絡等;典型應用有:回歸分析、任務分類等。

無監(jiān)督學習,用于處理未被分類標記的樣本集數(shù)據(jù)并且事先不需要進行訓練,希望通過學習尋求數(shù)據(jù)間的內(nèi)在模式和統(tǒng)計規(guī)律,從而獲得樣本數(shù)據(jù)的結(jié)構(gòu)特征,因此,無監(jiān)督學習的根本目標是在學習過程中根據(jù)相似性原理進行區(qū)分"無監(jiān)督學習更近似于人類的學習方式,被譽為:人工智能最有價值的地方。無監(jiān)督學習的典型算法有自動編碼器、受限玻爾茲曼機、深度置信網(wǎng)絡等;典型應用有:聚類和異常檢測等。

總之,機器學習就是計算機在算法的指導下,能夠自動學習大量輸入數(shù)據(jù)樣本的數(shù)據(jù)結(jié)構(gòu)和內(nèi)在規(guī)律,給機器賦予一定的智慧,從而對新樣本進行智能識別,甚至實現(xiàn)對未來的預測"。

?

2、機器學習目前研究現(xiàn)狀

(1)面向任務:在預定的一些任務中,分析和開發(fā)學習系統(tǒng),以便改善完成任務的水平,這是專家系統(tǒng)研究中提出的研究問題;

(2)認識模擬:主要研究人類學習過程及其計算機的行為模擬,這是從心理學角度研究的問題;

(3)理論分析研究:從理論上探討各種可能學習方法的空間和獨立于應用領(lǐng)域之外的各種算法。

這三個研究方向各有自己的研究目標,每一個方向的進展都會促進另一個方向的研究。這三個方面的研究都將促進各方面問題和學習基本概念的交叉結(jié)合,推動了整個機器學習的研究。

?

3、機器學習主要算法

數(shù)據(jù)庫:谷歌搜索。檢索式:機器學習主要算法

檢索結(jié)果及分析:

(1)回歸算法

?? 在大部分機器學習課程中,回歸算法都是介紹的第一個算法。原因有兩個:一.回歸算法比較簡單,介紹它可以讓人平滑地從統(tǒng)計學遷移到機器學習中。二.回歸算法是后面若干強大算法的基石,如果不理解回歸算法,無法學習那些強大的算法?;貧w算法有兩個重要的子類:即線性回歸和邏輯回歸。

?? 線性回歸就是我們前面說過的房價求解問題。如何擬合出一條直線最佳匹配我所有的數(shù)據(jù)?一般使用“最小二乘法”來求解。“最小二乘法”的思想是這樣的,假設我們擬合出的直線代表數(shù)據(jù)的真實值,而觀測到的數(shù)據(jù)代表擁有誤差的值。為了盡可能減小誤差的影響,需要求解一條直線使所有誤差的平方和最小。最小二乘法將最優(yōu)問題轉(zhuǎn)化為求函數(shù)極值問題。函數(shù)極值在數(shù)學上我們一般會采用求導數(shù)為0的方法。但這種做法并不適合計算機,可能求解不出來,也可能計算量太大。

?? 計算機科學界專門有一個學科叫“數(shù)值計算”,專門用來提升計算機進行各類計算時的準確性和效率問題。例如,著名的“梯度下降”以及“牛頓法”就是數(shù)值計算中的經(jīng)典算法,也非常適合來處理求解函數(shù)極值的問題。梯度下降法是解決回歸模型中最簡單且有效的方法之一。從嚴格意義上來說,由于后文中的神經(jīng)網(wǎng)絡和推薦算法中都有線性回歸的因子,因此梯度下降法在后面的算法實現(xiàn)中也有應用。

?? 邏輯回歸是一種與線性回歸非常類似的算法,但是,從本質(zhì)上講,線型回歸處理的問題類型與邏輯回歸不一致。線性回歸處理的是數(shù)值問題,也就是最后預測出的結(jié)果是數(shù)字,例如房價。而邏輯回歸屬于分類算法,也就是說,邏輯回歸預測結(jié)果是離散的分類,例如判斷這封郵件是否是垃圾郵件,以及用戶是否會點擊此廣告等等。

?? 實現(xiàn)方面的話,邏輯回歸只是對對線性回歸的計算結(jié)果加上了一個Sigmoid函數(shù),將數(shù)值結(jié)果轉(zhuǎn)化為了0到1之間的概率(Sigmoid函數(shù)的圖像一般來說并不直觀,你只需要理解對數(shù)值越大,函數(shù)越逼近1,數(shù)值越小,函數(shù)越逼近0),接著我們根據(jù)這個概率可以做預測,例如概率大于0.5,則這封郵件就是垃圾郵件,或者腫瘤是否是惡性的等等。從直觀上來說,邏輯回歸是畫出了一條分類線。

假設我們有一組腫瘤患者的數(shù)據(jù),這些患者的腫瘤中有些是良性的(圖中的藍色點),有些是惡性的(圖中的紅色點)。這里腫瘤的紅藍色可以被稱作數(shù)據(jù)的“標簽”。同時每個數(shù)據(jù)包括兩個“特征”:患者的年齡與腫瘤的大小。我們將這兩個特征與標簽映射到這個二維空間上,形成了我上圖的數(shù)據(jù)。

?? 當我有一個綠色的點時,我該判斷這個腫瘤是惡性的還是良性的呢?根據(jù)紅藍點我們訓練出了一個邏輯回歸模型,也就是圖中的分類線。這時,根據(jù)綠點出現(xiàn)在分類線的左側(cè),因此我們判斷它的標簽應該是紅色,也就是說屬于惡性腫瘤。

邏輯回歸算法劃出的分類線基本都是線性的(也有劃出非線性分類線的邏輯回歸,不過那樣的模型在處理數(shù)據(jù)量較大的時候效率會很低),這意味著當兩類之間的界線不是線性時,邏輯回歸的表達能力就不足。下面的兩個算法是機器學習界最強大且重要的算法,都可以擬合出非線性的分類線。

(2)神經(jīng)網(wǎng)絡

神經(jīng)網(wǎng)絡(也稱之為人工神經(jīng)網(wǎng)絡,ANN)算法是80年代機器學習界非常流行的算法,不過在90年代中途衰落?,F(xiàn)在,攜著“深度學習”之勢,神經(jīng)網(wǎng)絡重裝歸來,重新成為最強大的機器學習算法之一。

神經(jīng)網(wǎng)絡的誕生起源于對大腦工作機理的研究。早期生物界學者們使用神經(jīng)網(wǎng)絡來模擬大腦。機器學習的學者們使用神經(jīng)網(wǎng)絡進行機器學習的實驗,發(fā)現(xiàn)在視覺與語音的識別上效果都相當好。在BP算法(加速神經(jīng)網(wǎng)絡訓練過程的數(shù)值算法)誕生以后,神經(jīng)網(wǎng)絡的發(fā)展進入了一個熱潮。BP算法的發(fā)明人之一是前面介紹的機器學習大牛Geoffrey Hinton。具體說來,神經(jīng)網(wǎng)絡的學習機理是什么?簡單來說,就是分解與整合。在著名的Hubel-Wiesel試驗中,學者們研究貓的視覺分析機理是這樣的。

比方說,一個正方形,分解為四個折線進入視覺處理的下一層中。四個神經(jīng)元分別處理一個折線。每個折線再繼續(xù)被分解為兩條直線,每條直線再被分解為黑白兩個面。于是,一個復雜的圖像變成了大量的細節(jié)進入神經(jīng)元,神經(jīng)元處理以后再進行整合,最后得出了看到的是正方形的結(jié)論。這就是大腦視覺識別的機理,也是神經(jīng)網(wǎng)絡工作的機理。

讓我們看一個簡單的神經(jīng)網(wǎng)絡的邏輯架構(gòu)。在這個網(wǎng)絡中,分成輸入層,隱藏層,和輸出層。輸入層負責接收信號,隱藏層負責對數(shù)據(jù)的分解與處理,最后的結(jié)果被整合到輸出層。每層中的一個圓代表一個處理單元,可以認為是模擬了一個神經(jīng)元,若干個處理單元組成了一個層,若干個層再組成了一個網(wǎng)絡,也就是"神經(jīng)網(wǎng)絡"。

?

?

?

?

?

?

?

?

?


圖1、神經(jīng)網(wǎng)絡的邏輯構(gòu)架

(3)SVM(支持向量機)

支持向量機算法是誕生于統(tǒng)計學習界,同時在機器學習界大放光彩的經(jīng)典算法。

支持向量機算法從某種意義上來說是邏輯回歸算法的強化:通過給予邏輯回歸算法更嚴格的優(yōu)化條件,支持向量機算法可以獲得比邏輯回歸更好的分類界線。但是如果沒有某類函數(shù)技術(shù),則支持向量機算法最多算是一種更好的線性分類技術(shù)。

但是,通過跟高斯“核”的結(jié)合,支持向量機可以表達出非常復雜的分類界線,從而達成很好的的分類效果。“核”事實上就是一種特殊的函數(shù),最典型的特征就是可以將低維的空間映射到高維的空間。例如下圖所示:

?

?

?

?

?

?


??

?

圖2、支持向量機圖例

支持向量機是一種數(shù)學成分很濃的機器學習算法(相對的,神經(jīng)網(wǎng)絡則有生物科學成分)。在算法的核心步驟中,有一步證明,即將數(shù)據(jù)從低維映射到高維不會帶來最后計算復雜性的提升。于是,通過支持向量機算法,既可以保持計算效率,又可以獲得非常好的分類效果。因此支持向量機在90年代后期一直占據(jù)著機器學習中最核心的地位,基本取代了神經(jīng)網(wǎng)絡算法。直到現(xiàn)在神經(jīng)網(wǎng)絡借著深度學習重新興起,兩者之間才又發(fā)生了微妙的平衡轉(zhuǎn)變。

(4)聚類算法

前面的算法中的一個顯著特征就是我的訓練數(shù)據(jù)中包含了標簽,訓練出的模型可以對其他未知數(shù)據(jù)預測標簽。在下面的算法中,訓練數(shù)據(jù)都是不含標簽的,而算法的目的則是通過訓練,推測出這些數(shù)據(jù)的標簽。這類算法有一個統(tǒng)稱,即無監(jiān)督算法(前面有標簽的數(shù)據(jù)的算法則是有監(jiān)督算法)。無監(jiān)督算法中最典型的代表就是聚類算法。

讓我們還是拿一個二維的數(shù)據(jù)來說,某一個數(shù)據(jù)包含兩個特征。我希望通過聚類算法,給他們中不同的種類打上標簽,我該怎么做呢?簡單來說,聚類算法就是計算種群中的距離,根據(jù)距離的遠近將數(shù)據(jù)劃分為多個族群。聚類算法中最典型的代表就是K-Means算法。

(5)降維算法?

降維算法也是一種無監(jiān)督學習算法,其主要特征是將數(shù)據(jù)從高維降低到低維層次。在這里,維度其實表示的是數(shù)據(jù)的特征量的大小,例如,房價包含房子的長、寬、面積與房間數(shù)量四個特征,也就是維度為4維的數(shù)據(jù)??梢钥闯鰜?#xff0c;長與寬事實上與面積表示的信息重疊了,例如面積=長 ×寬。通過降維算法我們就可以去除冗余信息,將特征減少為面積與房間數(shù)量兩個特征,即從4維的數(shù)據(jù)壓縮到2維。于是我們將數(shù)據(jù)從高維降低到低維,不僅利于表示,同時在計算上也能帶來加速。

剛才說的降維過程中減少的維度屬于肉眼可視的層次,同時壓縮也不會帶來信息的損失(因為信息冗余了)。如果肉眼不可視,或者沒有冗余的特征,降維算法也能工作,不過這樣會帶來一些信息的損失。但是,降維算法可以從數(shù)學上證明,從高維壓縮到的低維中最大程度地保留了數(shù)據(jù)的信息。因此,使用降維算法仍然有很多的好處。

降維算法的主要作用是壓縮數(shù)據(jù)與提升機器學習其他算法的效率。通過降維算法,可以將具有幾千個特征的數(shù)據(jù)壓縮至若干個特征。另外,降維算法的另一個好處是數(shù)據(jù)的可視化,例如將5維的數(shù)據(jù)壓縮至2維,然后可以用二維平面來可視。降維算法的主要代表是PCA算法(即主成分分析算法)。?

(6)推薦算法

推薦算法是目前業(yè)界非?;鸬囊环N算法,在電商界,如亞馬遜,天貓,京東等得到了廣泛的運用。推薦算法的主要特征就是可以自動向用戶推薦他們最感興趣的東西,從而增加購買率,提升效益。推薦算法有兩個主要的類別:一類是基于物品內(nèi)容的推薦,是將與用戶購買的內(nèi)容近似的物品推薦給用戶,這樣的前提是每個物品都得有若干個標簽,因此才可以找出與用戶購買物品類似的物品,這樣推薦的好處是關(guān)聯(lián)程度較大,但是由于每個物品都需要貼標簽,因此工作量較大。?

另一類是基于用戶相似度的推薦,則是將與目標用戶興趣相同的其他用戶購買的東西推薦給目標用戶,例如小A歷史上買了物品B和C,經(jīng)過算法分析,發(fā)現(xiàn)另一個與小A近似的用戶小D購買了物品E,于是將物品E推薦給小A。

兩類推薦都有各自的優(yōu)缺點,在一般的電商應用中,一般是兩類混合使用。推薦算法中最有名的算法就是協(xié)同過濾算法。?

(7)其他

除了以上算法之外,機器學習界還有其他的如高斯判別,樸素貝葉斯,決策樹等等算法。但是上面列的六個算法是使用最多,影響最廣,種類最全的典型。機器學習界的一個特色就是算法眾多,發(fā)展百花齊放。

?

三、機器學習的研究進展

數(shù)據(jù)庫:谷歌搜索。檢索式:機器學習*進展

檢索結(jié)果及分析:

1、機器學習的研究近況

隨著機器學習的深入研究與應用,新的網(wǎng)絡結(jié)構(gòu)和學習算法不斷涌現(xiàn),進一步推進了機器學習的發(fā)展。下面主要從模型結(jié)構(gòu)與網(wǎng)絡參數(shù)設計、學習算法兩方面對近幾年機器學習的研究進展進行介紹。

(1)模型結(jié)構(gòu)及網(wǎng)絡參數(shù)設計

Liu yan等人提出一種半監(jiān)督可識別深度置信網(wǎng)絡算法(ccbRD)并成功應用于圖像的分類。Luo等人提出稀疏組受限波爾曼機(SGRBM)算法,通過實驗表明該算法可以提取更局部的特征、提高識別率。Yu Dong等提出一種深度凸起網(wǎng)絡(DCN) 算法,并用于構(gòu)建語音分類的可擴展體系。Huang等人提出一種通過局部卷積深度置信網(wǎng)絡模型學習圖像總體結(jié)構(gòu)特征的方法,并在人

臉數(shù)據(jù)庫測試通過,取得良好效果。羅切爾提出改進RBM的Class RBM算法,實現(xiàn)在不訓練分類器的前提下,提高在線實時監(jiān)測學習特征的識別性能。Zhou等人提出一種半監(jiān)督卷積深度網(wǎng)絡(CDN)算法,可用于圖像分類。Mrazova等人提出一種增長式CNN,實現(xiàn)快速自動調(diào)整網(wǎng)絡拓撲結(jié)構(gòu),有效處理高維數(shù)據(jù)!逐層迭代提取高級抽象特征。Kai Ming等人提出一種空間金字塔池化CNN算法,實現(xiàn)不同尺寸圖像的識別。

?

(2)學習方法

Wong等人提出一種基于Fisher準則、運用正則化要求進行深度學習提取特征的算法(RD-FM),通過實驗表明該方法比核應運具有更強的特征識別能力、微調(diào)階段正則化應用的必要性。Collobert提出一種根據(jù)深度卷積遞歸圖

變換網(wǎng)絡(GTN)進行快速自然語言解析的算法,在保持性能的同時,提高了解析速度。Hinton提出通過阻止特征檢測器網(wǎng)絡權(quán)值的相互作用來改善神經(jīng)網(wǎng)絡的性能。Duchi等提出一種自適應次梯度方法用于在線學習和隨機優(yōu)化。孫志軍等人提出一種基于邊際Fisher準則的深度學習特征提取算法。Zhou等提出一種半監(jiān)督活躍深度網(wǎng)絡(ADN)算法,用于解決標記數(shù)據(jù)不足的情感分類問題。TOM等人提出用于語句情感分類的高級深度學習算法。Schaul等人提出一種學習率自適應方法。

?

四、機器學習面臨的挑戰(zhàn)

數(shù)據(jù)庫:谷歌搜索???? 檢索式:機器學習*挑戰(zhàn)

目前,以深度學習為代表的機器學習領(lǐng)域的研究與應用取得巨大進展有目共睹,有力地推動了人工智能的發(fā)展"但是也應該看到,以深度學習為代表的機器學習前沿畢竟還是一個新生事物,多數(shù)結(jié)論是通過實驗或經(jīng)驗獲得,還有待于理論的深入研究與支持。CNN的推動者和創(chuàng)始人之一的美國紐約大學教授 Yann? Lucan在2015IEEE計算機視覺與模式識別會議上指出深度學習的幾個關(guān)鍵限制:缺乏背后工作的理論基礎(chǔ)和推理機制;缺乏短期記憶;不能進行無監(jiān)督學習。

另外,基于多層人工神經(jīng)網(wǎng)絡的深度學習受到人類大腦皮層分層工作的啟發(fā),雖然深度學習是目前最接近人類大腦的智能學習方法,但是當前的深度網(wǎng)絡在結(jié)構(gòu)!功能!機制上都與人腦有較大的差距。并且對大腦皮層本身的結(jié)構(gòu)與機理還缺乏精準認知,如果要真正模擬人腦的100多億個神經(jīng)元組成的神經(jīng)系統(tǒng),目前還難以實現(xiàn)。因此,對計算神經(jīng)科學的研究也需要有很長一段路要走。

還有,機器學習模型的網(wǎng)絡結(jié)構(gòu)!算法及參數(shù)越發(fā)龐大、復雜,通常只有在大數(shù)據(jù)量、大計算量支持下才能訓練出精準的模型,對運行環(huán)境要求越來越高!占用資源也越來越多,這也抬高了其應用門檻。

總之,機器學習方興未艾并且擁有廣闊的研究與應用前景,但是面臨的挑戰(zhàn)也不容忽視,二者交相輝映才能夠把機器學習推向更高的境界。

?

五、結(jié)論

本文對機器學習進行了較為全面介紹,包括機器學習的概念,發(fā)展簡史及分類,重點分析了機器學習的經(jīng)典算法,還介紹了機器學習的最新研究進展。愿景和應用,最后探討了機器學習面臨的挑戰(zhàn)。毋庸諱言,以深度學習為代表的機器學習作為人工智能的一個重要分支,目前在諸多領(lǐng)域取得了巨大進展,并且展示出強大的發(fā)展?jié)摿?#xff0c;但是更應該看到,人工智能仍然處理初級階段,機器學習仍然主要依賴監(jiān)督學習,還沒有跨越弱人工智能,并且作為機器學習模型基礎(chǔ)的人腦認知研究還有諸多空白需要填補!機器學習理論本身亟需新的突破!計算機科學技術(shù)及相關(guān)學科領(lǐng)域的發(fā)展與支撐與有待于進一步加強,因此,對于機器學習,我們要走的路一定很長、很長。

令人欣喜的是機器學習已經(jīng)成為全人類共同矚目、發(fā)力的研究與應用領(lǐng)域,并且已經(jīng)上升為國家戰(zhàn)略2013-2014年,美國!歐盟和日本先后啟動了國家大型腦研究計劃;中國未來五年計劃實施的100個重大工程及項目中“腦科學與類腦研究”名列第四。因此,可以預見機器學習的道路是曲折的,前途是光明的。

?

?

?

?

?

?

?

?

總結(jié)

以上是生活随笔為你收集整理的机器学习文献综述的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。