刷题笔记2
1、若一序列進(jìn)棧順序?yàn)閍1,a2,a3,a4,問(wèn)存在多少種可能的出棧序列( )
A 12? ? ? ? ? ? B 13? ? ? ? ? ?C 14? ? ? ? ? ?D 15
答案:C
2、下列屬于有監(jiān)督學(xué)習(xí)算法的是:()
A 譜聚類(lèi)? ? ? ? B 主成分分析PCA? ? ? ? C 主題模型LDA? ? ? ?D 線性判別分析LDA
答案:D
3、以下是產(chǎn)生式模型的機(jī)器學(xué)習(xí)算法為:
A LR? ? ? ? ? ? ?B? ?SVM? ? ? ? ?C 神經(jīng)網(wǎng)絡(luò)? ? ? ? ? ?D HMM
答案:D
4、一個(gè)序列為(13,18,24,35,47,50,63,83,90,115,124),如果利二分分法查找關(guān)鍵字為90的,則需要幾次比較 ?
A 1? ? ? ? ? ? ?B 2? ? ? ? ? ? ? ? C? ? 3? ? ? ? ? ? ? ? ? ? ? D 4
答案:B
5、已知一個(gè)二叉樹(shù)前序遍歷和中序遍歷分別為ABDEGCFH和DBGEACHF,則該二叉樹(shù)的后序遍歷為?
A、DGEBHFCA? ? ? ? ? ? B.DGEBHFAC? ? ? ? ? ? C.?GEDBHFCA? ? ? ? ? ? ?D.??ABCDEFGH
答案:A
其實(shí)根據(jù)前序遍歷和中序遍歷就能確定根節(jié)點(diǎn)是A,D是最下層最左邊的節(jié)點(diǎn)。
6、以下關(guān)于共軛梯度說(shuō)法正確的是
A共軛梯度需要計(jì)算hessien矩陣的逆? ? ? ? ? ? ? ? ? ?B共軛梯度只需要一階梯度即可,所以收斂速度較慢
C共軛梯度法所需的存儲(chǔ)量小,收斂快,穩(wěn)定性高的優(yōu)點(diǎn)? ? ? ? ?D共軛梯度梯度方向與最速下降法的梯度相同
答案:C
7、以下關(guān)于準(zhǔn)確率,召回, f1-score說(shuō)法錯(cuò)誤的是:
A準(zhǔn)確率為T(mén)P/(TP+FP)? ? ? ? ? ??B召回率為T(mén)P/(TP + FN)? ? ? ? ? ? ?
C?f1-score為 2TP/(2TP + FP + FN)? ? ? ? ??D??f1-score為 準(zhǔn)確率*召回率/(準(zhǔn)確率+召回率)
答案:D
8、在貝葉斯線性回歸中, 假定使然概率和先驗(yàn)概率都為高斯分布, 假設(shè)先驗(yàn)概率的高斯準(zhǔn)確率參數(shù)為a, 似然概率的高斯準(zhǔn)確率參數(shù)為b, 則后驗(yàn)概率相當(dāng)于平方誤差+L2正則,則其正則化參數(shù)為
A?a + b? ? ? ? ? ? ? ? ? ??B?a / b? ? ? ? ? ? ??C? a^2 + b^2? ? ? ? ??D??a^2 / (b^2)
答案:A
沒(méi)找到相關(guān)資料,誰(shuí)知道跟我解釋下吧
9、在以下操作中,把14,27,71,50,93,39按順序插入樹(shù),形成平衡二叉樹(shù)高度為?
A 3? ? ? ? ? ? B 4? ? ? ? ? ?C 5? ? ? ? ? ? ?D 6
答案:A
10、兩個(gè)隨機(jī)變量x,y,服從聯(lián)合概率分布p(x,y), 以下等式成立的有
A? ? ??B? ?C? ? ? ?D
答案:AC
11、以下關(guān)于batch normalization說(shuō)法正確的是
A?normalization的均值方差計(jì)算是基于全部訓(xùn)練數(shù)據(jù)的
B?normalization的均值方差只基于當(dāng)前的minibatch
C?normalization對(duì)輸入層的每一維單獨(dú)計(jì)算均值方差
D?normalization的輸出分布服從均值為0,方差為1的高斯分布
答案:BC
12、以下關(guān)于二項(xiàng)分布說(shuō)法正確的是
A?二項(xiàng)分布是一種離散概率分布,表示在n次伯努利試驗(yàn)中, 試驗(yàn)k次才得到第一次成功的概率
B?二項(xiàng)分布是一種離散概率分布,表示在n次伯努利試驗(yàn)中,有k次成功的概率
C?當(dāng)n很大時(shí)候,二項(xiàng)分布可以用泊松分布和高斯分布逼近
D?當(dāng)n很大時(shí)候,二項(xiàng)分布可以高斯斯分布逼近,但不能用泊松分布逼近
答案:BC
13、以下關(guān)于random forest說(shuō)法錯(cuò)誤的是
A?rf中的每棵子樹(shù)都是獨(dú)立同分布的
B?rf中模型方差隨著子樹(shù)的增加而減少
C?rf主要通過(guò)增加子樹(shù)之間的相關(guān)性來(lái)減少模型的方差
D??rf中模型偏差隨著子樹(shù)的增加而減少
答案: AD
14、在機(jī)器學(xué)習(xí)中,經(jīng)常采用線性變換,將基變換為正交基, 下列矩陣式正交矩陣的是? ??
A?
B?
C?
D?
答案:AC
The orthogonal matrix,正交矩陣,如果一個(gè)矩陣滿足以下幾個(gè)條件,則此矩陣就是正交矩陣:
(1)是一個(gè)方陣
(2)和自己的轉(zhuǎn)置矩陣的矩陣乘積 = 單位矩陣E
如果A為一個(gè)正交矩陣,則A滿足以下條件:
1) A的轉(zhuǎn)置矩陣也是正交矩陣
2)??(E為單位矩陣)
3) A的各行是單位向量且兩兩正交
4) A的各列是單位向量且兩兩正交
5) (Ax,Ay)=(x,y) x,y∈R
6) |A| = 1或-1
7)??,A的轉(zhuǎn)置矩陣等于A的逆矩陣
15、關(guān)于x,y的函數(shù)f(x,y)=x*e^(-x^2-y^2),(x,y∈R),則該函數(shù)有_____個(gè)極小值點(diǎn)
A 0? ? ? ? ? ? ? ? ?B 1? ? ? ? ? ? ? ?C 2? ? ? ? ? ? ? ? ? ? D 3
答案:B
16、隨機(jī)變量X1,X2...X100都服從[1,9]的均勻分布,則(X1+X2+...+X100)/100近似服從
A 高斯分布? ? ? ? ? ?B 泊松分布? ? ? ? ?C 均勻分布? ? ? ? ? ? D 指數(shù)分布
答案:高斯分布
對(duì)于服從均勻分布的隨機(jī)變量,只要n充分大,隨機(jī)變量?就服從均值為零,方差為1的正態(tài)分布。
17、某二叉樹(shù)有2000個(gè)結(jié)點(diǎn),則該二叉樹(shù)的最小高度為()
A 10? ? ? ? ? ? ?B 11? ? ? ? ? ? ? C 12? ? ? ? ? ? ? ? ?D 13
答案:B
節(jié)點(diǎn)與深度的關(guān)系:2^k -1 =n
18、下列方面不可以防止過(guò)擬合的是()
A?加入正則項(xiàng)? ? ? ? ? ??B?增加樣本? ? ? ? ?C?建立更加復(fù)雜的模型? ? ?D?Bootstrap重采樣
答案:C
19、使用中根遍歷一棵二叉樹(shù)得到E A C K F H D B G,則先根遍歷將得到()
A? ??FAEKCDBHG? ? ? ? ? ? ? ? ? ? ? ?B? ? FAEKCDHGB? ? ? ? ? ? ??C??EAFKHDCBG? ? ? ? ??D? ?FEAKDCHBG
答案:B
20、以下哪些模型是無(wú)向圖
A 樸素貝葉斯? ? ? ? ? B LR? ? ? ? ? ?C? CRF? ? ? ? D HMM
答案:BC
21、協(xié)同過(guò)濾經(jīng)常被用于推薦系統(tǒng), 包含基于內(nèi)存的協(xié)同過(guò)濾, 基于模型的協(xié)同過(guò)濾以及混合模型, 以下說(shuō)法正確的是
A基于模型的協(xié)同過(guò)濾能比較好的處理數(shù)據(jù)稀疏的問(wèn)題
B基于模型的協(xié)同過(guò)濾不需要item的內(nèi)容信息
C基于內(nèi)存的協(xié)同過(guò)濾可以較好解決冷啟動(dòng)問(wèn)題
D基于內(nèi)存的協(xié)同過(guò)濾實(shí)現(xiàn)比較簡(jiǎn)單, 新數(shù)據(jù)可以較方便的加入
答案:AD
22、以下關(guān)于神經(jīng)網(wǎng)絡(luò)說(shuō)法正確的是
A神經(jīng)網(wǎng)絡(luò)可以實(shí)現(xiàn)非線性分類(lèi)
B神經(jīng)網(wǎng)絡(luò)可以實(shí)現(xiàn)線性分類(lèi)
C神經(jīng)網(wǎng)絡(luò)的每層神經(jīng)元激活函數(shù)必須相同
D神經(jīng)網(wǎng)絡(luò)的每層神經(jīng)元激活函數(shù)值閾必須在[-1,1]
答案:AB
23、以下為防止過(guò)擬合的方法的是
A增加樣本? ? ? ? ?B?L1正則? ??C交叉驗(yàn)證? ? ?D增加復(fù)雜特征
答案:ABC
24、CRF模型可以用來(lái)做專(zhuān)名識(shí)別, 語(yǔ)義消歧等, 以下關(guān)于CRF模型說(shuō)法正確的是
A? ?CRF模型是產(chǎn)生式模型? ? ? ? ? ? B? ?CRF模型是判別式模型? ? ? ? ?C??CRF模型的圖模型為無(wú)向圖? ??D?CRF模型的圖模型為有向圖
答案:BC
25、以下屬于凸函數(shù)的是()
A?e^x? ? ? ? ? ? ??B??e^a? ? ? ? ?C??log(x)? ? ? ??D??f(x, y) = x2/y
答案:AD
26、以下說(shuō)法正確的是
A?XOR問(wèn)題不能簡(jiǎn)單的用線性分類(lèi)解決
B?XOR問(wèn)題可以通過(guò)2層感知器解決
C?XOR可以通過(guò)LR模型解決
D?XOR可以通過(guò)單層感知器解決
答案:AB
27、以下是基于圖的特征降維方法的是
A? ?LE(Laplacian eigenmap)? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??B??LLE(local linear embedding)
C??PCA? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?D??KL
答案:AB
Principal Component Analysis(PCA)是最常用的線性降維方法,它的目標(biāo)是通過(guò)某種線性投影,將高維的數(shù)據(jù)映射到低維的空間中表示,并期望在所投影的維度上數(shù)據(jù)的方差最大,以此使用較少的數(shù)據(jù)維度,同時(shí)保留住較多的原數(shù)據(jù)點(diǎn)的特性。
Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一種有監(jiān)督的(supervised)線性降維算法。與PCA保持?jǐn)?shù)據(jù)信息不同,LDA是為了使得降維后的數(shù)據(jù)點(diǎn)盡可能地容易被區(qū)分!
Locally linear embedding(LLE)[1]是一種非線性降維算法,它能夠使降維后的數(shù)據(jù)較好地保持原有流形結(jié)構(gòu)。LLE可以說(shuō)是流形學(xué)習(xí)方法最經(jīng)典的工作之一。很多后續(xù)的流形學(xué)習(xí)、降維方法都與LLE有密切聯(lián)系。
Laplacian Eigenmaps(拉普拉斯特征映射)看問(wèn)題的角度和LLE有些相似,也是用局部的角度去構(gòu)建數(shù)據(jù)之間的關(guān)系。它的直觀思想是希望相互間有關(guān)系的點(diǎn)(在圖中相連的點(diǎn))在降維后的空間中盡可能的靠近。Laplacian Eigenmaps可以反映出數(shù)據(jù)內(nèi)在的流形結(jié)構(gòu)。
其中最后后兩種是基于圖的特征降維方法。
28、使用LR來(lái)擬合數(shù)據(jù), 一般隨機(jī)將數(shù)據(jù)分為訓(xùn)練集和測(cè)試集。 則隨著訓(xùn)練集合的數(shù)據(jù)越來(lái)越多, 以下說(shuō)法正確的是
A測(cè)試集上的測(cè)試誤差會(huì)越來(lái)越大
B測(cè)試集上的測(cè)試誤差會(huì)越來(lái)越小
C訓(xùn)練集上的訓(xùn)練誤差會(huì)越來(lái)越小
D訓(xùn)練集上的訓(xùn)練誤差會(huì)越來(lái)越大
答案:BD
前提:測(cè)試數(shù)據(jù)不變,只增加訓(xùn)練數(shù)據(jù)
1.減少過(guò)擬合,泛化更好,測(cè)試誤差變小
2.訓(xùn)練集多樣性增加,數(shù)據(jù)輸入分布改變,訓(xùn)練誤差變大
29、有A,B 兩個(gè)國(guó)家,人口比例為4:6,A國(guó)的犯罪率為0.1%,B國(guó)的為0.2%。現(xiàn)在有一個(gè)新的犯罪事件,發(fā)生在A國(guó)的概率是?
A0.15? ? ? ? ? ? ? B0.25? ? ? ? ? ? ? ? ?C 0.35? ? ? ? ? ? D 0.45
答案:0.25
總結(jié)
- 上一篇: DFRobot新品Fermion:MCP
- 下一篇: 劳易测激光测距仪ODS9L2.8/LAK