日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

刷题笔记2

發(fā)布時(shí)間:2024/3/7 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 刷题笔记2 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

1、若一序列進(jìn)棧順序?yàn)閍1,a2,a3,a4,問(wèn)存在多少種可能的出棧序列( )

A 12? ? ? ? ? ? B 13? ? ? ? ? ?C 14? ? ? ? ? ?D 15

答案:C

2、下列屬于有監(jiān)督學(xué)習(xí)算法的是:()

A 譜聚類(lèi)? ? ? ? B 主成分分析PCA? ? ? ? C 主題模型LDA? ? ? ?D 線性判別分析LDA

答案:D

3、以下是產(chǎn)生式模型的機(jī)器學(xué)習(xí)算法為:

A LR? ? ? ? ? ? ?B? ?SVM? ? ? ? ?C 神經(jīng)網(wǎng)絡(luò)? ? ? ? ? ?D HMM

答案:D

4、一個(gè)序列為(13,18,24,35,47,50,63,83,90,115,124),如果利二分分法查找關(guān)鍵字為90的,則需要幾次比較 ?

A 1? ? ? ? ? ? ?B 2? ? ? ? ? ? ? ? C? ? 3? ? ? ? ? ? ? ? ? ? ? D 4

答案:B

5、已知一個(gè)二叉樹(shù)前序遍歷和中序遍歷分別為ABDEGCFH和DBGEACHF,則該二叉樹(shù)的后序遍歷為?

A、DGEBHFCA? ? ? ? ? ? B.DGEBHFAC? ? ? ? ? ? C.?GEDBHFCA? ? ? ? ? ? ?D.??ABCDEFGH

答案:A

其實(shí)根據(jù)前序遍歷和中序遍歷就能確定根節(jié)點(diǎn)是A,D是最下層最左邊的節(jié)點(diǎn)。

6、以下關(guān)于共軛梯度說(shuō)法正確的是

A共軛梯度需要計(jì)算hessien矩陣的逆? ? ? ? ? ? ? ? ? ?B共軛梯度只需要一階梯度即可,所以收斂速度較慢

C共軛梯度法所需的存儲(chǔ)量小,收斂快,穩(wěn)定性高的優(yōu)點(diǎn)? ? ? ? ?D共軛梯度梯度方向與最速下降法的梯度相同

答案:C

7、以下關(guān)于準(zhǔn)確率,召回, f1-score說(shuō)法錯(cuò)誤的是:

A準(zhǔn)確率為T(mén)P/(TP+FP)? ? ? ? ? ??B召回率為T(mén)P/(TP + FN)? ? ? ? ? ? ?

C?f1-score為 2TP/(2TP + FP + FN)? ? ? ? ??D??f1-score為 準(zhǔn)確率*召回率/(準(zhǔn)確率+召回率)

答案:D

8、在貝葉斯線性回歸中, 假定使然概率和先驗(yàn)概率都為高斯分布, 假設(shè)先驗(yàn)概率的高斯準(zhǔn)確率參數(shù)為a, 似然概率的高斯準(zhǔn)確率參數(shù)為b, 則后驗(yàn)概率相當(dāng)于平方誤差+L2正則,則其正則化參數(shù)為

A?a + b? ? ? ? ? ? ? ? ? ??B?a / b? ? ? ? ? ? ??C? a^2 + b^2? ? ? ? ??D??a^2 / (b^2)

答案:A

沒(méi)找到相關(guān)資料,誰(shuí)知道跟我解釋下吧

9、在以下操作中,把14,27,71,50,93,39按順序插入樹(shù),形成平衡二叉樹(shù)高度為?

A 3? ? ? ? ? ? B 4? ? ? ? ? ?C 5? ? ? ? ? ? ?D 6

答案:A

10、兩個(gè)隨機(jī)變量x,y,服從聯(lián)合概率分布p(x,y), 以下等式成立的有

A? ? ??B? ?C? ? ? ?D

答案:AC

11、以下關(guān)于batch normalization說(shuō)法正確的是

A?normalization的均值方差計(jì)算是基于全部訓(xùn)練數(shù)據(jù)的

B?normalization的均值方差只基于當(dāng)前的minibatch

C?normalization對(duì)輸入層的每一維單獨(dú)計(jì)算均值方差

D?normalization的輸出分布服從均值為0,方差為1的高斯分布

答案:BC

12、以下關(guān)于二項(xiàng)分布說(shuō)法正確的是

A?二項(xiàng)分布是一種離散概率分布,表示在n次伯努利試驗(yàn)中, 試驗(yàn)k次才得到第一次成功的概率

B?二項(xiàng)分布是一種離散概率分布,表示在n次伯努利試驗(yàn)中,有k次成功的概率

C?當(dāng)n很大時(shí)候,二項(xiàng)分布可以用泊松分布和高斯分布逼近

D?當(dāng)n很大時(shí)候,二項(xiàng)分布可以高斯斯分布逼近,但不能用泊松分布逼近

答案:BC

13、以下關(guān)于random forest說(shuō)法錯(cuò)誤的是

A?rf中的每棵子樹(shù)都是獨(dú)立同分布的

B?rf中模型方差隨著子樹(shù)的增加而減少

C?rf主要通過(guò)增加子樹(shù)之間的相關(guān)性來(lái)減少模型的方差

D??rf中模型偏差隨著子樹(shù)的增加而減少

答案: AD

14、在機(jī)器學(xué)習(xí)中,經(jīng)常采用線性變換,將基變換為正交基, 下列矩陣式正交矩陣的是? ??

A?

B?

C?

D?

答案:AC

The orthogonal matrix,正交矩陣,如果一個(gè)矩陣滿足以下幾個(gè)條件,則此矩陣就是正交矩陣:

(1)是一個(gè)方陣

(2)和自己的轉(zhuǎn)置矩陣的矩陣乘積 = 單位矩陣E

如果A為一個(gè)正交矩陣,則A滿足以下條件:

1) A的轉(zhuǎn)置矩陣也是正交矩陣

2)??(E為單位矩陣)

3) A的各行是單位向量且兩兩正交

4) A的各列是單位向量且兩兩正交

5) (Ax,Ay)=(x,y) x,y∈R

6) |A| = 1或-1

7)??,A的轉(zhuǎn)置矩陣等于A的逆矩陣

15、關(guān)于x,y的函數(shù)f(x,y)=x*e^(-x^2-y^2),(x,y∈R),則該函數(shù)有_____個(gè)極小值點(diǎn)

A 0? ? ? ? ? ? ? ? ?B 1? ? ? ? ? ? ? ?C 2? ? ? ? ? ? ? ? ? ? D 3

答案:B

16、隨機(jī)變量X1,X2...X100都服從[1,9]的均勻分布,則(X1+X2+...+X100)/100近似服從

A 高斯分布? ? ? ? ? ?B 泊松分布? ? ? ? ?C 均勻分布? ? ? ? ? ? D 指數(shù)分布

答案:高斯分布

對(duì)于服從均勻分布的隨機(jī)變量,只要n充分大,隨機(jī)變量?就服從均值為零,方差為1的正態(tài)分布。

17、某二叉樹(shù)有2000個(gè)結(jié)點(diǎn),則該二叉樹(shù)的最小高度為()

A 10? ? ? ? ? ? ?B 11? ? ? ? ? ? ? C 12? ? ? ? ? ? ? ? ?D 13

答案:B

節(jié)點(diǎn)與深度的關(guān)系:2^k -1 =n

18、下列方面不可以防止過(guò)擬合的是()

A?加入正則項(xiàng)? ? ? ? ? ??B?增加樣本? ? ? ? ?C?建立更加復(fù)雜的模型? ? ?D?Bootstrap重采樣

答案:C

19、使用中根遍歷一棵二叉樹(shù)得到E A C K F H D B G,則先根遍歷將得到()

A? ??FAEKCDBHG? ? ? ? ? ? ? ? ? ? ? ?B? ? FAEKCDHGB? ? ? ? ? ? ??C??EAFKHDCBG? ? ? ? ??D? ?FEAKDCHBG

答案:B

20、以下哪些模型是無(wú)向圖

A 樸素貝葉斯? ? ? ? ? B LR? ? ? ? ? ?C? CRF? ? ? ? D HMM

答案:BC

21、協(xié)同過(guò)濾經(jīng)常被用于推薦系統(tǒng), 包含基于內(nèi)存的協(xié)同過(guò)濾, 基于模型的協(xié)同過(guò)濾以及混合模型, 以下說(shuō)法正確的是

A基于模型的協(xié)同過(guò)濾能比較好的處理數(shù)據(jù)稀疏的問(wèn)題

B基于模型的協(xié)同過(guò)濾不需要item的內(nèi)容信息

C基于內(nèi)存的協(xié)同過(guò)濾可以較好解決冷啟動(dòng)問(wèn)題

D基于內(nèi)存的協(xié)同過(guò)濾實(shí)現(xiàn)比較簡(jiǎn)單, 新數(shù)據(jù)可以較方便的加入

答案:AD

22、以下關(guān)于神經(jīng)網(wǎng)絡(luò)說(shuō)法正確的是

A神經(jīng)網(wǎng)絡(luò)可以實(shí)現(xiàn)非線性分類(lèi)

B神經(jīng)網(wǎng)絡(luò)可以實(shí)現(xiàn)線性分類(lèi)

C神經(jīng)網(wǎng)絡(luò)的每層神經(jīng)元激活函數(shù)必須相同

D神經(jīng)網(wǎng)絡(luò)的每層神經(jīng)元激活函數(shù)值閾必須在[-1,1]

答案:AB

23、以下為防止過(guò)擬合的方法的是

A增加樣本? ? ? ? ?B?L1正則? ??C交叉驗(yàn)證? ? ?D增加復(fù)雜特征

答案:ABC

24、CRF模型可以用來(lái)做專(zhuān)名識(shí)別, 語(yǔ)義消歧等, 以下關(guān)于CRF模型說(shuō)法正確的是

A? ?CRF模型是產(chǎn)生式模型? ? ? ? ? ? B? ?CRF模型是判別式模型? ? ? ? ?C??CRF模型的圖模型為無(wú)向圖? ??D?CRF模型的圖模型為有向圖

答案:BC

25、以下屬于凸函數(shù)的是()

A?e^x? ? ? ? ? ? ??B??e^a? ? ? ? ?C??log(x)? ? ? ??D??f(x, y) = x2/y

答案:AD

26、以下說(shuō)法正確的是

A?XOR問(wèn)題不能簡(jiǎn)單的用線性分類(lèi)解決

B?XOR問(wèn)題可以通過(guò)2層感知器解決

C?XOR可以通過(guò)LR模型解決

D?XOR可以通過(guò)單層感知器解決

答案:AB

27、以下是基于圖的特征降維方法的是

A? ?LE(Laplacian eigenmap)? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??B??LLE(local linear embedding)

C??PCA? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?D??KL

答案:AB
Principal Component Analysis(PCA)是最常用的線性降維方法,它的目標(biāo)是通過(guò)某種線性投影,將高維的數(shù)據(jù)映射到低維的空間中表示,并期望在所投影的維度上數(shù)據(jù)的方差最大,以此使用較少的數(shù)據(jù)維度,同時(shí)保留住較多的原數(shù)據(jù)點(diǎn)的特性。

Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一種有監(jiān)督的(supervised)線性降維算法。與PCA保持?jǐn)?shù)據(jù)信息不同,LDA是為了使得降維后的數(shù)據(jù)點(diǎn)盡可能地容易被區(qū)分!

Locally linear embedding(LLE)[1]是一種非線性降維算法,它能夠使降維后的數(shù)據(jù)較好地保持原有流形結(jié)構(gòu)。LLE可以說(shuō)是流形學(xué)習(xí)方法最經(jīng)典的工作之一。很多后續(xù)的流形學(xué)習(xí)、降維方法都與LLE有密切聯(lián)系。

Laplacian Eigenmaps(拉普拉斯特征映射)看問(wèn)題的角度和LLE有些相似,也是用局部的角度去構(gòu)建數(shù)據(jù)之間的關(guān)系。它的直觀思想是希望相互間有關(guān)系的點(diǎn)(在圖中相連的點(diǎn))在降維后的空間中盡可能的靠近。Laplacian Eigenmaps可以反映出數(shù)據(jù)內(nèi)在的流形結(jié)構(gòu)。

其中最后后兩種是基于圖的特征降維方法。

28、使用LR來(lái)擬合數(shù)據(jù), 一般隨機(jī)將數(shù)據(jù)分為訓(xùn)練集和測(cè)試集。 則隨著訓(xùn)練集合的數(shù)據(jù)越來(lái)越多, 以下說(shuō)法正確的是

A測(cè)試集上的測(cè)試誤差會(huì)越來(lái)越大

B測(cè)試集上的測(cè)試誤差會(huì)越來(lái)越小

C訓(xùn)練集上的訓(xùn)練誤差會(huì)越來(lái)越小

D訓(xùn)練集上的訓(xùn)練誤差會(huì)越來(lái)越大

答案:BD

前提:測(cè)試數(shù)據(jù)不變,只增加訓(xùn)練數(shù)據(jù)

1.減少過(guò)擬合,泛化更好,測(cè)試誤差變小

2.訓(xùn)練集多樣性增加,數(shù)據(jù)輸入分布改變,訓(xùn)練誤差變大

29、有A,B 兩個(gè)國(guó)家,人口比例為4:6,A國(guó)的犯罪率為0.1%,B國(guó)的為0.2%。現(xiàn)在有一個(gè)新的犯罪事件,發(fā)生在A國(guó)的概率是?

A0.15? ? ? ? ? ? ? B0.25? ? ? ? ? ? ? ? ?C 0.35? ? ? ? ? ? D 0.45

答案:0.25

總結(jié)

以上是生活随笔為你收集整理的刷题笔记2的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。