日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

90题细品吴恩达《机器学习》,感受被刷题支配的恐惧

發(fā)布時(shí)間:2025/3/8 编程问答 54 豆豆
生活随笔 收集整理的這篇文章主要介紹了 90题细品吴恩达《机器学习》,感受被刷题支配的恐惧 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

點(diǎn)擊藍(lán)字關(guān)注我,有干貨領(lǐng)取!



最近翻譯了吳恩達(dá)《機(jī)器學(xué)習(xí)》課程的配套題庫。課程系列本身多有名多經(jīng)典我就不贅述啦~

主要是我發(fā)現(xiàn),現(xiàn)在市面上基本都是課程和編程題的翻譯版,很少有人翻譯測驗(yàn)(quiz)的題。但最近我親測感受了一下,這套題其實(shí)有點(diǎn)東西,考點(diǎn)非常細(xì)膩。新手配合教程使用,可以更好地學(xué)習(xí)知識(shí);老手在錯(cuò)到懷疑人生的同時(shí),可以幫你回顧理論知識(shí)。所以就給大家搬來啦~

另外,因?yàn)槔锩嬗幸徊糠直容^水基礎(chǔ)的題,所以我酌情搬了節(jié)選。

第 16 題

假設(shè)m=4個(gè)學(xué)生上了一節(jié)課,有期中考試和期末考試。你已經(jīng)收集了他們?cè)趦纱慰荚囍械姆謹(jǐn)?shù)數(shù)據(jù)集,如下所示:

期中得分(期中得分)^2期末得分
89792196
72518474
94883687
69476178

你想用多項(xiàng)式回歸來預(yù)測一個(gè)學(xué)生的期中考試成績。具體地說,假設(shè)你想擬合一個(gè)的模型,其中x1是期中得分,x2是(期中得分)^2。此外,你計(jì)劃同時(shí)使用特征縮放(除以特征的“最大值-最小值”或范圍)和均值歸一化。

標(biāo)準(zhǔn)化后的特征值是多少?(提示:期中=89,期末=96是訓(xùn)練示例1)

第 17 題

用進(jìn)行15次梯度下降迭代,每次迭代后計(jì)算。你會(huì)發(fā)現(xiàn)的值下降緩慢,并且在15次迭代后仍在下降?;诖?#xff0c;以下哪個(gè)結(jié)論似乎最可信?

A.?是學(xué)習(xí)率的有效選擇。

B. 與其使用當(dāng)前值,不如嘗試更小的值(比如)

C. 與其使用當(dāng)前值,不如嘗試更大的值(比如)

第 18 題

假設(shè)您有m=14個(gè)訓(xùn)練示例,有n=3個(gè)特性(不包括需要另外添加的恒為1的截距項(xiàng)),正規(guī)方程是。對(duì)于給定m和n的值,這個(gè)方程中的維數(shù)分別是多少?

A.??14×3,??14×1,??3×3 B.??14×4,??14×1,??4×1 C.??14×3,??14×1,??3×1 D.??14×4,??14×4,??4×4

第 19 題

假設(shè)您有一個(gè)數(shù)據(jù)集,每個(gè)示例有m=1000000個(gè)示例和n=200000個(gè)特性。你想用多元線性回歸來擬合參數(shù)到我們的數(shù)據(jù)。你更應(yīng)該用梯度下降還是正規(guī)方程?

A. 梯度下降,因?yàn)檎?guī)方程中中計(jì)算非常慢

B. 正規(guī)方程,因?yàn)樗峁┝艘环N直接求解的有效方法

C. 梯度下降,因?yàn)樗偸鞘諗康阶顑?yōu)

D. 正規(guī)方程,因?yàn)樘荻认陆悼赡軣o法找到最優(yōu)

第 20 題

以下哪些是使用特征縮放的原因?

A. 它可以防止梯度下降陷入局部最優(yōu)

B. 它通過降低梯度下降的每次迭代的計(jì)算成本來加速梯度下降

C. 它通過減少迭代次數(shù)來獲得一個(gè)好的解,從而加快了梯度下降的速度

D. 它防止矩陣(用于正規(guī)方程)不可逆(奇異/退化)

第 27 題

假設(shè)您有以下訓(xùn)練集,并擬合logistic回歸分類器

以下哪項(xiàng)是正確的?選出所有正確項(xiàng)

A. 添加多項(xiàng)式特征(例如,使用)可以增加我們擬合訓(xùn)練數(shù)據(jù)的程度

B. 在的最佳值(例如,由fminunc找到)處,

C.添加多項(xiàng)式特征(例如,使用將增加,因?yàn)槲覀儸F(xiàn)在正在對(duì)更多項(xiàng)進(jìn)行求和

D.如果我們訓(xùn)練梯度下降迭代足夠多次,對(duì)于訓(xùn)練集中的一些例子,可能得到

第 28 題

對(duì)于邏輯回歸,梯度由給出。以下哪項(xiàng)是學(xué)習(xí)率為的邏輯回歸的正確梯度下降更新?選出所有正確項(xiàng)

A.?

B.?(同時(shí)更新所有)

C.?(同時(shí)更新所有)

D.?(同時(shí)更新所有)

第 29 題

以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 對(duì)于邏輯回歸,梯度下降有時(shí)會(huì)收斂到一個(gè)局部最小值(并且無法找到全局最小值)。這就是為什么我們更喜歡更先進(jìn)的優(yōu)化算法,如fminunc(共軛梯度/BFGS/L-BFGS/等等)

B. sigmoid函數(shù)數(shù)值永遠(yuǎn)不會(huì)大于1

C.用個(gè)例子訓(xùn)練的邏輯回歸的代價(jià)函數(shù)總是大于或等于零

D. 使用線性回歸+閾值的方法做分類預(yù)測,總是很有效的

第 31 題

你正在訓(xùn)練一個(gè)分類邏輯回歸模型。以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能

B. 在模型中添加許多新特性有助于防止訓(xùn)練集過度擬合

C. 將正則化引入到模型中,對(duì)于訓(xùn)練集中沒有的例子,總是可以獲得相同或更好的性能

D. 向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能

第 31 題

你正在訓(xùn)練一個(gè)分類邏輯回歸模型。以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能

B. 在模型中添加許多新特性有助于防止訓(xùn)練集過度擬合

C. 將正則化引入到模型中,對(duì)于訓(xùn)練集中沒有的例子,總是可以獲得相同或更好的性能

D. 向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能

第 32 題

假設(shè)您進(jìn)行了兩次邏輯回歸,一次是,一次是。其中一次,得到參數(shù),另一次,得到。但是,您忘記了哪個(gè)值對(duì)應(yīng)于哪個(gè)值。你認(rèn)為哪個(gè)對(duì)應(yīng)?

A.?

B.?

第 33 題

以下關(guān)于正則化的陳述哪一個(gè)是正確的?選出所有正確項(xiàng)

A. 使用太大的值可能會(huì)導(dǎo)致您的假設(shè)與數(shù)據(jù)過擬合;這可以通過減小來避免

B. 使用非常大的值不會(huì)影響假設(shè)的性能;我們不將設(shè)置為太大的唯一原因是避免數(shù)值問題

C. 考慮一個(gè)分類問題。添加正則化可能會(huì)導(dǎo)致分類器錯(cuò)誤地分類某些訓(xùn)練示例(當(dāng)不使用正則化時(shí),即當(dāng)時(shí),它正確地分類了這些示例)

D. 由于邏輯回歸的輸出值,其輸出值的范圍無論如何只能通過正則化來“縮小”一點(diǎn),因此正則化通常對(duì)其沒有幫助

第 36 題

以下哪項(xiàng)陳述是正確的?選擇所有正確項(xiàng)

A. 神經(jīng)網(wǎng)絡(luò)中隱藏單元的激活值,在應(yīng)用了sigmoid函數(shù)之后,總是在(0,1)范圍內(nèi)

B. 在二進(jìn)制值(0或1)上的邏輯函數(shù)可以(近似)用一些神經(jīng)網(wǎng)絡(luò)來表示

C. 兩層(一個(gè)輸入層,一個(gè)輸出層,沒有隱藏層)神經(jīng)網(wǎng)絡(luò)可以表示異或函數(shù)

D. 假設(shè)有一個(gè)三個(gè)類的多類分類問題,使用三層網(wǎng)絡(luò)進(jìn)行訓(xùn)練。設(shè)為第一輸出單元的激活,并且類似地,有和。那么對(duì)于任何輸入x,必須有

第 37 題

考慮以下兩個(gè)二值輸入和輸出的神經(jīng)網(wǎng)絡(luò)。它(近似)計(jì)算了下列哪一個(gè)邏輯函數(shù)?

A. OR

B. AND

C. NAND (與非)

D. XOR (異或)

第 38 題

考慮下面給出的神經(jīng)網(wǎng)絡(luò)。下列哪個(gè)方程正確地計(jì)算了的激活?注:是sigmoid激活函數(shù)

A.?

B.?

C.?

D. 此網(wǎng)絡(luò)中不存在激活

第 39 題

你有以下神經(jīng)網(wǎng)絡(luò):

你想計(jì)算隱藏層的激活,一種方法是使用以下Octave代碼:

您需要一個(gè)矢量化的實(shí)現(xiàn)(即,一個(gè)不用循環(huán)的實(shí)現(xiàn))。下列哪個(gè)實(shí)現(xiàn)正確計(jì)算?選出所有正確項(xiàng)

A. z = Theta1 * x; a2 = sigmoid (z)?

B. a2 = sigmoid (x * Theta1)?

C. a2 = sigmoid (Theta2 * x)?

D. z = sigmoid(x); a2 = sigmoid (Theta1 * z)

第 40 題

您正在使用下圖所示的神經(jīng)網(wǎng)絡(luò),并已學(xué)習(xí)參數(shù)(用于計(jì)算)和(用于作用在的函數(shù),計(jì)算的值)。

假設(shè)您交換第一個(gè)隱藏層的2個(gè)單元的參數(shù),并且還交換輸出層。這將如何改變輸出的值?

A. 不變 B. 變大 C. 變小 D. 信息不全,可能變大也可能變小

第 41 題

您正在訓(xùn)練一個(gè)三層神經(jīng)網(wǎng)絡(luò),希望使用反向傳播來計(jì)算代價(jià)函數(shù)的梯度。在反向傳播算法中,其中一個(gè)步驟是更新??對(duì)于每個(gè)i,j,下面哪一個(gè)是這個(gè)步驟的正確矢量化?

A.??

B.??

C.??

D.?

第 43 題

設(shè),設(shè)。用公式來數(shù)值計(jì)算在時(shí)的逼近。你將得到什么值?(當(dāng)時(shí),精確導(dǎo)數(shù)為)

A. 8 B. 6 C. 5.9998 D. 6.0002

第 44 題

以下哪項(xiàng)陳述是正確的?選擇所有正確項(xiàng)

A. 使用較大的值不會(huì)影響神經(jīng)網(wǎng)絡(luò)的性能;我們不將設(shè)置為太大的唯一原因是避免數(shù)值問題

B. 如果我們使用梯度下降作為優(yōu)化算法,梯度檢查是有用的。然而,如果我們使用一種先進(jìn)的優(yōu)化方法(例如在fminunc中),它沒有多大用處

C. 使用梯度檢查可以幫助驗(yàn)證反向傳播的實(shí)現(xiàn)是否沒有bug

D. 如果我們的神經(jīng)網(wǎng)絡(luò)過擬合訓(xùn)練集,一個(gè)合理的步驟是增加正則化參數(shù)

第 45 題

以下哪項(xiàng)陳述是正確的?選擇所有正確項(xiàng)

A. 假設(shè)參數(shù)是一個(gè)方矩陣(即行數(shù)等于列數(shù))。如果我們用它的轉(zhuǎn)置代替,那么我們并沒有改變網(wǎng)絡(luò)正在計(jì)算的功能。

B. 假設(shè)我們有一個(gè)正確的反向傳播實(shí)現(xiàn),并且正在使用梯度下降訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)。假設(shè)我們將繪制為迭代次數(shù)的函數(shù),并且發(fā)現(xiàn)它是遞增的而不是遞減的。一個(gè)可能的原因是學(xué)習(xí)率太大。

C. 假設(shè)我們使用學(xué)習(xí)率為的梯度下降。對(duì)于邏輯回歸和線性回歸,是一個(gè)凸優(yōu)化問題,因此我們不想選擇過大的學(xué)習(xí)率。然而,對(duì)于神經(jīng)網(wǎng)絡(luò),可能不是凸的,因此選擇一個(gè)非常大的值只能加快收斂速度。

D. 如果我們使用梯度下降訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò),一個(gè)合理的調(diào)試步驟是將繪制為迭代次數(shù)的函數(shù),并確保每次迭代后它是遞減的(或至少是不遞增的)。

第 46 題

你訓(xùn)練一個(gè)學(xué)習(xí)算法,發(fā)現(xiàn)它在測試集上的誤差很高。繪制學(xué)習(xí)曲線,并獲得下圖。算法是否存在高偏差、高方差或兩者都不存在?

A. 高偏差 B. 高方差 C. 兩者都不

第 47 題

假設(shè)您已經(jīng)實(shí)現(xiàn)了正則化邏輯回歸來分類圖像中的對(duì)象(即,還沒有實(shí)現(xiàn)圖像識(shí)別)。然而,當(dāng)你在一組新的圖像上檢驗(yàn)?zāi)愕哪P蜁r(shí),你會(huì)發(fā)現(xiàn)它對(duì)新圖像的預(yù)測有誤差非常大。然而,你的假設(shè)在訓(xùn)練集上擬合的很好。以下哪個(gè)做法可以改善?選出所有正確項(xiàng)

A. 嘗試添加多項(xiàng)式特征?

B. 獲取更多訓(xùn)練示例?

C. 嘗試使用較少的特征?

D. 少用訓(xùn)練的例子

第 48 題

假設(shè)您已經(jīng)實(shí)現(xiàn)了正則化的邏輯來預(yù)測客戶將在購物網(wǎng)站上購買哪些商品。然而,當(dāng)你在一組新的客戶身上測試你的模型時(shí),你發(fā)現(xiàn)它在預(yù)測中的誤差很大。此外,該模型在訓(xùn)練集上表現(xiàn)不佳。以下哪個(gè)做法可以改善?選出所有正確項(xiàng)

A. 嘗試獲取并使用其他特征?

B. 嘗試添加多項(xiàng)式特征?

C. 嘗試使用較少的特征?

D. 嘗試增加正則化參數(shù)

第 49 題

以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 假設(shè)您正在訓(xùn)練一個(gè)正則化的線性回歸模型。選擇正則化參數(shù)值的推薦方法是選擇交叉驗(yàn)證誤差最小的值。

B. 假設(shè)您正在訓(xùn)練一個(gè)正則化的線性回歸模型。選擇正則化參數(shù)值的推薦方法是選擇給出最小測試集誤差的值。

C. 假設(shè)你正在訓(xùn)練一個(gè)正則化線性回歸模型,推薦的選擇正則化參數(shù)值的方法是選擇給出最小訓(xùn)練集誤差的值。

D. 學(xué)習(xí)算法在訓(xùn)練集上的性能通常比在測試集上的性能要好。

第 50 題

以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 在調(diào)試學(xué)習(xí)算法時(shí),繪制學(xué)習(xí)曲線有助于了解是否存在高偏差或高方差問題。

B. 如果一個(gè)學(xué)習(xí)算法受到高方差的影響,增加更多的訓(xùn)練實(shí)例可能會(huì)改善測試誤差。

C. 我們總是喜歡高方差的模型(而不是高偏差的模型),因?yàn)樗鼈兡軌蚋玫剡m應(yīng)訓(xùn)練集。

D. 如果一個(gè)學(xué)習(xí)算法有很高的偏差,僅僅增加更多的訓(xùn)練實(shí)例可能不會(huì)顯著改善測試誤差。

第 53 題

假設(shè)您已經(jīng)訓(xùn)練了一個(gè)輸出的邏輯回歸分類器。目前,如果,則預(yù)測1, 如果,則預(yù)測0,當(dāng)前閾值設(shè)置為0.5。

假設(shè)您將閾值增加到0.9。以下哪項(xiàng)是正確的?選出所有正確項(xiàng)

A. 現(xiàn)在分類器的精度可能更低。

B. 分類器的準(zhǔn)確度和召回率可能不變,但準(zhǔn)確度較低。

C. 分類器的準(zhǔn)確度和召回率可能不變,但精度較高。

D. 分類器現(xiàn)在可能具有較低的召回率。

假設(shè)您將閾值降低到0.3。以下哪項(xiàng)是正確的?選出所有正確項(xiàng)

A. 分類器現(xiàn)在可能具有更高的召回率。

B. 分類器的準(zhǔn)確度和召回率可能不變,但精度較高。

C. 分類器現(xiàn)在可能具有更高的精度。

D. 分類器的準(zhǔn)確度和召回率可能不變,但準(zhǔn)確度較低。

第 54 題

假設(shè)您正在使用垃圾郵件分類器,其中垃圾郵件是正例(y=1),非垃圾郵件是反例(y=0)。您有一組電子郵件訓(xùn)練集,其中99%的電子郵件是非垃圾郵件,另1%是垃圾郵件。以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 一個(gè)好的分類器應(yīng)該在交叉驗(yàn)證集上同時(shí)具有高精度precision和高召回率recall。

B. 如果您總是預(yù)測非垃圾郵件(輸出y=0),那么您的分類器在訓(xùn)練集上的準(zhǔn)確度accuracy將達(dá)到99%,而且它在交叉驗(yàn)證集上的性能可能類似。

C. 如果您總是預(yù)測非垃圾郵件(輸出y=0),那么您的分類器的準(zhǔn)確度accuracy將達(dá)到99%。

D. 如果您總是預(yù)測非垃圾郵件(輸出y=0),那么您的分類器在訓(xùn)練集上的準(zhǔn)確度accuracy將達(dá)到99%,但在交叉驗(yàn)證集上的準(zhǔn)確率會(huì)更差,因?yàn)樗^擬合訓(xùn)練數(shù)據(jù)。

第 55 題

以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 在構(gòu)建學(xué)習(xí)算法的第一個(gè)版本之前,花大量時(shí)間收集大量數(shù)據(jù)是一個(gè)好主意。

B. 在傾斜的數(shù)據(jù)集上(例如,當(dāng)有更多的正面例子而不是負(fù)面例子時(shí)),準(zhǔn)確度不是一個(gè)很好的性能度量,您應(yīng)該根據(jù)準(zhǔn)確度和召回率使用F1分?jǐn)?shù)。

C. 訓(xùn)練完邏輯回歸分類器后,必須使用0.5作為預(yù)測示例是正是負(fù)的閾值。

D. 使用一個(gè)非常大的訓(xùn)練集使得模型不太可能過度擬合訓(xùn)練數(shù)據(jù)。

E. 如果您的模型不適合訓(xùn)練集,那么獲取更多數(shù)據(jù)可能會(huì)有幫助。

第 56 題

假設(shè)您使用訓(xùn)練了一個(gè)高斯內(nèi)核的支持向量機(jī),它在訓(xùn)練集上學(xué)習(xí)了以下決策邊界:

你覺得支持向量機(jī)欠擬合了,你應(yīng)該試著增加或減少嗎?或者增加或減少?

A. 降低,增加?

B. 降低,降低?

C. 增加,增加?

D. 增加,降低

第 58 題

支持向量機(jī)求解,其中函數(shù)和圖像如下:

目標(biāo)中的第一項(xiàng)是:?如果以下四個(gè)條件中有兩個(gè)為真,則第一項(xiàng)為零。使這個(gè)項(xiàng)等于零的兩個(gè)條件是什么?

A. 對(duì)于的每個(gè)例子,有

B. 對(duì)于的每個(gè)例子,有

C. 對(duì)于的每個(gè)例子,有

D. 對(duì)于的每個(gè)例子,有

第 59 題

假設(shè)您有一個(gè)具有n=10個(gè)特征和m=5000個(gè)示例的數(shù)據(jù)集。在用梯度下降訓(xùn)練邏輯回歸分類器之后,您發(fā)現(xiàn)它與訓(xùn)練集欠擬合,并且在訓(xùn)練集或交叉驗(yàn)證集上沒有達(dá)到所需的性能。以下哪個(gè)步驟有望改善?選出所有正確項(xiàng)

A. 嘗試使用具有大量隱藏單元的神經(jīng)網(wǎng)絡(luò)。

B. 減少訓(xùn)練集中的示例數(shù)。

C. 使用不同的優(yōu)化方法,因?yàn)槭褂锰荻认陆涤?xùn)練邏輯可能會(huì)導(dǎo)致局部最小。

D. 創(chuàng)建/添加新的多項(xiàng)式特征。

第 60 題

以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 假設(shè)您使用支持向量機(jī)進(jìn)行多類分類,并希望使用“一對(duì)所有”方法。如果你有個(gè)不同的類,你將訓(xùn)練個(gè)不同的支持向量機(jī)。

B. 如果數(shù)據(jù)是線性可分的,那么不管值是多少,線性內(nèi)核的支持向量機(jī)都將返回相同的參數(shù)(即,的結(jié)果值不依賴于)。

C. 高斯核的最大值(即)是1。

D. 在使用高斯核之前進(jìn)行特征歸一化是很重要的。

第 63 題

K-means是一種迭代算法,在其內(nèi)部循環(huán)中重復(fù)執(zhí)行以下兩個(gè)步驟。哪兩個(gè)?

A. 移動(dòng)簇中心,更新簇中心。

B. 分配簇,其中參數(shù)被更新。

C. 移動(dòng)簇中心,將其設(shè)置為等于最近的訓(xùn)練示例

D. 簇中心分配步驟,其中每個(gè)簇質(zhì)心被分配(通過設(shè)置)到最近的訓(xùn)練示例。

第 64 題

假設(shè)您有一個(gè)未標(biāo)記的數(shù)據(jù)集。你用50個(gè)不同的隨機(jī)數(shù)運(yùn)行K-means初始化,并獲得了50個(gè)不同的聚類。選擇這50個(gè)組合中的哪一個(gè)的方法是什么?

A. 唯一的方法是我們需要數(shù)據(jù)標(biāo)簽。

B. 對(duì)于每一個(gè)分類,計(jì)算,并選擇這個(gè)值最小的一個(gè)。

C. 答案模棱兩可,沒有好的選擇方法。

D. 總是選擇找到的最后一個(gè)(第50個(gè))聚類,因?yàn)樗锌赡苁諗康揭粋€(gè)好的解決方案。

第 65 題

以下哪項(xiàng)陳述是正確的?選出所有正確項(xiàng)

A. 如果我們擔(dān)心K-means陷入局部最優(yōu)解,一種改善(減少)這個(gè)問題的方法是嘗試使用多個(gè)隨機(jī)初始化。

B. 初始化K-均值的標(biāo)準(zhǔn)方法是將設(shè)置為等于零的向量。

C. 由于K-Means是一種無監(jiān)督的學(xué)習(xí)算法,它不能對(duì)數(shù)據(jù)進(jìn)行過度擬合,因此最好在計(jì)算上盡可能多的聚類。

D. 對(duì)于某些數(shù)據(jù)集,K(集群數(shù)量)的“正確”值可能是不明確的,甚至對(duì)于仔細(xì)查看數(shù)據(jù)的人類專家來說也很難做出決定。

E. 無論簇中心的初始化如何,K-均值都會(huì)給出相同的結(jié)果。

F. 初始化K-means的一個(gè)好方法是從訓(xùn)練集中選擇K個(gè)(不同的)示例,并設(shè)置與這些選定示例相等的簇質(zhì)心。

G. 在K-均值的每次迭代中,代價(jià)函數(shù)(失真函數(shù))要么保持不變,要么減小,特別是不應(yīng)增加。

H. 一旦一個(gè)例子被分配到一個(gè)特定的簇中心,它將永遠(yuǎn)不會(huì)被重新分配到另一個(gè)不同的簇中心。

第 67 題

以下哪一項(xiàng)是選擇主成分?jǐn)?shù)量的合理方法?(n是輸入數(shù)據(jù)的維度mm是輸入示例的數(shù)量)

A. 選擇至少保留99%的方差的k的最小值

B. 選擇k,使逼近誤差。

C. 選擇至少保留1%的方差的k的最小值

D. 選擇k為99%的n(即四舍五入至最接近的整數(shù))。

第 68 題

假設(shè)有人告訴你,他們運(yùn)行主成分分析的方式是“95%的方差被保留”,什么是與此等價(jià)的說法?

A.??

B.??

C.??

D.?

第 69 題

以下哪項(xiàng)陳述是正確的?選擇所有正確項(xiàng)

A. 僅給出和,就沒有辦法重建的任何合理的近似。

B. 即使所有的輸入特征都在非常相似的尺度上,在運(yùn)行PCA之前,我們?nèi)匀粦?yīng)該執(zhí)行均值歸一化(這樣每個(gè)特征的均值為零)。

C. PCA易受局部最優(yōu)解的影響;嘗試多次隨機(jī)初始化可能會(huì)有所幫助。

D. 給定輸入數(shù)據(jù),僅用滿足的k值運(yùn)行PCA是有意義的(特別是,用k=n運(yùn)行PCA是可能的,但沒有幫助,沒有意義)

第 70 題

以下哪項(xiàng)是PCA的推薦應(yīng)用?選擇所有正確項(xiàng)

A. 作為線性回歸的替代:對(duì)于大多數(shù)模型應(yīng)用,PCA和線性回歸給出了基本相似的結(jié)果。

B. 數(shù)據(jù)壓縮:減少數(shù)據(jù)的維數(shù),從而減少占用的內(nèi)存/磁盤空間。

C. 數(shù)據(jù)可視化:獲取二維數(shù)據(jù),并在二維中找到不同的繪制方法(使用k=2)。

D. 數(shù)據(jù)壓縮:減少輸入數(shù)據(jù)的維數(shù),該維數(shù)將用于監(jiān)督學(xué)習(xí)算法(即,使用PCA以使監(jiān)督學(xué)習(xí)算法運(yùn)行更快)。

第 72 題

假設(shè)您已經(jīng)訓(xùn)練了一個(gè)異常檢測系統(tǒng),當(dāng)時(shí)標(biāo)記異常,并且您在交叉驗(yàn)證集中發(fā)現(xiàn)它有太多的誤報(bào)(標(biāo)記太多的東西為異常)。你該怎么辦?

A. 增大?B. 減小

第 73 題

假設(shè)您正在開發(fā)一個(gè)異常檢測系統(tǒng)來捕獲飛機(jī)發(fā)動(dòng)機(jī)中的制造缺陷。你的模型用。有兩個(gè)特性=振動(dòng)強(qiáng)度,=產(chǎn)生的熱量,的值都在0到1之間(并且嚴(yán)格大于0)。對(duì)于大多數(shù)“正常”發(fā)動(dòng)機(jī),你期望。其中一個(gè)可疑的異常是,即使不產(chǎn)生太多熱量,發(fā)動(dòng)機(jī)也會(huì)劇烈振動(dòng)(大,小),即使和的特定值可能不在其典型值范圍之外。您應(yīng)該構(gòu)造哪些特征來捕獲這些類型的異常:

A.??B.??C.??D.?

第 74 題

以下哪項(xiàng)是正確的?選擇所有正確項(xiàng)

A. 如果沒有任何標(biāo)記的數(shù)據(jù)(或者如果所有數(shù)據(jù)都有標(biāo)記),則仍然可以學(xué)習(xí),但可能更難評(píng)估系統(tǒng)或選擇一個(gè)好的值。

B. 如果你有一個(gè)帶有許多正例子和許多負(fù)例子的訓(xùn)練集,那么異常檢測算法的性能可能與有監(jiān)督的學(xué)習(xí)算法(如支持向量機(jī))一樣好。

C. 如果您正在開發(fā)異常檢測系統(tǒng),則無法使用標(biāo)記的數(shù)據(jù)來改進(jìn)您的系統(tǒng)。

D. 在為異常檢測系統(tǒng)選擇特征時(shí),最好為異常示例尋找具有異常大值或小值的特征。

第 75 題

您有一個(gè)一維數(shù)據(jù)集,并且希望檢測數(shù)據(jù)集中的異常值。首先繪制數(shù)據(jù)集,它如下所示:

假設(shè)將高斯分布參數(shù)μ1μ1和σ21σ12擬合到此數(shù)據(jù)集。對(duì)于,可以得到下列哪個(gè)值?

A.??

B.??

C.??

D.?

第 76 題

假設(shè)你開了一家書店,對(duì)書的評(píng)級(jí)為(1到5星)。協(xié)作過濾算法為用戶j學(xué)習(xí)了參數(shù)向量,為每本書學(xué)習(xí)了特征向量。你需要計(jì)算“訓(xùn)練誤差”,即你的系統(tǒng)對(duì)你從用戶那里得到的所有評(píng)分的預(yù)測的平均平方誤差。以下哪種方法是正確的(選出所有正確項(xiàng))?對(duì)于這個(gè)問題,設(shè)m為您從用戶那里獲得的評(píng)分總數(shù)(。

A.??

B.??

C.??

D.?

第 77 題

在下列哪種情況下,協(xié)同過濾系統(tǒng)是最合適的學(xué)習(xí)算法(與線性或邏輯回歸相比)?

A. 你經(jīng)營一家在線書店,收集許多用戶的評(píng)價(jià)。你想用它來識(shí)別哪些書彼此“相似”(即,如果一個(gè)用戶喜歡某本書,那么他可能也喜歡哪些書?)

B. 你管理一個(gè)在線書店,你有許多用戶的書評(píng)。你想根據(jù)一本書的平均評(píng)分來預(yù)測預(yù)期的銷售量(售出的書的數(shù)量)。

C. 你是個(gè)藝術(shù)家,為你的客戶手繪肖像。每個(gè)客戶都會(huì)得到不同的肖像(他們自己)并給你1-5星級(jí)的評(píng)價(jià)反饋,每個(gè)客戶最多購買1幅肖像。你想預(yù)測下一個(gè)客戶會(huì)給你什么樣的評(píng)分。

D. 你開了一家服裝店,出售許多款式和品牌的牛仔褲。你已經(jīng)收集了經(jīng)常購物者對(duì)不同款式和品牌的評(píng)論,你想用這些評(píng)論為那些購物者提供你認(rèn)為他們最有可能購買的牛仔褲的折扣

第 78 題

你經(jīng)營著一個(gè)電影公司,想要建立一個(gè)基于協(xié)同過濾的電影推薦系統(tǒng)。有三個(gè)受歡迎的評(píng)論網(wǎng)站(我們稱之為A、B和C),用戶可以去給電影打分。你剛剛收購了三家經(jīng)營這些網(wǎng)站的公司,希望將三個(gè)公司的數(shù)據(jù)集合并在一起,以構(gòu)建一個(gè)單一/統(tǒng)一的系統(tǒng)。在A網(wǎng)站上,用戶將一部電影分為1到5顆星。在B網(wǎng)站上,用戶的排名是1-10分,允許使用小數(shù)(如7.5)。在C網(wǎng)站,收視率從1到100。您還擁有足夠的信息來識(shí)別一個(gè)網(wǎng)站上的用戶/電影和另一個(gè)網(wǎng)站上的用戶/電影。以下哪個(gè)陳述是正確的?

A. 您可以將三個(gè)數(shù)據(jù)集合并為一個(gè)數(shù)據(jù)集,但是您應(yīng)該首先規(guī)范化每個(gè)數(shù)據(jù)集的評(píng)級(jí)(比如將每個(gè)數(shù)據(jù)集的評(píng)級(jí)重新調(diào)整為0-1范圍)。

B. 只要在合并數(shù)據(jù)后執(zhí)行平均規(guī)格化和特征縮放,就可以將所有三個(gè)訓(xùn)練集合并為一個(gè)。

C. 假設(shè)在一個(gè)數(shù)據(jù)庫中至少有一個(gè)電影/用戶沒有出現(xiàn)在第二個(gè)數(shù)據(jù)庫中,那么就沒有合并這些數(shù)據(jù)集的合理方法,因?yàn)槿鄙贁?shù)據(jù)。

D. 無法合并這些網(wǎng)站的數(shù)據(jù)。你必須建立三個(gè)獨(dú)立的推薦系統(tǒng)。

第 79 題

以下哪項(xiàng)是協(xié)作過濾系統(tǒng)的正確選擇?選出所有正確項(xiàng)

A. 基于內(nèi)容的推薦算法的代價(jià)函數(shù)是。假設(shè)只有一個(gè)用戶,他對(duì)訓(xùn)練集中的每一部電影都進(jìn)行了分級(jí)。這意味著對(duì)于每個(gè),有和。在這種情況下,成本函數(shù)等價(jià)于用于正則化線性回歸的函數(shù)。

B. 利用梯度下降訓(xùn)練協(xié)同過濾系統(tǒng)時(shí),可以將所有參數(shù)()初始化為零。

C. 如果你有一個(gè)用戶對(duì)某些產(chǎn)品的評(píng)級(jí)數(shù)據(jù)集,你可以使用這些數(shù)據(jù)來預(yù)測他對(duì)沒有評(píng)級(jí)的產(chǎn)品的偏好。

D. 要使用協(xié)作過濾,您需要為數(shù)據(jù)集中的每個(gè)項(xiàng)目(例如,電影)手動(dòng)設(shè)計(jì)一個(gè)特征向量,該向量描述該項(xiàng)目最重要的屬性。

第 80 題

假設(shè)有兩個(gè)矩陣,其中是5x3,是3x5。它們的乘積是,一個(gè)5x5矩陣。此外,還有一個(gè)5x5矩陣R,其中每個(gè)條目都是0或1。你想找到所有元素的和,對(duì)應(yīng)的是1,忽略所有的元素。一種方法是使用以下代碼:

下面哪一段代碼也能正確計(jì)算出這個(gè)總數(shù)?選出所有正確項(xiàng)

A. total = sum(sum((A * B) .* R))

B. C = A * B; total = sum(sum(C(R == 1)));

C. C = (A * B) * R; total = sum(C(:));

D. total = sum(sum(A(R == 1) * B(R == 1));

第 81 題

假設(shè)您正在使用隨機(jī)梯度下降訓(xùn)練邏輯回歸分類器。你發(fā)現(xiàn)在過去的500個(gè)例子中,成本(即,500個(gè)例子平均后)繪制為迭代次數(shù)的函數(shù),隨時(shí)間緩慢增加。以下哪項(xiàng)更改可能有幫助?

A. 試著在圖中用較少的例子(比如250個(gè)例子而不是500個(gè))來平均成本。

B. 這在隨機(jī)梯度下降的情況下是不可能的,因?yàn)樗WC收斂到最優(yōu)參數(shù)。

C. 嘗試將學(xué)習(xí)率減半(減少),看看這是否會(huì)導(dǎo)致成本持續(xù)下降;如果沒有,繼續(xù)減半直到成本會(huì)持續(xù)下降。

D. 從訓(xùn)練集中取更少的例子

第 82 題

下列關(guān)于隨機(jī)梯度下降的陳述哪一個(gè)是正確的?選出所有正確項(xiàng)

A. 您可以使用數(shù)值梯度檢查的方法來驗(yàn)證您的隨機(jī)梯度下降實(shí)現(xiàn)是對(duì)的(隨機(jī)梯度下降之中的一步是計(jì)算偏導(dǎo)數(shù))

B. 在運(yùn)行隨機(jī)梯度下降之前,您應(yīng)該隨機(jī)洗牌(重新排序)訓(xùn)練集。

C. 假設(shè)您使用隨機(jī)梯度下降來訓(xùn)練線性回歸分類器。代價(jià)函數(shù)一定會(huì)隨著每次迭代減小。

D. 為了確保隨機(jī)梯度下降收斂,我們通常在每次迭代后計(jì)算,并繪制它,以確保成本函數(shù)總體上是遞減的。

第 83 題

以下關(guān)于在線學(xué)習(xí)的陳述哪一個(gè)是正確的?選出所有正確項(xiàng)

A. 如果我們有一個(gè)連續(xù)/不間斷的數(shù)據(jù)流,用在線學(xué)習(xí)算法通常是最適合的。

B. 當(dāng)我們有一個(gè)大小為m的固定訓(xùn)練集需要訓(xùn)練時(shí),在線學(xué)習(xí)算法是最合適的。

C. 使用在線學(xué)習(xí)時(shí),您必須保存獲得的每個(gè)訓(xùn)練例子,因?yàn)槟鷮⑿枰赜眠^去的示例來重新訓(xùn)練模型,即使在將來獲得新的培訓(xùn)示例之后也是如此。

D. 在線學(xué)習(xí)的一個(gè)優(yōu)點(diǎn)是,如果我們正在建模的功能隨著時(shí)間的推移而變化(例如,如果我們正在建模用戶單擊不同URL的概率,并且用戶的品味/偏好隨著時(shí)間的推移而變化),在線學(xué)習(xí)算法將自動(dòng)適應(yīng)這些變化。

第 84 題

假設(shè)您有一個(gè)非常大的訓(xùn)練集,您認(rèn)為以下哪種算法可以使用map-reduce和跨不同機(jī)器拆分訓(xùn)練集來并行化?選出所有正確項(xiàng)

A. 用隨機(jī)梯度下降訓(xùn)練邏輯回歸

B. 用隨機(jī)梯度下降訓(xùn)練線性回歸

C. 用批量梯度下降訓(xùn)練邏輯回歸

D. 計(jì)算訓(xùn)練集中所有特征的平均值(例如為了執(zhí)行平均歸一化)。

第 85 題

下面關(guān)于map-reduce的哪些語句是正確的?選出所有正確項(xiàng)

A. 由于網(wǎng)絡(luò)延遲和其他與map-reduce相關(guān)的開銷,如果我們使用N臺(tái)計(jì)算機(jī)運(yùn)行map-reduce,與使用1臺(tái)計(jì)算機(jī)相比,我們可能會(huì)得到小于N倍的加速。

B. 如果您只有一臺(tái)具有一個(gè)計(jì)算核心的計(jì)算機(jī),那么map-reduce不太可能有幫助。

C. 當(dāng)使用帶梯度下降的map-reduce時(shí),我們通常使用一臺(tái)機(jī)器從每個(gè)map-reduce機(jī)器中累積梯度,以便計(jì)算該迭代的參數(shù)更新。

D. 線性回歸和邏輯回歸可以用map-reduce并行化,但神經(jīng)網(wǎng)絡(luò)訓(xùn)練不能。

第 88 題

進(jìn)行上限分析有什么好處?選出所有正確項(xiàng)

A. 這是為算法提供額外訓(xùn)練數(shù)據(jù)的一種方法。

B. 使用上限分析能幫助我們分析流水線的哪個(gè)部分對(duì)整個(gè)系統(tǒng)的提高最大。

C. 使用上限分析能讓我們知道到某個(gè)模塊需不需要花精力做好;因?yàn)榫退惆堰@個(gè)模塊精度提高到100%了,也無助于提高整個(gè)系統(tǒng)的精度。

D.使用上限分析并不會(huì)幫我們分析出哪個(gè)部分是high bias,哪個(gè)部分是high variance。

第 89 題

假設(shè)您正在構(gòu)建一個(gè)對(duì)象分類器,它將圖像作為輸入,并將該圖像識(shí)別為包含汽車(y=1y=1)或不包含汽車(y=0y=0)。例如,這里有正例和一個(gè)負(fù)例:

在仔細(xì)分析了算法的性能之后,你的結(jié)論是你需要更多正例()。下面哪一個(gè)可能是獲得更多正面例子的好方法?

A. 對(duì)現(xiàn)有訓(xùn)練集中的圖像應(yīng)用平移、扭曲和旋轉(zhuǎn)。

B. 選擇兩個(gè)汽車圖像并對(duì)其進(jìn)行平均以生成第三個(gè)示例。

C. 從訓(xùn)練集中獲取一些圖像,并向每個(gè)像素添加隨機(jī)高斯噪聲。

D. 為訓(xùn)練集中的每個(gè)圖像制作兩份副本;這會(huì)立即使訓(xùn)練集大小加倍。

第 90 題

假設(shè)您有一個(gè)圖片手寫字符識(shí)別系統(tǒng),其中有以下流水線:

您已決定對(duì)此系統(tǒng)執(zhí)行上限分析,并得到以下內(nèi)容:
以下哪項(xiàng)陳述是正確的?

A. 提高字符識(shí)別系統(tǒng)的性能是可能的。

B. 執(zhí)行此處的上限分析,需要我們對(duì)其它的三個(gè)流程都加上標(biāo)簽來判斷對(duì)錯(cuò)(ground-truth)。

C. 最沒有前途的部分是字符識(shí)別系統(tǒng),因?yàn)樗呀?jīng)獲得了100%的準(zhǔn)確率。

D. 最有前途的組件是文本檢測系統(tǒng),因?yàn)樗男阅茏畹?#xff08;72%),因此潛在增益最大。

備注:公眾號(hào)菜單包含了整理了一本AI小抄非常適合在通勤路上用學(xué)習(xí)。

往期精彩回顧2019年公眾號(hào)文章精選適合初學(xué)者入門人工智能的路線及資料下載機(jī)器學(xué)習(xí)在線手冊(cè)深度學(xué)習(xí)在線手冊(cè)AI基礎(chǔ)下載(第一部分)備注:加入本站微信群或者qq群,請(qǐng)回復(fù)“加群”加入知識(shí)星球(4500+用戶,ID:92416895),請(qǐng)回復(fù)“知識(shí)星球”

喜歡文章,點(diǎn)個(gè)在看

與50位技術(shù)專家面對(duì)面20年技術(shù)見證,附贈(zèng)技術(shù)全景圖

總結(jié)

以上是生活随笔為你收集整理的90题细品吴恩达《机器学习》,感受被刷题支配的恐惧的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产在线麻豆精品观看 | 18视频在线观看网站 | 亚洲女优在线 | 国内偷拍第一页 | 国产欧美在线观看不卡 | 91精品国产综合久久精品图片 | 精品国产成人av | 国产精品国产馆在线真实露脸 | 九九精品视频在线观看 | 亚洲av无码不卡一区二区三区 | 亚洲精品视频在线免费 | 国产精品乱码久久久久久久久 | 色呦呦中文字幕 | 欧美无人区码suv | 亚洲精品2区 | 另类亚洲色图 | 99re久久| 黄色avav | 国产欧美精品国产国产专区 | 性色av浪潮av | av色婷婷| 中文在线√天堂 | xxx一区二区 | 影音先锋人妻啪啪av资源网站 | 国产精品丝袜视频无码一区69 | 国产美女在线免费观看 | 欧美日韩成人一区 | 国产欧美精品一区二区 | 国产精品99久久久久久久久 | 国产精品网站在线观看 | 四虎成人精品在永久免费 | 欧美综合在线视频 | 久久精品色欲国产AV一区二区 | 蝌蚪久久| 国产经典久久 | 亚洲天堂无吗 | 国产av成人一区二区三区高清 | japan高清日本乱xxxxx | 国产字幕在线观看 | 国产一区=区 | 激情网五月天 | 天堂色网 | 欧美激情图片 | 狠狠干夜夜骑 | 金鱼妻日剧免费观看完整版全集 | 国产亚洲欧美精品久久久久久 | 欧美六区 | 亚洲一区二区中文字幕 | 日本丰满少妇裸体自慰 | 五月天激情婷婷 | 成人高清免费观看 | 国产无遮挡免费观看视频网站 | 日韩中文在线播放 | 涩涩视频在线播放 | 亚洲色图小说 | 日本成人在线免费观看 | 日韩av黄色片 | 亚洲第一a| 97香蕉久久超级碰碰高清版 | 伊人开心网 | 黄色天天影视 | 日本网站在线 | 国产精品主播在线 | 丁香综合网 | 成人av在线网 | 特级毛片在线观看 | 青青草成人免费视频 | 中文字幕在线观看网站 | 欧美色图12p | 亚洲精品一区二区三区婷婷月 | 色94色欧美 | 三级小说视频 | 精品人妻视频在线 | 色综合网址 | 我爱avav色aⅴ爱avav | 日本顶级大片 | 国产亚洲精品久久久久久打不开 | 男女搞网站 | 日日夜夜免费 | 国产精品伦子伦免费视频 | 免费男女乱淫真视频免费播放 | 波多野结衣三级视频 | 6090伦理| 欧美老女人性生活 | av动漫免费观看 | 一区二区视频免费在线观看 | 在线成人影视 | 国产97在线观看 | 国产精品伦一区 | 色福利视频 | 中文字幕乱码一区二区三区 | 麻豆传谋在线观看免费mv | 色又黄又爽 | 国产成人在线视频播放 | 久久久久无码国产精品一区 | 成人毛片100免费观看 | 国产区在线视频 | 欧美日韩亚洲精品内裤 | 国产第2页|