c语言中x的n次方怎么表示_线性代数的本质及其在AI中的应用
生活随笔
收集整理的這篇文章主要介紹了
c语言中x的n次方怎么表示_线性代数的本质及其在AI中的应用
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
線性代數(shù)是 AI 專家必須掌握的知識,這已不再是個秘密。如果不掌握應(yīng)用數(shù)學(xué)這個領(lǐng)域,你永遠(yuǎn)就只能是「門外漢」。當(dāng)然,學(xué)習(xí)線性代數(shù)道阻且長。數(shù)學(xué),尤其是線性代數(shù)常與枯燥、復(fù)雜和毫無意義的事物聯(lián)系起來。不過你還可以另辟蹊徑。閱讀完本文后,你將了解到:
- 線性代數(shù)的本質(zhì);
- 線性代數(shù)的真實應(yīng)用場景;
- 線性代數(shù)可用于 AI、ML 和數(shù)據(jù)科學(xué)的原因;
- 學(xué)習(xí)線性代數(shù)最有效的方法。
給初學(xué)者的解釋:線性代數(shù)的本質(zhì)
第一次接觸線性代數(shù)的人,通常會覺得線性代數(shù)長這樣:看起來就讓人頭大?你的腦海隨即會浮現(xiàn)出兩個問題:它們都是從哪兒來的?為什么需要這些運算?讓我們做個簡單的練習(xí)。線性代數(shù)是計算數(shù)學(xué)的「主力軍」。我舉個簡單的例子來說明。假設(shè)我們有一根兩端固定的極細(xì)金屬棒,其溫度恒等于零。我們開始使用分布式熱源對棒進(jìn)行加熱,該熱源在點 x 的附近,每單位長度每秒產(chǎn)生 q (x) 焦耳熱量。溫度 t = t (x) 公式該怎么建立?先粗略建模:熱量平衡后,設(shè)點 x 的分段為 [x-h, x + h],來自熱源的熱流入應(yīng)等于分段兩端的熱通量之和。如果 h 足夠小,那么熱通量可以看作常量(包含 h),該等式可以寫成如下形式:其中 Q_x-h 是通過左邊界的熱通量,Q_x + h 是通過右邊界的熱通量。根據(jù)傅立葉定律,熱通量與溫度差成正比(畢竟,你剛跳進(jìn)水里時感覺最冷)。因此:令 h = 1 /N。假設(shè) xi = i · h,其中 i =0, 1, 2, …, N,它們被稱為網(wǎng)格。變量 ti = t (xi) 將滿足方程式:基于邊界條件且 qi = q (xi),得到線性方程組:具體來說,這個系統(tǒng)可以通過掃描法「正面」解決,但是在實際模型中,系統(tǒng)變得更加復(fù)雜。線性代數(shù)正好發(fā)揮了作用:用 A · y = b 的簡短形式描述系統(tǒng)(這是矩陣乘法的由來!);了解是否有解決方案,以及解決方案是否唯一;(在本例中)使用簡單公式 y = A-1 b 來建模,將 A 看做一個數(shù)字;(引入計算數(shù)學(xué))建立用于求解線性方程組的有效數(shù)值方法。這只是從數(shù)學(xué)建模的角度看線性代數(shù),還有量子力學(xué)、統(tǒng)計學(xué)等多個角度。再以著名問題為例,即某網(wǎng)站(或整個互聯(lián)網(wǎng))的「網(wǎng)頁引用排名」問題。假設(shè)有 N 個頁面,每頁可能包含到其他頁面的鏈接。我們的任務(wù)是確定哪些頁面最重要。如何準(zhǔn)確地衡量「重要性」是任務(wù)的一部分。我們將以非負(fù)數(shù)(權(quán)重)來定量表示。先假設(shè):此頁面的鏈接越多,其權(quán)重就越大。這種方法有個缺點:我們沒有考慮鏈接頁面的權(quán)重。一個鏈接權(quán)重越大,其意義也越大,這是合乎邏輯的。考慮到這些因素,我們選擇以下模型:其中 a_ij 是第 i 頁到第 j 頁的鏈接數(shù),除以第 j 頁的鏈接總數(shù)。該公式可以理解為:第 i 頁的權(quán)重等于第 j 頁的權(quán)重與從第 j 頁到第 i 頁的鏈接之比的乘積之和。因此,我們將問題簡化為線性方程組。此外,權(quán)重向量 p 是矩陣 A 的特征向量,對應(yīng)特征值為 1:p = ApFrobenius-Perron 定理保證了該向量的存在(嚴(yán)格來說,矩陣 A 略有修改),通過簡單的迭代即可找到。因此,線性代數(shù)是一套非常通用的思想和工具,可以應(yīng)用于各個領(lǐng)域。但是「天下沒有免費的午餐」,通用性的代價是:某些定義和定理有著毫無必要的復(fù)雜度。不過事實并非如此:實際上,許多抽象目的是簡化而非復(fù)雜化。「如果它看起來像鴨子,像鴨子一樣游泳,像鴨子一樣嘎嘎叫,那么它可能就是鴨子」這實際上就是一種抽象,如果你習(xí)慣了這種抽象概念,將會非常方便。線性代數(shù)也是一樣。為了更具體地說明這一點,讓我們簡短討論下內(nèi)部來補充一下「外部檢查」。一些你需要知道的線性代數(shù)理論
線性代數(shù)研究的是向量空間以及將一個向量空間映射到另一個向量空間的函數(shù)。我們主要考慮線性函數(shù)(對于任何常數(shù)α和β以及向量 x 和 y,滿足關(guān)系 f (α · x + β · y) = α · f (x) + β · f (y)。也有非線性的函數(shù)(例如二次方程),不過首先你需要知道什么是向量(以及向量空間),這不像看上去那么簡單。教材和課程中通常只是給出一個抽象的定義,這一定義又常常由 8 點構(gòu)成。有時一個矢量空間被視作一個使用加號的阿貝爾群,該阿貝爾群滿足四大群公理,并定義了標(biāo)量乘法。但是對于剛開始研究線性代數(shù)的人來說,理解這些著實困難,學(xué)習(xí)一些具體示例并進(jìn)行類比要容易得多。8 條的定義僅僅是這種類比的形式。所以我們舉個例子吧:向量,是我們每個人都熟悉的有向線段,多個有向線段可以組成一個向量空間。回憶一下多項式,它們可以進(jìn)行通項相加以及系數(shù)相乘。請注意:從代數(shù)的角度來看,這些多項式的加法運算以及多項式與系數(shù)的乘法運算,與有向線段運算規(guī)則是完全一致的。例如,等式 x + y = y + x(加法交換性)對有向線段和多項式均成立。因此,多項式的集合是向量空間,而多項式就是向量。既然多項式類似于有向線段,那么它們也肯定有坐標(biāo)。但是如何獲知多項式的坐標(biāo)以及多項式有多少個坐標(biāo)呢?眾所周知,每個向量在平面上都有兩個坐標(biāo),在空間中則是三個。為什么會這樣呢?維度又是什么?線性代數(shù)給出了一個答案:維度就是線性無關(guān)向量的最大數(shù)量。線性無關(guān)是什么意思?如果存在數(shù)字α1, α2, …, αn,其中至少一個非零,則向量 x1, x2, …, xn 被稱為線性相關(guān)。如果向量不線性相關(guān),則稱它們?yōu)榫€性獨立。(線性相關(guān)性的概念概括了平行向量和共面向量的概念:兩個向量在當(dāng)且僅當(dāng)它們平行時才線性相關(guān)。三個向量在當(dāng)且僅當(dāng)它們共面時才線性相關(guān)。)空間的維數(shù)可以是有限的(維數(shù)不大于 N 的多項式空間),也可以是無限的(所有多項式空間)。這兩種情況在實際中都會出現(xiàn),但現(xiàn)在我們限制其為有限維的。令向量 x1, x2, …, xn 線性無關(guān),n 為空間維數(shù)。任何其他向量 x 都可以唯一地寫為 x1, x2, …, xn 的線性組合,相應(yīng)的線性組合的系數(shù)稱為坐標(biāo)。現(xiàn)在,我們對坐標(biāo)有了嚴(yán)格的定義,但重點不只是這個:在此過程中,我們遇到了更基本(更易忽略)的線性組合和線性相關(guān)性的概念。而且我們還了解到,在 n 維線性空間中,最多只能有 n 個線性無關(guān)向量。這是線性代數(shù)的基礎(chǔ)之一。我們知道的仍只是「冰山一角」。但是現(xiàn)在我們可以解決那些顯然與線性代數(shù)無關(guān)的問題了。例如:給定多項式 p 和 q;是否在兩個變量 R = R (x, y) 中存在多項式,使得對于所有 t 都有 R (p (t), q (t)) = 0?「示例」基本結(jié)束了,但仍然有必要講講研究線性代數(shù)的各種方法。我簡短回顧一下自己的經(jīng)歷,提出幾點建議。最重要的問題:AI 真的需要線性代數(shù)嗎?
這取決于你的目的。如果你只想把人工智能和機器學(xué)習(xí)的工具當(dāng)作一個黑匣子,那么你只需要足夠的數(shù)學(xué)計算就可以確定你的問題是否符合模型使用。如果你想提出新想法,線性代數(shù)則是你必須要學(xué)習(xí)的東西。并不是說你需要學(xué)習(xí)有關(guān)數(shù)學(xué)的所有知識,這樣會耽擱于此,失去研究其他更重要的東西(如微積分/統(tǒng)計)的動力。你的目標(biāo)應(yīng)該是使用線性代數(shù)來找到點與點之間的最短路徑。以下是你所需要掌握的知識列表:標(biāo)量、向量、張量:求模(大小)、向量夾角(點積或內(nèi)積)、一個向量在另一向量上的投影以及依據(jù)自定義的軸向量對向量的描述和表示矩陣:矩陣可以將向量的描述從一組基(一組坐標(biāo)軸)轉(zhuǎn)換為另一組基。例如,找出如何將映射應(yīng)用到圖像上并處理圖像。矩陣中的長度平方采樣、奇異值分解、低秩逼近是數(shù)據(jù)處理中廣泛采用的幾種方法。SVD 通常用于主成分分析(PCA)中,而主成分分析又被廣泛用于特征提取以及了解特征或?qū)傩灾g的關(guān)系對于結(jié)果的重要性上。線性代數(shù)在機器學(xué)習(xí)中的應(yīng)用實例
以下是線性代數(shù)的一些具體示例:數(shù)據(jù)集和數(shù)據(jù)文件例如在機器學(xué)習(xí)中,將模型擬合到一組由數(shù)字組成的類似表格的數(shù)據(jù)集上,其中每一行代表一個觀測結(jié)果,每一列代表該觀測值的特征。你發(fā)現(xiàn)相似之處了么?這些數(shù)據(jù)實際上是一個矩陣:是線性代數(shù)中的一種關(guān)鍵的數(shù)據(jù)結(jié)構(gòu)。圖像和照片你處理的每個圖像本身就是一個表結(jié)構(gòu),對于黑白圖像,每個單元格中有一個寬度和高度以及一個像素值,而彩色圖像每個單元格中有三個像素值。照片是線性代數(shù)矩陣的另一個例子。獨熱編碼獨熱編碼是分類變量中的一種很流行的編碼。獨熱編碼是創(chuàng)建表來表示變量,其中每一列表示一個類別,每一行表示數(shù)據(jù)集中的一個樣本。線性回歸線性回歸是統(tǒng)計學(xué)中描述變量之間關(guān)系的一種舊方法。在機器學(xué)習(xí)中,它通常用于預(yù)測簡單回歸問題中的數(shù)值。深度學(xué)習(xí)線性代數(shù)是描述深度學(xué)習(xí)方法的核心,通過矩陣表示法來實現(xiàn)深度學(xué)習(xí)方法,例如谷歌的 TensorFlow Python 庫,其名稱中就有「tensor」一詞。結(jié)論
下面是我在學(xué)習(xí)這些并不簡單的數(shù)學(xué)內(nèi)容時總結(jié)的技巧:- 在解決有趣的問題時,是最容易理解線性代數(shù)思想和方法的,趣味問題有助于理解抽象概念;
- 記得要與其他人(朋友,或論壇)一起學(xué)習(xí);
- 如果你喜歡按日程表學(xué)習(xí),請使用在線課程和其他方法。但在將矩陣轉(zhuǎn)換為 Wolfram Alpha 之前,你應(yīng)該學(xué)會「手撕矩陣」;
- 注意多讀書,這可以促使你深度思考。
總結(jié)
以上是生活随笔為你收集整理的c语言中x的n次方怎么表示_线性代数的本质及其在AI中的应用的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 在位编辑的快捷键(如何调出在位编辑工具条
- 下一篇: app inventor调用图像识别_+