python二元函数求导_用Excel和python实现二元函数梯度下降的人工智能,之用,excel,一元...
梯度下降法和牛頓法的總結與比較
機器學習的本質是建立優化模型,通過優化方法,不斷迭代參數向量,找到使目標函數最優的參數向量。最終建立模型
通常用到的優化方法:梯度下降方法、牛頓法、擬牛頓法等。這些優化方法的本質就是在更新參數。
一、梯度下降法
0、梯度下降的思想
通過搜索方向和步長來對參數進行更新。其中搜索方向是目標函數在當前位置的負梯度方向。因為這個方向是最快的下降方向。步長確定了沿著這個搜索方向下降的大小。
迭代的過程就像是在不斷的下坡,最終到達坡地。
接下來的目標函數以線性回歸的目標函數為例:
1、批量梯度下降法
2、隨機梯度下降法
3.隨機梯度下降和梯度下降的比較
批量梯度下降:1.是最小化所有樣本的損失函數,最終得到全局最優解。
2.由于每次更新參數需要重新訓練一次全部的樣本,代價比較大,適用于小規模樣本訓練的情況。
隨機梯度下降:1.是最優化每個樣本的損失函數。每一次迭代得到的損失函數不是,每次每次向著全局最優的方向,但是大體是向著全局最優,最終的結果往往是在最優解的附近。
2.當目標函數是凸函數的時候,結果一定是全局最優解。
3.適合大規模樣本訓練的情況。
小批量梯度下降法
將上述兩種方法作結合。每次利用一小部分數據更新迭代參數。即樣本在1和m之間。
二、牛頓法
首先牛頓法是求解函數值為0時的自變量取值的方法。
利用牛頓法求解目標函數的最小值其實是轉化成求使目標函數的一階導為0的參數值。這一轉換的理論依據是,函數的極值點處的一階導數為0.
其迭代過程是在當前位置x0求該函數的切線,該切線和x軸的交點x1,作為新的x0,重復這個過程,直到交點和函數的零點重合。此時的參數值就是使得目標函數取得極值的參數值。
其迭代過程如下:
迭代的公式如下:
當θ是向量時,牛頓法可以使用下面式子表示:
其中H叫做海森矩陣,其實就是目標函數對參數θ的二階導數。
三、牛頓法和梯度下降法的比較
1.牛頓法:是通過求解目標函數的一階導數為0時的參數,進而求出目標函數最小值時的參數。
收斂速度很快。
海森矩陣的逆在迭代過程中不斷減小,可以起到逐步減小步長的效果。
缺點:海森矩陣的逆計算復雜,代價比較大,因此有了擬牛頓法。
2.梯度下降法:是通過梯度方向和步長,直接求解目標函數的最小值時的參數。
越接近最優值時,步長應該不斷減小,否則會在最優值附近來回震蕩。
一元函數梯度下降
import numpy as np
import matplotlib.pyplot as plt
import matplotlib as mpl
import math
from mpl_toolkits.mplot3d import Axes3D
import warnings
"""
對當前一維原始圖像求最小點:
1、隨機取一個點(橫坐標為x),設定阿爾法參數值。
2、對這個點求導數 ,x =x - α*(dY/dx)。
3、重復第二步、設置迭代 y的變化量小于多少時 不再繼續迭代。
"""
# 導數
def h1(x):
return 0.5 * 2 * (x-0.25)
X = np.arange(-4,4,0.05)
Y = np.array(list(map(lambda t: f1(t),X)))
Y
x = 4
alpha = 0.5
f_change = f1(x) # y的變化量
iter_num = 0 # 迭代次數
GD_X = [x] #保存梯度下降所經歷的點
GD_Y = [f1(x)]
while(f_change > 1e-10) and iter_num<100:
tmp = x - alpha * h1(x)
f_change = np.abs(f1(x) - f1(tmp))
x = tmp
GD_X.append(x)
GD_Y.append(f1(x))
iter_num += 1
print(u"最終結果為:(%.5f,%.5f)"%(x,f1(x)))
print(u"迭代過程中X的取值,迭代次數:%d" % iter_num)
print(GD_X)
%matplotlib inline
plt.figure(facecolor='w')
plt.plot(X,Y,'r-',linewidth=2) #第三個參數是顏色和形狀,red圈就是ro-,red直線就是r-
plt.plot(GD_X, GD_Y, 'bo-', linewidth=2)
plt.title(u'函數$ y = 0.5 * (x-0.25)^2$;\n學習率%.3f;最終解:(%.3f,%.3f),迭代次數:%d'%(alpha,x,f1(x),iter_num))
二元函數梯度下降
1.用excel實現
2.用python代碼實現
導入需要的庫函數
import numpy as np
import matplotlib.pyplot as plt
import matplotlib as mpl
import math
from mpl_toolkits.mplot3d import Axes3D
import warnings
f2為原函數 hx1為對x1求偏導 hx2為對x2求偏導
def f2(x, y):
return 41.5*x-0.3*y+65.3
## 偏函數
def hx1(x, y):
return 41.5
def hx2(x, y):
return 0.3
生成隨機矩陣方便畫圖
X1 = np.arange(-4,4,0.2)
X2 = np.arange(-4,4,0.2)
X1, X2 = np.meshgrid(X1, X2) # 生成xv、yv,將X1、X2變成n*m的矩陣,方便后面繪圖
Y = np.array(list(map(lambda t : f2(t[0],t[1]),zip(X1.flatten(),X2.flatten()))))
Y.shape = X1.shape # 1600的Y圖還原成原來的(40,40)
設置初始值為x1=1 x2=2 設置迭代精度為0.1 初始化迭代次數為0
x1 = 1
x2 = 1
alpha = 0.1
#保存梯度下降經過的點
GD_X1 = [x1]
GD_X2 = [x2]
GD_Y = [f2(x1,x2)]
# 定義y的變化量和迭代次數
y_change = f2(x1,x2)
iter_num = 0
while(y_change > 1e-10 and iter_num < 100) :
tmp_x1 = x1 - alpha * hx1(x1,x2)
tmp_x2 = x2 - alpha * hx2(x1,x2)
tmp_y = f2(tmp_x1,tmp_x2)
f_change = np.absolute(tmp_y - f2(x1,x2))
x1 = tmp_x1
x2 = tmp_x2
GD_X1.append(x1)
GD_X2.append(x2)
GD_Y.append(tmp_y)
iter_num += 1
print(u"最終結果為:(%.5f, %.5f, %.5f)" % (x1, x2, f2(x1,x2)))
print(u"迭代過程中X的取值,迭代次數:%d" % iter_num)
print(GD_X1)
最終結果為:(-414.00000, -2.00000, -17115.10000)
迭代過程中X的取值,迭代次數:100
[1, -3.1500000000000004, -7.300000000000001, -11.450000000000001, -15.600000000000001, -19.75, -23.9, -28.049999999999997, -32.199999999999996, -36.349999999999994, -40.49999999999999, -44.64999999999999, -48.79999999999999, -52.94999999999999, -57.09999999999999, -61.249999999999986, -65.39999999999999, -69.55, -73.7, -77.85000000000001, -82.00000000000001, -86.15000000000002, -90.30000000000003, -94.45000000000003, -98.60000000000004, -102.75000000000004, -106.90000000000005, -111.05000000000005, -115.20000000000006, -119.35000000000007, -123.50000000000007, -127.65000000000008, -131.80000000000007, -135.95000000000007, -140.10000000000008, -144.25000000000009, -148.4000000000001, -152.5500000000001, -156.7000000000001, -160.8500000000001, -165.0000000000001, -169.15000000000012, -173.30000000000013, -177.45000000000013, -181.60000000000014, -185.75000000000014, -189.90000000000015, -194.05000000000015, -198.20000000000016, -202.35000000000016, -206.50000000000017, -210.65000000000018, -214.80000000000018, -218.9500000000002, -223.1000000000002, -227.2500000000002, -231.4000000000002, -235.5500000000002, -239.70000000000022, -243.85000000000022, -248.00000000000023, -252.15000000000023, -256.30000000000024, -260.4500000000002, -264.6000000000002, -268.75000000000017, -272.90000000000015, -277.0500000000001, -281.2000000000001, -285.3500000000001, -289.50000000000006, -293.65000000000003, -297.8, -301.95, -306.09999999999997, -310.24999999999994, -314.3999999999999, -318.5499999999999, -322.6999999999999, -326.84999999999985, -330.99999999999983, -335.1499999999998, -339.2999999999998, -343.44999999999976, -347.59999999999974, -351.7499999999997, -355.8999999999997, -360.04999999999967, -364.19999999999965, -368.3499999999996, -372.4999999999996, -376.6499999999996, -380.79999999999956, -384.94999999999953, -389.0999999999995, -393.2499999999995, -397.39999999999947, -401.54999999999944, -405.6999999999994, -409.8499999999994, -413.9999999999994]
可見: python代碼所得結果和excel所得結果完全一致
# 作圖
fig = plt.figure(facecolor='w',figsize=(20,18))
ax = Axes3D(fig)
ax.plot_surface(X1,X2,Y,rstride=1,cstride=1,cmap=plt.cm.jet)
ax.plot(GD_X1,GD_X2,GD_Y,'ko-')
ax.set_xlabel('x')
ax.set_ylabel('y')
ax.set_zlabel('z')
ax.set_title(u'$ y = x1^2+2(x2)^2 - 4(x1)-2(x1) (x2) $')
ax.set_title(u'函數;\n學習率:%.3f; 最終解:(%.3f, %.3f, %.3f);迭代次數:%d' % (alpha, x1, x2, f2(x1,x2), iter_num))
plt.show()
總結
以上是生活随笔為你收集整理的python二元函数求导_用Excel和python实现二元函数梯度下降的人工智能,之用,excel,一元...的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 有没有天涯er的爸妈认为某些玩具是男孩玩
- 下一篇: vsftp pam mysql_VSFT