日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

ADMM算法在神经网络模型剪枝方面的应用

發布時間:2023/12/9 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ADMM算法在神经网络模型剪枝方面的应用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

    • 前言
    • 1. 交替方向乘子法
    • 2. 論文中的表述
    • 3. 對論文中的公式進行推導
    • 4. 代碼流程
    • 5. 主要函數實現
    • 6. dense vs. prune(finetune)
    • 結束語

前言

??本篇博客記錄一下自己根據對論文 GRIM: A General, Real-Time Deep Learning Inference Framework for Mobile Devices based on Fine-Grained Structured Weight Sparsity 中提到的ADMM算法的理解,給出了ADMM算法的推導過程,并在文章的末尾提供了實現的代碼。

1. 交替方向乘子法

??交替方向乘子法(Alternating Direction Method of Multipliers, ADMM)作為一種求解優化問題的計算框架,適用于求解凸優化問題。ADMM算法的思想根源可以追溯到20世紀50年代,在20世紀八九十年代中期存在大量的文章分析這種方法的性質,但是當時ADMM主要用于解決偏微分方程問題。1970年由 R. GlowinskiD. Gabay 等提出的一種適用于可分離凸優化的簡單有效方法,并在統計機器學習、數據挖掘和計算機視覺等領域中得到了廣泛應用。ADMM算法主要解決帶有等式約束的關于兩個變量的目標函數的最小化問題,可以看作在增廣拉朗格朗日算法基礎上發展的算法,混合了對偶上升算法(Dual Ascent)的可分解性和乘子法(Method of Multipliers)的算法優越的收斂性。相對于乘子法,ADMM算法最大的優勢在于其能夠充分利用目標函數的可分解性,對目標函數中的多變量進行交替優化。在解決大規模問題上,利用ADMM算法可以將原問題的目標函數等價地分解成若干個可求解的子問題,然后并行求解每一個子問題,最后協調子問題的解得到原問題的全局解。1

??優化問題
minimizef(x)+g(z)subjecttoAx+Bz=cminimize\ f(x)+g(z) \\ subject\ to\ Ax+Bz=cminimize?f(x)+g(z)subject?to?Ax+Bz=c??其中,x∈Rn,z∈Rm,A∈Rp×n,B∈Rp×m,c∈Rpx \in R^n,z \in R^m,A \in R^{p \times n},B \in R^{p \times m},c \in R^pxRn,zRm,ARp×n,BRp×m,cRp,構造拉格朗日函數為
Lp(x,z,λ)=f(x)+g(z)+λT(Ax+Bz?c)L_p(x,z,\lambda )=f(x)+g(z)+\lambda ^{T}(Ax+Bz-c)Lp?(x,z,λ)=f(x)+g(z)+λT(Ax+Bz?c)??其增廣拉格朗日函數(augmented Lagrangian function)
Lp(x,z,λ)=f(x)+g(z)+λT(Ax+Bz?c)+ρ2∣∣Ax+Bz?c∣∣2L_p(x,z,\lambda )=f(x)+g(z)+\lambda ^{T}(Ax+Bz-c)+ \frac {\rho} {2}||Ax+Bz-c||^{2}Lp?(x,z,λ)=f(x)+g(z)+λT(Ax+Bz?c)+2ρ?Ax+Bz?c2??對偶上升法迭代更新
(xk+1,zk+1)=argminx,zLp(x,z,λk)λk+1=λk+ρ(Axk+1+Bzk+1?c)(x^{k+1},z^{k+1})=\underset {x,z} {argmin\ } L_p(x,z,\lambda ^k) \\ \lambda ^{k+1}=\lambda ^k+\rho (Ax^{k+1}+Bz^{k+1}-c)(xk+1,zk+1)=x,zargmin??Lp?(x,z,λk)λk+1=λk+ρ(Axk+1+Bzk+1?c)??交替方向乘子法則是在(x,z)(x,z)(x,z)一起迭代的基礎上將x,zx,zx,z分別固定單獨交替迭代,即
xk+1=argminxLp(x,zk,λk)zk+1=argminzLp(xk+1,z,λk)λk+1=λk+ρ(Axk+1+Bzk+1?c)x^{k+1}=\underset {x} {argmin\ }L_p(x,z^k,\lambda ^k) \\ z^{k+1}=\underset {z} {argmin\ }L_p(x^{k+1},z,\lambda ^k) \\ \lambda ^{k+1}=\lambda ^k+\rho (Ax^{k+1}+Bz^{k+1}-c)xk+1=xargmin??Lp?(x,zk,λk)zk+1=zargmin??Lp?(xk+1,z,λk)λk+1=λk+ρ(Axk+1+Bzk+1?c)??交替方向乘子的另一種等價形式,將殘差定義為rk=Axk+Bzk?cr^k=Ax^k+Bz^k-crk=Axk+Bzk?c,同時定義uk=1ρλku^k=\frac {1} {\rho} \lambda ^kuk=ρ1?λk作為縮放的對偶變量(dual variable),有
(λk)Trk+ρ2∣∣rk∣∣2=ρ2∣∣rk+uk∣∣2?ρ2∣∣uk∣∣2(\lambda ^k)^Tr^k+\frac {\rho} {2} ||r^k||^2=\frac {\rho} {2}||r^k+u^k||^2-\frac {\rho} {2}||u^k||^2(λk)Trk+2ρ?rk2=2ρ?rk+uk2?2ρ?uk2??改寫 ADMM 的迭代過程
xk+1=argminx{f(x)+ρ2∣∣Ax+Bzk?c+uk∣∣2}zk+1=argminz{g(z)+ρ2∣∣Axk+1+Bz?c+uk∣∣2}uk+1=uk+Axk+1+Bzk+1?cx^{k+1} =\underset {x} {argmin\ }\bigg\{f(x)+\frac {\rho} {2}||Ax+Bz^k-c+u^k||^2\bigg\} \\[5pt] z^{k+1}=\underset {z} {argmin\ }\bigg\{g(z)+\frac {\rho} {2}||Ax^{k+1}+Bz-c+u^k||^2\bigg\} \\[5pt] u^{k+1}=u^k+Ax^{k+1}+Bz^{k+1}-c xk+1=xargmin??{f(x)+2ρ?Ax+Bzk?c+uk2}zk+1=zargmin??{g(z)+2ρ?Axk+1+Bz?c+uk2}uk+1=uk+Axk+1+Bzk+1?c

2. 論文中的表述


3. 對論文中的公式進行推導

??為便于推導公式,將論文中的進行簡化,參數W和b簡記為W,此時的優化問題變為
minimizef(Wi)+∑i=1Ng(Zi)subjecttoWi=Zi,i=1,2,...,Nminimize\ f(W_i)+\sum_{i=1}^{N} g(Z_i) \\[4pt] subject\ to\ W_i=Z_i, i=1,2,...,Nminimize?f(Wi?)+i=1N?g(Zi?)subject?to?Wi?=Zi?,i=1,2,...,N??構造拉格朗日函數為
Lp(w,z,λ)=f(w)+∑g(z)+λT(w?z)L_p(w,z,\lambda )=f(w)+\sum g(z)+\lambda ^{T}(w-z)Lp?(w,z,λ)=f(w)+g(z)+λT(w?z)??其增廣拉格朗日函數為
Lp(w,z,λ)=f(w)+∑g(z)+λT(w?z)+∑ρ2∣∣w?z∣∣2L_p(w,z,\lambda )=f(w)+\sum g(z)+\lambda ^{T}(w-z)+ \sum \frac {\rho} {2}||w-z||^{2}Lp?(w,z,λ)=f(w)+g(z)+λT(w?z)+2ρ?w?z2??交替方向乘子法:在(x, z)一起迭代的基礎上將 x, z 分別固定,單獨交替迭代,即
wk+1=argminwLp(w,zk,λk)zk+1=argminzLp(wk+1,z,λk)λk+1=λk+∑ρ(w?z)w^{k+1}=\underset {w} {argmin\ }L_p(w,z^k,\lambda ^k) \\[4pt] z^{k+1}=\underset {z} {argmin\ }L_p(w^{k+1},z,\lambda ^k) \\[4pt] \lambda ^{k+1}=\lambda ^k+\sum \rho (w-z)wk+1=wargmin??Lp?(w,zk,λk)zk+1=zargmin??Lp?(wk+1,z,λk)λk+1=λk+ρ(w?z)??定義一個對偶變量
uk=1ρλku^k=\frac {1} {\rho} \lambda ^kuk=ρ1?λk??改寫ADMM的迭代過程
wk+1=argminw{f(w)+∑ρ2∣∣w?zk+uk∣∣2}zk+1=argminz{∑g(z)+∑ρ2∣∣wk+1?z+uk∣∣2}uk+1=uk+wk+1?zk+1w^{k+1} =\underset {w} {argmin\ }\bigg\{f(w)+\sum \frac {\rho} {2}||w-z^k+u^k||^2\bigg\} \\[5pt] z^{k+1}=\underset {z} {argmin\ }\bigg\{\sum g(z)+\sum \frac {\rho} {2}||w^{k+1}-z+u^k||^2\bigg\} \\[5pt] u^{k+1}=u^k+w^{k+1}-z^{k+1}wk+1=wargmin??{f(w)+2ρ?w?zk+uk2}zk+1=zargmin??{g(z)+2ρ?wk+1?z+uk2}uk+1=uk+wk+1?zk+1

4. 代碼流程

# 初始化參數Z和U Z, U = initialize_Z_and_U(model)# 訓練model,并更新X,Z,U,損失函數為admm loss for epoch in range(epochs):for data, target in train_loader:optimizer.zero_grad()output = model(data)loss = admm_loss(model, Z, U, output, target)loss.backward()optimizer.step()W = update_W(model)Z = update_Z(W, U, percent)U = update_U(U, W, Z)# 對weight進行剪枝,返回 mask mask = apply_prune(model, percent)# 對剪枝后的model進行finetune finetune(model, mask, train_loader, test_loader, optimizer)

5. 主要函數實現

def admm_loss(args, device, model, Z, U, output, target):idx = 0loss = F.nll_loss(output, target)for name, param in model.named_parameters():if name.split('.')[-1] == "weight":u = U[idx].to(device)z = Z[idx].to(device)# 這里就是推導出來的admm的表達式loss += args.rho / 2 * (param - z + u).norm()return lossdef update_W(model):W = ()for name, param in model.named_parameters():if name.split('.')[-1] == "weight":W += (param.detach().cpu().clone(),)return Wdef update_Z(W, U, args):new_Z = ()idx = 0for w, u in zip(W, U):z = w + upcen = np.percentile(abs(z), 100*args.percent[idx])under_threshold = abs(z) < pcen# percent剪枝率,小于percent分位數的置為0z.data[under_threshold] = 0new_Z += (z,)idx += 1return new_Zdef update_U(U, W, Z):new_U = ()for u, w, z in zip(U, W, Z):new_u = u + w - znew_U += (new_u,)return new_Udef prune_weight(weight, device, percent):# to work with admm, we calculate percentile based on all elements instead of nonzero elements.weight_numpy = weight.detach().cpu().numpy()pcen = np.percentile(abs(weight_numpy), 100*percent)under_threshold = abs(weight_numpy) < pcen# 非結構化剪枝weight_numpy[under_threshold] = 0mask = torch.Tensor(abs(weight_numpy) >= pcen).to(device)return mask

6. dense vs. prune(finetune)

結束語

??對論文中算法的推導僅限于自己的理解,可能還存在一些問題,歡迎來評論區交流哦^_^

參考教程


  • 《分布式機器學習:交替方向乘子法在機器學習中的應用》---- 雷大江著 ??

  • 總結

    以上是生活随笔為你收集整理的ADMM算法在神经网络模型剪枝方面的应用的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。