KDD 2020 开源论文 | 稀疏优化的块分解算法
?PaperWeekly 原創(chuàng) ·?作者|袁淦釗
單位|鵬城實驗室
研究方向|數(shù)值優(yōu)化、機器學習
?
這次向大家分享的工作是鵬城實驗室牽頭,聯(lián)合騰訊 AI 實驗室和中山大學在 SIGKDD 2020 上發(fā)表的文章:A Block Decomposition Algorithm for Sparse Optimization。
論文標題:A Block Decomposition Algorithm for Sparse Optimization
論文鏈接:https://arxiv.org/pdf/1905.11031.pdf
相關資料(代碼/PPT/相關論文):https://yuangzh.github.io
稀疏優(yōu)化由于其內(nèi)在的組合結構,一般比較難求解。組合搜索方法可以獲得其全局最優(yōu)解,但往往局限于小規(guī)模的優(yōu)化問題;坐標下降方法速度快,但往往陷入于一個較差的局部次優(yōu)解中。
?
我們提出一種結合組合搜索和坐標下降的塊 K 分解算法。具體地說,我們考慮隨機策略或/和貪婪策略,選擇 K 個坐標作為工作集,然后基于原始目標函數(shù)對工作集坐標進行全局組合搜索。我們對塊 K 分解算法進行了最優(yōu)性分析,我們證明了我們的方法比現(xiàn)有的方法找到更強的穩(wěn)定點。
此外,我們還對算法進行了收斂性分析,并構建其收斂速度。大量的實驗表明,我們的方法目前取得的性能臻于藝境。我們的塊 K 分解算法的工作發(fā)表在國際人工智能會議 SIGKDD 2020 和 CVPR 2019 上。
?
簡介
?
本文主要討論求解以下稀疏約束或稀疏正則優(yōu)化問題:
?
我們假設 f(x) 是光滑的凸函數(shù)。這類問題在壓縮感知、信號處理、統(tǒng)計學習等問題上有著廣泛的應用。
提出的算法
?
以下是我們提出的塊 K 分解算法:
?
算法非常簡潔,只有兩步。第一步:選擇 K 個坐標集,第二步:基于原始目標函數(shù) f(x),對選擇的 K 個坐標作全局組合搜索。
?
該算法也被稱為塊坐標下降方法,但和以往方法有所不同,有以下四點值得注意:
?
我們使用了臨近點策略,這個策略是為了保證充分下降條件和全局收斂性質(zhì);
我們直接求解原來具有組合結構的子問題,而不使用替代函數(shù)最小化其上界;
在坐標選擇上,以往可以根據(jù)一階最優(yōu)條件 / KKT 條件殘差來選擇坐標,但這種策略對于非凸問題不再適用。我們采用兩種策略。一種是隨機策略,這種策略的最大的好處是保證算法得到塊 K 穩(wěn)定點(下方將討論);另一種是貪心策略,這種策略直接根據(jù)目標值下降的多少來選擇坐標,在實際中通常可以加速算法收斂;
在求解子問題中,雖然子問題是 NP 難的,且沒有快速的封閉解,但是我們依然可使用全局樹形搜索獲得全局最優(yōu)點。注意,K 通常是一個很小的整數(shù);例如,在我們的實驗中,K=16。我們考慮簡單的二次函數(shù)例子:。我們先系統(tǒng)地窮舉下面的全二叉樹,通過求解 個線性系統(tǒng)得到所有可能的局部極小值;然后我們選出使得目標值達到最小的那個作為最優(yōu)解。
與以往的方法的比較
?
目前常見的稀疏優(yōu)化方法有四類:
?
a. 第一類是松弛近似方法。這類方法最大的缺點是不能直接每一步控制問題的稀疏特性。
?
我們方法優(yōu)點:可以直接控制解的稀疏特性。
?
b. 第二類是貪心算法。這類方法最大的缺點是初始化點必須為空集或零。
?
?
我們方法優(yōu)點:可以任意初始化,而且最終精度對初始化不敏感。
?
c. 第三類方法是全局優(yōu)化算法。這類方法的最大缺點是僅限于小規(guī)模問題。
?
?
我們方法優(yōu)點:利用了全局最優(yōu)化算法,提高了算法精度。
?
d. 第四類方法是臨近梯度方法。這類方法的最大缺點是算法陷入到較差的局部次優(yōu)值。
我們方法優(yōu)點:從理論和實驗上都優(yōu)勝于臨近梯度方法。
?
最優(yōu)性分析
?
以下我們定義稀疏優(yōu)化問題的穩(wěn)定點:基本穩(wěn)定點、李普希茨穩(wěn)定點,塊 K 穩(wěn)定點。
基本穩(wěn)定點就是指,當非零元指標集已知時,解達到全局最優(yōu)。這類穩(wěn)定點的一個很好的性質(zhì)是:穩(wěn)定點是可枚舉的,這使得我們能夠驗證某個解是否是該問題的全局最優(yōu)解。
?
?
李普希茨穩(wěn)定點是通過一個臨近算子來刻畫,經(jīng)典的臨近梯度法得到的是李普希茨穩(wěn)定點。臨近梯度法每一步需要求解一個臨近算子,該算子有快速封閉解,但是這種簡單的上界替代函數(shù)方法通常導致算法精度不高。
?
?
這是我們提出的塊 K 穩(wěn)定點的概念。塊 K 穩(wěn)定點是指,當我們(全局地)最小化任意的 K 個坐標(其余的 n-K 個坐標固定不變),我們都不能使得目標函數(shù)值得到改進。
?
我們得到以下的關于這三類穩(wěn)定點的層次關系:
?
?
我們已證明,我們的塊 K 穩(wěn)定點比以往的基本穩(wěn)定點和李普希茨穩(wěn)定點更強。可以以上圖舉例。假如我們從上方的圖中的綠色區(qū)域(塊 K 穩(wěn)定點)選擇一個點,該點落入黃色區(qū)域(最優(yōu)點集)中有一個概率 P1;我們從上方的圖中的紅色區(qū)域(李普希茨穩(wěn)定點)選擇一個點,該點落入黃色區(qū)域(最優(yōu)點集)中有一個概率 P2。由于 P1 總是大于 P2,因此我們的方法更大的概率落入最優(yōu)解集中。
?
稀疏優(yōu)化問題由于其組合結構,完全求解這個問題屬于大海撈針。我們對稀疏優(yōu)化問題的全局最優(yōu)點有了更準確細致的描述,我們對這類問題給出了更精確的近似。
?
可以打個比喻:甲說,鵬城實驗室在廣東;乙說,鵬城實驗室在廣東深圳;丙說,鵬城實驗室在廣東深圳南山區(qū)萬科云城(詳細廣告信息可參考本文下方)。丙的說法更準確。
?
收斂性分析
?
我們證明了算法在期望意義上收斂到塊 K 穩(wěn)定點。
?
?
此外,我們證明了算法線性收斂性質(zhì)(我想大家可能不太感興趣,可參考我的論文和 PPT)。
?
數(shù)值實驗
?
6.1 對于稀疏約束優(yōu)化問題,我們比較了以下9種方法:
?
Proximal Gradient Method (PGM)
Accerlated Proximal Gradient Method (APGM)
Quadratic Penalty Method (QPM)
Subspace Pursuit (SSP)
Regularized Orthogonal Matching Pursuit (ROMP)
Orthogonal Matching Pursuit (OMP)
Compressive Sampling Matched Pursuit (CoSaMP)
Convex `1 Approximation Method (CVX-L1)
Proposed Decomposition Method (DEC-RiGj, 我們的方法)
?
實驗1
結論1
?
我們的分解方法精度優(yōu)于其它方法。此外,K 越大,精度越高;
使用貪心策略選擇 2 個坐標和使用隨機策略選擇 2 個坐標兩種策略相比,前者收斂快但精度差,因此兩種坐標選擇策略需要結合來使用;
我們的方法在 30 秒內(nèi)收斂。
?
實驗2
結論2
?
基于迭代硬閾值的方法 {PGM, APGM, QPM} 性能較差;
OMP 和 ROMP 有時性能較差;
在這幾個數(shù)據(jù)集中,我們的方法一致地和較大地優(yōu)于目前的方法。
?
6.2 對于稀疏正則優(yōu)化問題,我們比較了以下5中算法:
?
PGM-L0: PGM for L0 Problem
APGM-L0: Accerlated PGM for L0 Problem
PGM-L1: PGM for L1 Problem
PGM-Lp: PGM for Lp Problem (p=1/2)
Proposed Decomposition Method (我們的方法)
?
實驗1
?
結論1
?
PGM-Lp 比 PGM-L1 所取得的精度要好;
在所有數(shù)據(jù)集上,我們的分解算法總的來說比其他的方法要好。
?
總結全文
?
我們提出了一種求解稀疏優(yōu)化問題的有效實用的方法。我們的方法利用了組合搜索和坐標下降的優(yōu)點。我們的算法無論從理論上還是從實際上,都優(yōu)于目前最具代表性的稀疏優(yōu)化方法。我們的塊分解算法已被擴展到解決稀疏廣義特征值問題(見CVPR 2019)和二值優(yōu)化問題。
?
招聘
鵬城實驗室誠聘 博士后 / 助理研究員(數(shù)值優(yōu)化方向)
崗位名稱:博士后/助理研究員
工作地點:鵬城實驗室(深圳南山區(qū)萬科云城)
研究方向:數(shù)值算法/(半)離散優(yōu)化/二階優(yōu)化/非凸優(yōu)化/非光滑優(yōu)化/機器學習
應聘材料:個人簡歷+學術成果(論文、科研項目、所獲獎項等)發(fā)送到下方郵箱
應聘條件:35歲以下近三年內(nèi)取得計算機/計算數(shù)學等學科博士學位+在數(shù)值優(yōu)化/機器學習/機器視覺/數(shù)據(jù)挖掘等領域以第一作者發(fā)表過高水平論文(e.g., CCF A類/SIAM Journal)
崗位待遇:全球范圍內(nèi)有競爭力。
聯(lián)系方式:yuangzh@pcl.ac.cn
更多閱讀
#投 稿?通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認識的人。
總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學習心得或技術干貨。我們的目的只有一個,讓知識真正流動起來。
?????來稿標準:
? 稿件確系個人原創(chuàng)作品,來稿需注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向)?
? 如果文章并非首發(fā),請在投稿時提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認每篇文章都是首發(fā),均會添加“原創(chuàng)”標志
?????投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請單獨在附件中發(fā)送?
? 請留下即時聯(lián)系方式(微信或手機),以便我們在編輯發(fā)布時和作者溝通
????
現(xiàn)在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的KDD 2020 开源论文 | 稀疏优化的块分解算法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 银华心诚005543净值
- 下一篇: ECCV 2020 Spotlight