arXiv 精选:一文看尽六月最热五篇论文
By 超神經(jīng)
場景描述:始建于 1991 年的 arXiv.org 至今已收錄超過 100 萬篇論文預(yù)印本,近年來,其每月提交量已經(jīng)超過 1 萬篇。這里成為一個巨大的學(xué)習(xí)寶庫。本文羅列了 arXiv.org 上最近一個月人工智能方向的最熱論文,供大家學(xué)習(xí)參考。
關(guān)鍵詞:arXiv? 最佳論文
作為一個研究人員專用「占坑」系統(tǒng),arXiv.ordg 收錄了物理、數(shù)學(xué)、計算機(jī)科學(xué)等各個領(lǐng)域的大量研究論文,來自世界各地的研究人員都為 arXiv 做出貢獻(xiàn)。
自 2016 年以來,其每月提交量已經(jīng)超過 1 萬篇。巨量的論文組成了一個真正的學(xué)習(xí)方法寶庫,你可以用它來解決數(shù)據(jù)科學(xué)問題。但這繁多的資源也增加了篩選的難度。
大量的論文不免讓讀者感到眼花
為此,我們將 arXiv.org 上的一些最新的研究論文篩選了出來,這些論文都是關(guān)于人工智能,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域中非常吸引人的科目,包括統(tǒng)計學(xué),數(shù)學(xué)和計算機(jī)科學(xué)等,然后我們整理出了六月最熱論文列表。
我們希望通過挑選能作為數(shù)據(jù)科學(xué)家典型代表的文章來幫大家節(jié)省一些時間。下面列出的文章代表 arXiv 上出現(xiàn)的所有文章中的一小部分。排名不分先后,每個論文附有鏈接以及簡要概述。
由于這些都是學(xué)術(shù)研究論文,通常面向研究生,博士后和經(jīng)驗豐富的專業(yè)人士。其中通常包含高等數(shù)學(xué),因此大家要做好準(zhǔn)備。接下來,就請享用吧!
《Monte Carlo Gradient Estimation in Machine Learning》
機(jī)器學(xué)習(xí)中的 Monte Carlo 梯度估計
論文鏈接:https://arxiv.org/pdf/1906.10652.pdf
推薦等級:★★★★★
本文是對我們在機(jī)器學(xué)習(xí)和統(tǒng)計科學(xué)中,蒙特卡羅梯度估計所使用的方法的廣泛和可訪問的調(diào)查:計算函數(shù)期望的梯度與定義分布的參數(shù)問題的整合,以及敏感性分析的問題。
在機(jī)器學(xué)習(xí)研究中,這種梯度問題是許多學(xué)習(xí)問題的核心(包括監(jiān)督,無監(jiān)督和強化學(xué)習(xí))。谷歌研究人員通常尋求以一種允許蒙特卡羅估計的形式重寫這種梯度,使它們能夠方便、有效地被使用和分析。
隨機(jī)優(yōu)化回路包括仿真階段和優(yōu)化階段
《An Introduction to Variational Autoencoders》
變分自編碼器簡介
論文鏈接:https://arxiv.org/pdf/1906.02691v1.pdf
推薦等級:★★★★★
變分自編碼器為學(xué)習(xí)深層潛在變量模型和相應(yīng)的推理模型提供了原理框架。本文介紹了變分自編碼器和一些重要的擴(kuò)展。
VAE學(xué)習(xí)觀測到的x空間之間的隨機(jī)映射
《Generative Adversarial Networks: A Survey and Taxonomy》
生成性對抗網(wǎng)絡(luò):調(diào)查與分類
論文鏈接:https://arxiv.org/pdf/1906.01529v1.pdf
推薦等級:★★★★★
在過去的幾年中,有大量關(guān)于生成對抗網(wǎng)絡(luò)(GAN)的研究。這其中最具革命性的技術(shù),出現(xiàn)在計算機(jī)視覺領(lǐng)域,比如圖像生成,圖像到圖像的轉(zhuǎn)換,面部特征變化等領(lǐng)域。
盡管 GAN 的研究取得了一些突破,但在用于實際問題時會面臨 3 個主要挑戰(zhàn):(1)高質(zhì)量圖像生成; (2)多樣化的圖像生成; (3)穩(wěn)定性訓(xùn)練。
作者提出了一種方式,用于對大多數(shù)流行的 GAN 進(jìn)行分類,分別是架構(gòu)變體(architecture-variants)和損失變體(loss-variants),然后從這兩個角度來處理三個挑戰(zhàn)。
在本文中,回顧和探討了 7 個架構(gòu)變體 GANs 和 9 個損失變體 GANs,論文的目的,在于提供對當(dāng)前 GAN 性能提升研究的深刻分析。
GAN 的架構(gòu)。在學(xué)習(xí)過程中同步訓(xùn)練兩個深度神經(jīng)網(wǎng)絡(luò)識別器D和發(fā)生器G
《Learning Causal State Representations of Partially Observable Environments》
學(xué)習(xí)部分可觀測環(huán)境的因果狀態(tài)表示
論文鏈接:https://arxiv.org/pdf/1906.10437.pdf
推薦等級:★★★★
智能 agent 可以用過學(xué)習(xí)與狀態(tài)無關(guān)的抽象,來應(yīng)對情況復(fù)雜多變的環(huán)境。在這篇文章中,提出了近似因果狀態(tài)的機(jī)制,在可觀察的馬爾可夫決策過程中,最優(yōu)地推動行動和觀察的聯(lián)合。所提出的算法從 RNN 中提取因果狀態(tài)表示,該 RNN 被訓(xùn)練以預(yù)測歷史的后續(xù)觀察。作者證明,通過對不可知的狀態(tài)抽象的學(xué)習(xí),可有效地學(xué)習(xí)強化學(xué)習(xí)問題的策略規(guī)劃。
功能神經(jīng)過程(FNP)模型
《The Functional Neural Process》
函數(shù)神經(jīng)過程
論文鏈接:https://arxiv.org/pdf/1906.08324.pdf
推薦等級:★★★★
本文提出了一個可交換的隨機(jī)過程,稱為函數(shù)神經(jīng)過程(FNPs)。FNP 模型在給定的數(shù)據(jù)集上訓(xùn)練,通過潛在表示上的依賴關(guān)系圖,來進(jìn)行函數(shù)的模擬分布。
在這樣做時,通常的方式只定義了貝葉斯模型,而忽略了在全局參數(shù)上設(shè)置先驗分布; 為了對此進(jìn)行改進(jìn),本文對數(shù)據(jù)集的關(guān)系結(jié)構(gòu)給出先驗,將這個任務(wù)進(jìn)行簡單化。
作者展示了如何從數(shù)據(jù)中學(xué)習(xí)這些模型,通過小批量優(yōu)化測試,證明它們可以擴(kuò)展到大型數(shù)據(jù)集,并描述了如何通過后驗預(yù)測分布對新點進(jìn)行預(yù)測。
為了驗證 FNPs 的性能,在 toy regression 和圖像分類上做了測試,結(jié)果證明,和基準(zhǔn)線的那些參數(shù)相比,FNPs 能夠提供更好的競爭預(yù)測,以及更穩(wěn)健的不確定性估計。
生成節(jié)點的圖形模型測試結(jié)果隨機(jī)過程
作者的微信群
掃描二維碼,加入討論群
獲得優(yōu)質(zhì)數(shù)據(jù)集
回復(fù)「進(jìn)群」自動入群
本站簡介↓↓↓?
“機(jī)器學(xué)習(xí)初學(xué)者”是幫助人工智能愛好者入門的個人公眾號(創(chuàng)始人:黃海廣)
初學(xué)者入門的道路上,最需要的是“雪中送炭”,而不是“錦上添花”。
本站的知識星球(黃博的機(jī)器學(xué)習(xí)圈子)ID:92416895
目前在機(jī)器學(xué)習(xí)方向的知識星球排名第一(上圖二維碼)
往期精彩回顧
良心推薦:機(jī)器學(xué)習(xí)入門資料匯總及學(xué)習(xí)建議(2018版)
黃海廣博士的github鏡像下載(機(jī)器學(xué)習(xí)及深度學(xué)習(xí)資源)
吳恩達(dá)老師的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)課程筆記打印版
機(jī)器學(xué)習(xí)小抄-(像背托福單詞一樣理解機(jī)器學(xué)習(xí))
首發(fā):深度學(xué)習(xí)入門寶典-《python深度學(xué)習(xí)》原文代碼中文注釋版及電子書
機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)
機(jī)器學(xué)習(xí)必備寶典-《統(tǒng)計學(xué)習(xí)方法》的python代碼實現(xiàn)、電子書及課件
吐血推薦收藏的學(xué)位論文排版教程(完整版)
Python代碼寫得丑怎么辦?推薦幾個神器拯救你
重磅 | 完備的 AI 學(xué)習(xí)路線,最詳細(xì)的資源整理!
備注:本站qq群:865189078(共8個群,不用重復(fù)加)。
加入本站微信群,請加黃博的助理微信,說明:公眾號用戶加群。
總結(jié)
以上是生活随笔為你收集整理的arXiv 精选:一文看尽六月最热五篇论文的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 推荐TensorFlow2.0的样例代码
- 下一篇: 专访 | 周涛:从窄门进最终走出宽路来