本期最新 9 篇论文,每一篇都想推荐给你 | PaperDaily #14
在碎片化閱讀充斥眼球的時代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。
在這個欄目里,你會快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第?14?篇文章[ 自然語言處理 ] Word Translation Without Parallel Data
@Ttssxuan 推薦
#Unsupervised Learning
本文貢獻(xiàn):
??一種無需平行語料的無監(jiān)督詞翻譯方案?
??緩和 hubness problem 的方案?
??無監(jiān)督驗(yàn)證與選參方法?
??證明本方法在詞料較少的語言的適用性?
??多種語言的 詞翻譯結(jié)果?
主要價值:
??無監(jiān)督和無平行語料的訓(xùn)練方案?
??對抗學(xué)習(xí) 的應(yīng)用?
困難和思路:
??無監(jiān)督訓(xùn)練:使用對抗學(xué)習(xí)使得 兩種語言在目標(biāo)空間分布重合?
??無監(jiān)督驗(yàn)證:計(jì)算翻譯對之間的平均 cosin 距離,用于驗(yàn)證和調(diào)參?
??生成詞典:使用 CSLS 找出翻譯結(jié)果
Generalized End-to-End Loss for Speaker Verification@Drin_Peng 推薦
#Speaker Recognition
這篇文章是 Google 投 ICASSP2018 的,本文在原始端到端框架上重新設(shè)計(jì)了更加具有可分性的判別函數(shù)和度量距離(1. 損失函數(shù)和清華大學(xué)王東老師投 ICASSP2018 的 FULL-INFO TRAINING FOR DEEP SPEAKER FEATURE LEARNING 文章有異曲同工之妙)。此外還應(yīng)用了 domain adaptation,借助大數(shù)據(jù)集訓(xùn)練了小數(shù)據(jù)集。這些方法減少了訓(xùn)練時間(60%)提高了準(zhǔn)確率(10%)。
End-to-End Adversarial Memory Network for Cross-domain Sentiment Classification
@robertdlut 推薦
#Sentiment Classification
該論文是香港科技大學(xué)楊強(qiáng)老師團(tuán)隊(duì)的工作,發(fā)表在 IJCAI2017 上。該論文在跨領(lǐng)域情感分類任務(wù)上使用了一個端到端的對抗記憶網(wǎng)絡(luò)進(jìn)行遷移學(xué)習(xí)。
該網(wǎng)絡(luò)有兩部分組成,一個情感分類器(目的找到對情感分類重要的特征),一個領(lǐng)域分類器(目的在于找到所有領(lǐng)域都共享的特征)。在領(lǐng)域分類器中使用了對抗訓(xùn)練來學(xué)習(xí)共享特征。然后這兩部分同時訓(xùn)練,來選出特征即能夠有效進(jìn)行情感分類,又是所有領(lǐng)域都存在的。在遷移學(xué)習(xí)中使用對抗訓(xùn)練,值得學(xué)習(xí)。
@lisabug 推薦
#Person Re-identification
文章有何貢獻(xiàn):本文提出了一種新的 fine-tuning 的方法使在大量合成數(shù)據(jù)上訓(xùn)練的 DispNet 可以遷移到無 groudtruth 或者只有極少量的 groundtruth 的實(shí)際數(shù)據(jù)集上。?
本文研究的問題有何價值:雙目深度估計(jì)的標(biāo)簽現(xiàn)實(shí)中很難獲得,本文提出的 fine-tuning 方法可以在沒 有g(shù)roundtruth 的情況下將模型遷移過來。?
所研究問題有何困難:如何獲得可靠的監(jiān)督信息來 fine-tune。
本文的解決思路是怎樣的:文章受在 Kitti 數(shù)據(jù)集上 fine-tune 的啟發(fā),發(fā)現(xiàn)利用稀疏的標(biāo)簽也可以很好地對模型進(jìn)行訓(xùn)練。文章利用傳統(tǒng)算法如 AD-CENSUS 或 SGM 生成 label 來作為 groundtruth, 同時利用 CCCN(一種 confidence measure 的方法)來選取可信度高的 label,只利用這部分置信度高的 sparse label 來 fine-tune。
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices@chenhong 推薦
#Object Classification
分類網(wǎng)絡(luò)是計(jì)算機(jī)視覺的基礎(chǔ),目標(biāo)追蹤定位識別都可以分割到分類實(shí)現(xiàn)。分類網(wǎng)絡(luò)在嵌入式設(shè)備比如手機(jī)等智能終端中應(yīng)用,是商業(yè)化的必然趨勢。Face++ 團(tuán)隊(duì)提出的 ShuffleNet,基于 mobilenet 的改進(jìn),具有實(shí)現(xiàn)更高效的優(yōu)勢。
Representation Learning by Rotating Your Faces
@993917172 推薦
#Face Capture
貢獻(xiàn):與現(xiàn)有的方法 SRGAN 等不同,該論文建立了一個帶有編碼-解碼結(jié)構(gòu)的生成器,由編碼器輸入任意姿態(tài)的人臉圖像,由解碼器輸出擺正姿態(tài)的人臉圖像。此外,該論文的判別器不僅用來分辨真實(shí)和人造圖像,還用來預(yù)測人臉身份信息。?
研究價值:現(xiàn)實(shí)中,受到多種因素影響,用戶所獲得的監(jiān)控視頻中人臉圖像往往質(zhì)量較低,且人臉圖像姿態(tài)較多,這些因素都對人臉識別等應(yīng)用造成影響。?
研究困難:在圖像質(zhì)量評價中,生成對抗網(wǎng)絡(luò)的實(shí)驗(yàn)結(jié)果圖具有更好的主觀結(jié)果圖,但是它的客觀評價未達(dá)到最優(yōu)結(jié)果。?
未來可能研究方向:未來,可以將人臉識別與生成對抗網(wǎng)絡(luò)更好的結(jié)合,生成器與判別器的密集連接將成為一種可能。
[ 機(jī)器學(xué)習(xí) ]
NeST: A Neural Network Synthesis Tool Based on a Grow-and-Prune Paradigm@paperhwd 推薦
#Neural Networks
文章提出了一種在訓(xùn)練過程中連接、生長、移除神經(jīng)元的神經(jīng)網(wǎng)絡(luò)。這種神經(jīng)網(wǎng)絡(luò)使用梯度和神經(jīng)元來生長和修剪,從而實(shí)現(xiàn)權(quán)重和結(jié)構(gòu)的同時訓(xùn)練。此算法可以同時實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的自動選擇和超高效壓縮。
@Synced 推薦
#Neural Network Toolkit
DeepMind 最近提出的 VQ-VAE 是一種簡單而強(qiáng)大的生成模型,結(jié)合向量量化和變分自編碼器學(xué)習(xí)離散表示,可以實(shí)現(xiàn)在圖像識別、語音和對話等任務(wù)上的無監(jiān)督學(xué)習(xí)。
@zhangjun 推薦
#Probabilistic Reasoning
本文通過實(shí)驗(yàn)得出結(jié)論,在機(jī)器閱讀理解任務(wù)中多輪推理將會得到更好的結(jié)果,這里用增強(qiáng)學(xué)習(xí)對輪數(shù)進(jìn)行控制。
本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語言處理、計(jì)算機(jī)視覺、人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點(diǎn)擊「閱讀原文」即刻加入社區(qū)!
我是彩蛋?
解鎖新姿勢:用微信刷論文!
PaperWeekly小程序上線啦
今日arXiv√猜你喜歡√熱門資源√
隨時緊跟最新最熱論文
?
?解鎖方式?
1. 識別下方二維碼打開小程序
2. 用PaperWeekly社區(qū)賬號進(jìn)行登陸
3. 登陸后即可解鎖所有功能
?
長按識別二維碼,使用小程序
*點(diǎn)擊閱讀原文即可注冊
關(guān)于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 查看更多優(yōu)質(zhì)論文
總結(jié)
以上是生活随笔為你收集整理的本期最新 9 篇论文,每一篇都想推荐给你 | PaperDaily #14的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ICCV2017 论文解读:基于图像检索
- 下一篇: NVIDIA新作解读:用GAN生成前所未