15个最热门的GitHub库
原文標(biāo)題:15 Trending Data Science GitHub Repositories you can not miss in 2017
作者:SUNIL RAY
翻譯:楊金鴻
校對(duì):閔黎?
本文長(zhǎng)度為3400字,建議閱讀5分鐘
本文為你分享2017年最熱門的GitHub項(xiàng)目列表。
簡(jiǎn)介
GitHub最初的只是一個(gè)控制軟件版本的工具,如今已經(jīng)發(fā)展成為由來(lái)自不同背景的GitHub使用者共享他們自己開(kāi)發(fā)的工具/庫(kù),甚至是有用代碼庫(kù)。
GitHub是一座蘊(yùn)藏了豐富資源的知識(shí)寶庫(kù),您不僅可以看到最優(yōu)秀的開(kāi)源貢獻(xiàn)項(xiàng)目,還可以看到這些項(xiàng)目的代碼是如何編寫和實(shí)現(xiàn)的。作為一名狂熱的數(shù)據(jù)科學(xué)愛(ài)好者,我在2017年末我整理了一份最熱門的GitHub項(xiàng)目列表。快來(lái)享受和堅(jiān)持學(xué)習(xí)吧!
目錄
一、學(xué)習(xí)資源庫(kù)
1.強(qiáng)大的數(shù)據(jù)科學(xué)
2.機(jī)器學(xué)習(xí)/深度學(xué)習(xí)手冊(cè)
3. 牛津深度自然語(yǔ)言處理課程講座
4.?PyTorch——教程
5.?NIPS?2017資源
二、開(kāi)源軟件
1.?TensorFlow
2.?TuriCreate-一個(gè)簡(jiǎn)化的機(jī)器學(xué)習(xí)庫(kù)
3.?OpenPose
4.?DeepSpeech
5. 移動(dòng)深度學(xué)習(xí)
6.?Visdom
7. 深度照片類型轉(zhuǎn)換
8.?CycleGAN
9.Seq2seq
10.Pix2code
一、學(xué)習(xí)資源庫(kù)
1. 強(qiáng)大的科學(xué)數(shù)據(jù)科學(xué)
GitHub庫(kù)是數(shù)據(jù)科學(xué)首選的終極資源指南。多年來(lái),它是建立在多個(gè)不同的開(kāi)源的資源項(xiàng)目基礎(chǔ)之上,這些資源包括從入門指南、信息圖表到人們的社交資源網(wǎng)站如:twitter、facebook、Instagram等。不管你是新手還是老手,這里都有大量的項(xiàng)目資源等待著你學(xué)習(xí)。
從GitHub庫(kù)的目錄結(jié)構(gòu)中可以看出,所有的Github庫(kù)都是與各種資源庫(kù)的深度集合。
Github庫(kù)的連接地址:
https://github.com/bulutyazilim/awesome-datascience
2. 機(jī)器學(xué)習(xí)/深度學(xué)習(xí)參考指南
這個(gè)資源庫(kù)把常用的工具和技術(shù)以參考指南的形式組織起來(lái)。這些參考指南內(nèi)容從非常簡(jiǎn)單的工具(如pandas)到非常復(fù)雜的技術(shù)(如深度學(xué)習(xí))應(yīng)有盡有。當(dāng)你提供了一顆星星或分支一個(gè)資源庫(kù)之后,就不再需要通過(guò)谷歌瀏覽器來(lái)搜索常用的提示和小技巧。
讓我們來(lái)看一看有哪些不同類型的參考指南,例如pandas, numpy, scikit learn, matplotlib, ggplot, dplyr, tidyr, pySpark 和神經(jīng)網(wǎng)絡(luò)等。
這些參考指南資料的鏈接地址:
https://github.com/kailashahirwar/cheatsheets-ai
3. 牛津大學(xué)深度自然語(yǔ)言處理課程
斯坦福大學(xué)的NLP課程一直是人們想要進(jìn)入自然語(yǔ)言處理領(lǐng)域的黃金課程。但是隨著深度學(xué)習(xí)的出現(xiàn),NLP已經(jīng)取得了巨大的進(jìn)步,這一切都要?dú)w功于像RNN和LSTMs這樣的深度學(xué)習(xí)架構(gòu)。
基于牛津大學(xué)NLP課程的資源庫(kù)把NLP的學(xué)習(xí)帶向了新的高度。這些課程涵蓋了與實(shí)踐操作相關(guān)的技術(shù)和術(shù)語(yǔ),例如使用RNNs進(jìn)行語(yǔ)言建模,語(yǔ)音識(shí)別,語(yǔ)音合成文本等。這個(gè)資源庫(kù)是牛津課程所有教材的一站式存儲(chǔ),為實(shí)踐操作提供了必備的資料。
這個(gè)庫(kù)的鏈接地址:
https://github.com/oxford-cs-deepnlp-2017/lectures
4. PyTorch——教程
到目前為止,PyTorch是Tensorflow唯一的競(jìng)爭(zhēng)對(duì)手。PyTorch的Python化的編碼風(fēng)格、動(dòng)態(tài)計(jì)算和快速的原型設(shè)計(jì)贏得了盛贊,因此獲得了深度學(xué)習(xí)社區(qū)的高度關(guān)注。
?
這個(gè)資源庫(kù)包含了用于深度學(xué)習(xí)的工作代碼,例如在PyTorch中創(chuàng)建一個(gè)神經(jīng)網(wǎng)絡(luò)這樣的基本任務(wù),以及編寫RNN、GANs和神經(jīng)風(fēng)格遷移算法的代碼。大多數(shù)模型的功能實(shí)現(xiàn)只需要30行代碼。這說(shuō)明PyTorch所提供的抽象化功能,使研究人員能夠集中精力快速尋找正確的模型,而不是糾纏于編程語(yǔ)言或工具選擇這些細(xì)節(jié)的問(wèn)題。
PyTorch庫(kù)的鏈接地址:
https://github.com/yunjey/pytorch-tutorial
?
5. NIPS 2017資源
這個(gè)資源庫(kù)提供了NIPS 2017大會(huì)的資源列表,包括了所有邀請(qǐng)的會(huì)談、教程講座和研討會(huì)上的資料和幻燈片。NIPS (Neural Information Processing Systems), 是專門為機(jī)器學(xué)習(xí)和計(jì)算神經(jīng)科學(xué)領(lǐng)域舉辦的年度頂級(jí)國(guó)際會(huì)議。
在過(guò)去幾年中,在數(shù)據(jù)科學(xué)行業(yè)中發(fā)生的大多數(shù)突破性研究成果都是在這個(gè)會(huì)議上提出的。如果你想立于數(shù)據(jù)科學(xué)的潮頭,那么這里是你獲得正確資源的源頭。
?
二、開(kāi)源軟件
1. TensorFlow
TensorFlow正式發(fā)布已經(jīng)有2年了,但它一直保持著頂尖的機(jī)器學(xué)習(xí)/深度學(xué)習(xí)庫(kù)的地位。Google大腦和TensorFlow開(kāi)發(fā)的社區(qū)一直在積極地作出貢獻(xiàn),并保持與最新的技術(shù)發(fā)展同步,特別是在深度學(xué)習(xí)領(lǐng)域。
TensorFlow最初是一個(gè)采用數(shù)據(jù)流圖(data flow graphs),用于數(shù)值計(jì)算的開(kāi)源軟件庫(kù)。但是從TensorFlow的發(fā)展現(xiàn)狀看,可以說(shuō)它是一個(gè)構(gòu)建深度學(xué)習(xí)模型的完整資源庫(kù)。雖然TensorFlow主要支持Python,但它也支持C、C++、Java等語(yǔ)言,最要的是它可以在移動(dòng)平臺(tái)上運(yùn)行。
TensorFlow的鏈接地址:
https://github.com/tensorflow/tensorflow
2. TuriCreate-一個(gè)簡(jiǎn)化的機(jī)器學(xué)習(xí)庫(kù)
最近最熱的話題是蘋果公司的開(kāi)源貢獻(xiàn)項(xiàng)目TuriCreate。它簡(jiǎn)化了機(jī)器學(xué)習(xí)模型的創(chuàng)建和部署,可用于復(fù)雜的任務(wù),如對(duì)象檢測(cè)、活動(dòng)分類和推薦系統(tǒng)。
作為一名數(shù)據(jù)科學(xué)愛(ài)好者,我記得Turi創(chuàng)建了GraphLab——一個(gè)神奇的機(jī)器學(xué)習(xí)庫(kù),因而被蘋果公司收購(gòu)。數(shù)據(jù)科學(xué)行業(yè)的每個(gè)人都在期待這種爆炸性的事情發(fā)生。
TuriCreate是專門為Python的使用者開(kāi)發(fā)的。它提供的最好的功能之一是可以輕松地將機(jī)器學(xué)習(xí)模型部署到Core ML(蘋果公司的另一個(gè)開(kāi)源軟件)中,使用在iOS、macOS、watchOS和tvOS的應(yīng)用程序中。
TuriCreate的鏈接地址:
https://github.com/apple/turicreate
3. OpenPose
OpenPose是一個(gè)多目標(biāo)人體關(guān)鍵點(diǎn)檢測(cè)庫(kù),它可以幫助你實(shí)時(shí)檢測(cè)圖像或視頻中人的位置。OpenPose由CMU的感知計(jì)算實(shí)驗(yàn)室開(kāi)發(fā),下面這個(gè)例子很好地說(shuō)明了開(kāi)源的研究項(xiàng)目也可以很容易被工業(yè)界接受。
動(dòng)圖請(qǐng)查看原文鏈接
OpenPose這個(gè)最好的使用案例是幫助人們解決活動(dòng)檢測(cè)的問(wèn)題。例如,參與者所做的動(dòng)作可以被實(shí)時(shí)捕獲。然后,這些關(guān)鍵點(diǎn)和他們的動(dòng)作可以被制作成動(dòng)畫電影。
OpenPose用C++的API訪問(wèn)。同時(shí),也可以用簡(jiǎn)單的命令行界面來(lái)處理圖像或者視頻。
OpenPose的鏈接地址:
https://github.com/CMU-Perceptual-Computing-Lab/openpose
4. DeepSpeech
DeepSpeech庫(kù)是百度研究中最先進(jìn)的語(yǔ)音文本合成技術(shù)的開(kāi)源項(xiàng)目。它基于TensorFlow,可以在Python,NodeJS和命令行中使用。
Mozilla是從無(wú)到有參與構(gòu)建開(kāi)源DeepSpeech庫(kù)的主要成員之一“只有少數(shù)幾家主導(dǎo)商業(yè)優(yōu)質(zhì)語(yǔ)音識(shí)別服務(wù)的大公司才可以做出好的深度語(yǔ)言技術(shù)。這不僅減少了用戶的可選擇性,也降低了初創(chuàng)公司、研究人員甚至更大的公司對(duì)產(chǎn)品的可用性。因此這些公司想要讓他們的產(chǎn)品和服務(wù)變得更好,就要與志同道合的開(kāi)發(fā)者、公司和研究人員組成一個(gè)社區(qū)。我們采用了先進(jìn)的機(jī)器學(xué)習(xí)和各種各樣的創(chuàng)新技術(shù)來(lái)構(gòu)建一個(gè)語(yǔ)音到文本的引擎”。Mozilla的技術(shù)戰(zhàn)略副總裁肖恩懷特在一篇博文(https://blog.mozilla.org/blog/2017/11/29/announcing-the-initial-release-of-mozillas-open-source-speech-recognition-model-and-voice-dataset/)中寫道。
DeepSpeech庫(kù)的鏈接地址:
https://github.com/CMU-Perceptual-Computing-Lab/openpose
5. 移動(dòng)深度學(xué)習(xí)
這個(gè)知識(shí)庫(kù)為移動(dòng)平臺(tái)帶來(lái)了最先進(jìn)的數(shù)據(jù)科學(xué)技術(shù)。該知識(shí)庫(kù)是由百度研究開(kāi)發(fā),目的是在Android和IOS等移動(dòng)設(shè)備上部署深度學(xué)習(xí)模型,降低復(fù)雜性,提高運(yùn)行速度。用移動(dòng)深度學(xué)習(xí)庫(kù)中的一個(gè)簡(jiǎn)單的用例來(lái)解釋,例如對(duì)象檢測(cè),它可以識(shí)別一個(gè)移動(dòng)物體在圖像中的確切位置,是不是很酷啊?
動(dòng)圖請(qǐng)查看原文鏈接
移動(dòng)深度學(xué)習(xí)庫(kù)的地址:
https://github.com/baidu/mobile-deep-learning
6. Visdom
Visdom是一個(gè)支持在協(xié)作者之間傳播圖形、圖像和文本的庫(kù)。您可以通過(guò)編寫程序程或UI生成您的可視化空間,創(chuàng)建實(shí)時(shí)數(shù)據(jù)的顯示板,檢查實(shí)驗(yàn)結(jié)果,或調(diào)試實(shí)驗(yàn)代碼。
對(duì)于繪圖函數(shù)輸入的精度不同,盡管它們中的大多數(shù)都是輸入一個(gè)張量(三維)X不包含數(shù)據(jù),和一個(gè)(可選擇)張量(三維)Y包含可選的數(shù)據(jù)變量(如標(biāo)簽或時(shí)間戳)。繪圖函數(shù)支持所有的基本繪圖類型,創(chuàng)建由Plotly提供的可視化。
Visdom支持在Python中使用Torch和Numpy。
Visdom庫(kù)的連接地址:
https://github.com/facebookresearch/visdom
7. 深度照片類型轉(zhuǎn)換
該庫(kù)來(lái)源于一篇研究論文(https://arxiv.org/pdf/1703.07511.pdf),介紹了一種深入學(xué)習(xí)攝影類型轉(zhuǎn)換方法,它可以處理大量的圖像內(nèi)容,忠實(shí)傳遞圖片相關(guān)類型樣式。該方法成功地抑制了失真,并在各種場(chǎng)景中,,包括時(shí)間的轉(zhuǎn)移、天氣、季節(jié)和藝術(shù)編輯,產(chǎn)生了令人滿意的相片般逼真的風(fēng)格。這段代碼是基于Torch實(shí)現(xiàn)。
該庫(kù)的連接地址:
https://github.com/luanfujun/deep-photo-styletransfer
8. CycleGAN
CycleGAN是一個(gè)有趣且功能強(qiáng)大的庫(kù),展示了潛在的最先進(jìn)技術(shù)。舉個(gè)例子,下面的圖片是該庫(kù)可以做的事情——調(diào)整圖像的深度感知。它的先進(jìn)性在于不需要你告訴算法,需要處理圖像的哪一部分,它能通過(guò)自己的算法做出判斷。
目前,該庫(kù)是用Lua編寫的,但也可以在命令行中使用。
該庫(kù)的鏈接地址:
https://github.com/junyanz/CycleGAN
9. Seq2seq
Seq2seq最初是為機(jī)器翻譯而編寫的,但后來(lái)被開(kāi)發(fā)用于各種其他任務(wù),包括摘要、會(huì)話建模和圖像字幕。只要一個(gè)問(wèn)題能夠以一種格式編碼輸入并解碼成另一種格式輸出,就可以使用這個(gè)框架。它是用Python中流行的Tensorflow庫(kù)編寫的。
該庫(kù)的鏈接地址:
https://github.com/google/seq2seq
10. Pix2code
Pix2code是深度學(xué)習(xí)領(lǐng)域一個(gè)非常振奮的項(xiàng)目,這個(gè)項(xiàng)目的功能點(diǎn)在于試圖給GUI自動(dòng)生成代碼。當(dāng)構(gòu)建網(wǎng)站或移動(dòng)界面時(shí),前端工程師通常需要編寫重復(fù)的代碼,這個(gè)耗時(shí)且非生產(chǎn)性的工作阻礙了開(kāi)發(fā)人員將大部分時(shí)間用于實(shí)現(xiàn)他們正在構(gòu)建的軟件的實(shí)際功能和邏輯。Pix2code可自動(dòng)完成這個(gè)這個(gè)繁瑣的工作。它基于一種新穎的方法,允許從單個(gè)GUI屏幕截圖中生成計(jì)算機(jī)標(biāo)識(shí)語(yǔ)言作為輸入。
這有是一個(gè)解釋pix2code用例的視頻,鏈接地址:
https://youtu.be/pqKeXkhFA3I
Pix2code是用python編寫的,可用于捕獲移動(dòng)和web界面的圖像并將其轉(zhuǎn)換成代碼。
該庫(kù)的連接地址:
https://github.com/tonybeltramelli/pix2code
尾注
我希望你能了解到2017年GitHub上發(fā)布的一些新開(kāi)源工具或技術(shù)。如果你在過(guò)去看到過(guò)更多這樣有用的資源,請(qǐng)?jiān)谙旅娴脑u(píng)論中告訴我。
?
原文鏈接:
https://www.analyticsvidhya.com/blog/2017/12/15-data-science-repositories-github-2017/
總結(jié)
以上是生活随笔為你收集整理的15个最热门的GitHub库的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Protobuf 的 proto3 与
- 下一篇: linux监控目录变动