如果你對(duì)深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)感興趣,但是并不知道從哪里開始,也不知道使用哪種庫,那么這里就為你提供了許多幫助。
在這篇文章里,我詳細(xì)解讀了9個(gè)我最喜歡的Python深度學(xué)習(xí)庫。
這個(gè)名單并不詳盡,它只是我在計(jì)算機(jī)視覺的職業(yè)生涯中使用并在某個(gè)時(shí)間段發(fā)現(xiàn)特別有用的一個(gè)庫的列表。
這其中的一些庫我比別人用的多很多,尤其是Keras、mxnet和sklearn-theano。
其他的一些我是間接的使用,比如Theano和TensorFlow(庫包括Keras、deepy和Blocks等)。
另外的我只是在一些特別的任務(wù)中用過(比如nolearn和他們的DeepBeliefNetworkimplementation)。
這篇文章的目的是向你介紹這些庫。我建議你認(rèn)真了解這里的每一個(gè)庫,然后在某個(gè)具體工作情境中你就可以確定一個(gè)最適用的庫。
我想再次重申,這份名單并不詳盡。此外,由于我是計(jì)算機(jī)視覺研究人員并長期活躍在這個(gè)領(lǐng)域,對(duì)卷積神經(jīng)網(wǎng)絡(luò)(細(xì)胞神經(jīng)網(wǎng)絡(luò))方面的庫會(huì)關(guān)注更多。
我把這個(gè)深度學(xué)習(xí)庫的列表分為三個(gè)部分。
第一部分是比較流行的庫,你可能已經(jīng)很熟悉了。對(duì)于這些庫,我提供了一個(gè)通俗的、高層次的概述。然后,針對(duì)每個(gè)庫我詳細(xì)解說了我的喜歡之處和不喜歡之處,并列舉了一些適當(dāng)?shù)膽?yīng)用案例。
第二部分進(jìn)入到我個(gè)人最喜歡的深度學(xué)習(xí)庫,也是我日常工作中使用最多的,包括:Keras、mxnet和sklearn-theano等。
最后,我對(duì)第一部分中不經(jīng)常使用的庫做了一個(gè)“福利”板塊,你或許還會(huì)從中發(fā)現(xiàn)有用的或者是在第二板塊中我還沒有嘗試過但看起來很有趣的庫。
接下來就讓我們繼續(xù)探索。
針對(duì)初學(xué)者:
Caffe
提到“深度學(xué)習(xí)庫”就不可能不說到Caffe。事實(shí)上,自從你打開這個(gè)頁面學(xué)習(xí)深度學(xué)習(xí)庫,我就敢打保票你肯定聽說Caffe。
那么,究竟Caffe是什么呢?
Caffe是由BerkeleyVisionandLearningCenter(BVLC)建立的深度學(xué)習(xí)框架。它是模塊化的,速度極快。而且被應(yīng)用于學(xué)術(shù)界和產(chǎn)業(yè)界的start-of-the-art應(yīng)用程序中。
事實(shí)上,如果你去翻閱最新的深度學(xué)習(xí)出版物(也提供源代碼),你就很可能會(huì)在它們相關(guān)的GitHub庫中找到Caffe模型。
雖然Caffe本身并不是一個(gè)Python庫,但它提供綁定到Python上的編程語言。我們通常在新領(lǐng)域開拓網(wǎng)絡(luò)的時(shí)候使用這些綁定。
我把Caffe放在這個(gè)列表的原因是它幾乎被應(yīng)用在各個(gè)方面。你可以在一個(gè)空白文檔里定義你的模型架構(gòu)和解決方案,建立一個(gè)JSON文件類型的.prototxt配置文件。Caffe二進(jìn)制文件提取這些.prototxt文件并培訓(xùn)你的網(wǎng)絡(luò)。Caffe完成培訓(xùn)之后,你可以把你的網(wǎng)絡(luò)和經(jīng)過分類的新圖像通過Caffe二進(jìn)制文件,更好的就直接通過Python或MATLAB的API。
雖然我很喜歡Caffe的性能(它每天可以在K40GPU上處理60萬張圖片),但相比之下我更喜歡Keras和mxnet。
主要的原因是,在.prototxt文件內(nèi)部構(gòu)建架構(gòu)可能會(huì)變得相當(dāng)乏味和無聊。更重要的是,Caffe不能用編程方式調(diào)整超參數(shù)!由于這兩個(gè)原因,在基于Python的API中我傾向于對(duì)允許我實(shí)現(xiàn)終端到終端聯(lián)播網(wǎng)的庫傾斜(包括交叉驗(yàn)證和調(diào)整超參數(shù))。
Theano
在最開始我想說Theano是美麗的。如果沒有Theano,我們根本不會(huì)達(dá)到現(xiàn)有的深度學(xué)習(xí)庫的數(shù)量(特別是在Python)。同樣的,如果沒有numpy,我們就不會(huì)有SciPy、scikit-learn和scikit-image,,同樣可以說是關(guān)于Theano和深度學(xué)習(xí)更高級(jí)別的抽象。
非常核心的是,Theano是一個(gè)Python庫,用來定義、優(yōu)化和評(píng)估涉及多維數(shù)組的數(shù)學(xué)表達(dá)式。Theano通過與numpy的緊密集成,透明地使用GPU來完成這些工作。
雖然可以利用Theano建立深度學(xué)習(xí)網(wǎng)絡(luò),但我傾向于認(rèn)為Theano是神經(jīng)網(wǎng)絡(luò)的基石,同樣的numpy是作為科學(xué)計(jì)算的基石。事實(shí)上,大多數(shù)我在文章中提到的庫都是圍繞著Theano,使自己變得更加便利。
不要誤會(huì)我的意思,我愛Theano,我只是不喜歡用Theano編寫代碼。
在Theano建設(shè)卷積神經(jīng)網(wǎng)絡(luò)就像只用本機(jī)Python中的numpy寫一個(gè)定制的支持向量機(jī)(SVM),當(dāng)然這個(gè)對(duì)比并不是很完美。
你可以做到嗎?
當(dāng)然可以。
它值得花費(fèi)您的時(shí)間和精力嗎?
嗯,也許吧。這取決于你是否想擺脫低級(jí)別或你的應(yīng)用是否需要。
就個(gè)人而言,我寧愿使用像Keras這樣的庫,它把Theano包裝成更有人性化的API,同樣的方式,scikit-learn使機(jī)器學(xué)習(xí)算法工作變得更加容易。
TensorFlow
與Theano類似,TensorFlow是使用數(shù)據(jù)流圖進(jìn)行數(shù)值計(jì)算的開源庫(這是所有神經(jīng)網(wǎng)絡(luò)固有的特征)。最初由谷歌的機(jī)器智能研究機(jī)構(gòu)內(nèi)的GoogleBrainTeam研究人員開發(fā),此后庫一直開源,并提供給公眾。
相比于Theano,TensorFlow的主要優(yōu)點(diǎn)是分布式計(jì)算,特別是在多GPU的環(huán)境中(雖然這是Theano正在攻克的項(xiàng)目)。
除了用TensorFlow而不是Theano替換Keras后端,對(duì)于TensorFlow庫我并沒有太多的經(jīng)驗(yàn)。然而在接下來的幾個(gè)月里,我希望這有所改變。
Lasagne
Lasagne是Theano中用于構(gòu)建和訓(xùn)練網(wǎng)絡(luò)的輕量級(jí)庫。這里的關(guān)鍵詞是輕量級(jí)的,也就意味著它不是一個(gè)像Keras一樣圍繞著Theano的重包裝的庫。雖然這會(huì)導(dǎo)致你的代碼更加繁瑣,但它會(huì)把你從各種限制中解脫出來,同時(shí)還可以讓您根據(jù)Theano進(jìn)行模塊化的構(gòu)建。
簡而言之:Lasagne的功能是Theano的低級(jí)編程和Keras的高級(jí)抽象之間的一個(gè)折中。
我最喜歡的:
Keras
如果我必須選出一個(gè)最喜歡的深度學(xué)習(xí)Python庫,我將很難在Keras和mxnet中做出抉擇——但最后,我想我會(huì)選Keras。
說真的,Keras的好處我說都說不完。
Keras是一個(gè)最低限度的、模塊化的神經(jīng)網(wǎng)絡(luò)庫,可以使用Theano或TensorFlow作為后端。Keras最主要的用戶體驗(yàn)是,從構(gòu)思到產(chǎn)生結(jié)果將會(huì)是一個(gè)非常迅速的過程。
在Keras中架構(gòu)網(wǎng)絡(luò)設(shè)計(jì)是十分輕松自然的。它包括一些state-of-the-art中針對(duì)優(yōu)化(Adam,RMSProp)、標(biāo)準(zhǔn)化(BatchNorm)和激活層(PReLU,ELU,LeakyReLU)最新的算法。
Keras也非常注重卷積神經(jīng)網(wǎng)絡(luò),這也是我十分需要的。無論它是有意還是無意的,我覺得從計(jì)算機(jī)視覺的角度來看這是非常有價(jià)值的。
更重要的是,你既可以輕松地構(gòu)建基于序列的網(wǎng)絡(luò)(其中輸入線性流經(jīng)網(wǎng)絡(luò))又可以創(chuàng)建基于圖形的網(wǎng)絡(luò)(輸入可以“跳過”某些層直接和后面對(duì)接)。這使得創(chuàng)建像GoogLeNet和SqueezeNet這樣復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)變得容易得多。
我認(rèn)為Keras唯一的問題是它不支持多GPU環(huán)境中并行地訓(xùn)練網(wǎng)絡(luò)。這可能會(huì)也可能不會(huì)成為你的大忌。
如果我想盡快地訓(xùn)練網(wǎng)絡(luò),那么我可能會(huì)使用mxnet。但是如果我需要調(diào)整超參數(shù),我就會(huì)用Keras設(shè)置四個(gè)獨(dú)立的實(shí)驗(yàn)(分別在我的TitanXGPUs上運(yùn)行)并評(píng)估結(jié)果。
mxnet
我第二喜歡的深度學(xué)習(xí)Python庫無疑就是mxnet(重點(diǎn)也是訓(xùn)練圖像分類網(wǎng)絡(luò))。雖然在mxnet中站立一個(gè)網(wǎng)絡(luò)可能需要較多的代碼,但它會(huì)提供給你驚人數(shù)量的語言綁定(C++、Python、R、JavaScript等)。
Mxnet庫真正出色的是分布式計(jì)算,它支持在多個(gè)CPU/GPU機(jī)訓(xùn)練你的網(wǎng)絡(luò),甚至可以在AWS、Azure以及YARN集群。
它確實(shí)需要更多的代碼來設(shè)立一個(gè)實(shí)驗(yàn)并在mxnet上運(yùn)行(與Keras相比),但如果你需要跨多個(gè)GPU或系統(tǒng)分配訓(xùn)練,我推薦mxnet。
sklearn-theano
有時(shí)候你并不需要終端到終端的培養(yǎng)一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。相反,你需要把CNN看作一個(gè)特征提取器。當(dāng)你沒有足夠的數(shù)據(jù)來從頭培養(yǎng)一個(gè)完整的CNN時(shí)它就會(huì)變得特別有用。僅僅需要把你的輸入圖像放入流行的預(yù)先訓(xùn)練架構(gòu),如OverFeat、AlexNet、VGGNet或GoogLeNet,然后從FC層提取特征(或任何您要使用的層)。
總之,這就是sklearn-theano的功能所在。你不能用它從頭到尾的訓(xùn)練一個(gè)模型,但它的神奇之處就是可以把網(wǎng)絡(luò)作為特征提取器。當(dāng)需要評(píng)估一個(gè)特定的問題是否適合使用深度學(xué)習(xí)來解決時(shí),我傾向于使用這個(gè)庫作為我的第一手判斷。
nolearn
我在PyImageSearch博客上用過幾次nolearn,主要是在我的MacBookPro上進(jìn)行一些初步的GPU實(shí)驗(yàn)和在AmazonEC2GPU實(shí)例中進(jìn)行深度學(xué)習(xí)。
Keras把Theano和TensorFlow包裝成了更具人性化的API,而nolearn也為Lasagne做了相同的事。此外,nolearn中所有的代碼都是與scikit-learn兼容的,這對(duì)我來說絕對(duì)是個(gè)超級(jí)的福利。
我個(gè)人不使用nolearn做卷積神經(jīng)網(wǎng)絡(luò)(CNNs),但你當(dāng)然也可以用(我更喜歡用Keras和mxnet來做CNNs)。我主要用nolearn來制作DeepBeliefNetworks(DBNs)。
DIGITS
DIGITS并不是一個(gè)真正的深度學(xué)習(xí)庫(雖然它是用Python寫的)。DIGITS(深度學(xué)習(xí)GPU培訓(xùn)系統(tǒng))實(shí)際上是用于培訓(xùn)Caffe深度學(xué)習(xí)模式的web應(yīng)用程序(雖然我認(rèn)為你可以破解源代碼然后使用Caffe以外其他的后端進(jìn)行工作,但這聽起來就像一場噩夢(mèng))。
如果你曾經(jīng)用過Caffe,那么你就會(huì)知道通過它的終端來定義.prototxt文件、生成圖像數(shù)據(jù)、運(yùn)行網(wǎng)絡(luò)并監(jiān)管你的網(wǎng)絡(luò)訓(xùn)練是相當(dāng)繁瑣的。DIGITS旨在通過讓你在瀏覽器中執(zhí)行這些任務(wù)來解決這個(gè)問題。
此外,DIGITS的用戶界面非常出色,它可以為你提供有價(jià)值的統(tǒng)計(jì)數(shù)據(jù)和圖表作為你的模型訓(xùn)練。另外,你可以通過各種輸入輕松地可視化網(wǎng)絡(luò)中的激活層。最后,如果您想測試一個(gè)特定的圖像,您可以把圖片上傳到你的DIGITS服務(wù)器或進(jìn)入圖片的URL,然后你的Caffe模型將會(huì)自動(dòng)分類圖像并把結(jié)果顯示在瀏覽器中。干凈利落!
Blocks
說實(shí)話,雖然我一直想嘗試,但截至目前我的確從來沒用過Blocks(這也是我把它包括在這個(gè)列表里的原因)。就像許多個(gè)在這個(gè)列表中的其他庫一樣,Blocks建立在Theano之上,呈現(xiàn)出一個(gè)用戶友好型的API。
deepy
如果讓你猜deepy是圍繞哪個(gè)庫建立的,你會(huì)猜什么?
沒錯(cuò),就是Theano。
我記得在前一段時(shí)間用過deepy(做了初始提交),但在接下里的大概6-8個(gè)月我都沒有碰它了。我打算在接下來的博客文章里再嘗試一下。
pylearn2
雖然我從沒有主動(dòng)地使用pylearn2,但由于歷史原因,我覺得很有必要把它包括在這個(gè)列表里。Pylearn2不僅僅是一般的機(jī)器學(xué)習(xí)庫(地位類似于scikit-learn),也包含了深度學(xué)習(xí)算法的實(shí)現(xiàn)。
對(duì)于pylearn2我最大的擔(dān)憂就是(在撰寫本文時(shí)),它沒有一個(gè)活躍的開發(fā)者。正因?yàn)槿绱耍啾扔谙馣eras和mxnet這樣的有積極維護(hù)的庫,推薦pylearn2我還有些猶豫。
Deeplearning4j
這本應(yīng)是一個(gè)基于Python的列表,但我想我會(huì)把Deeplearning4j包括在這里,主要是出于對(duì)他們所做事跡的無比崇敬——Deeplearning4j為JVM建立了一個(gè)開源的、分布式的深度學(xué)習(xí)庫。
如果您在企業(yè)工作,你可能會(huì)有一個(gè)塞滿了用過的Hadoop和MapReduce服務(wù)器的儲(chǔ)存器。也許這些你還在用,也許早就不用了。
你怎樣才能把這些相同的服務(wù)器應(yīng)用到深度學(xué)習(xí)里?
事實(shí)證明是可以的——你只需要Deeplearning4j。
以上內(nèi)容為大家介紹了最常用的Python深度學(xué)習(xí)庫,希望對(duì)大家有所幫助,如果想要了解更多Python相關(guān)知識(shí),請(qǐng)關(guān)注IT培訓(xùn)機(jī)構(gòu):千鋒教育。http://m.2667701.com/