摘要:在的一條評論中,的作者谷歌研究員宣布了一條激動(dòng)人心的消息將會(huì)成為第一個(gè)被添加到核心中的高級別框架,這將會(huì)讓變成的默認(rèn)。但是,和確實(shí)證實(shí)了我的想法和神經(jīng)網(wǎng)絡(luò)不一定都是那么折磨人的。
在 Reddit 的一條評論中,Keras 的作者、谷歌 AI 研究員 Francois Chollet 宣布了一條激動(dòng)人心的消息:Keras 將會(huì)成為第一個(gè)被添加到 TensorFlow 核心中的高級別框架,這將會(huì)讓 Keras 變成 Tensorflow 的默認(rèn) API。
背景介紹:Keras 是一個(gè)高級別的 Python 神經(jīng)網(wǎng)絡(luò)框架,能在 TensorFlow 或者 Theano 上運(yùn)行。此外,能用到 TensorFlow 上的還有一些高級別的 Python 神經(jīng)網(wǎng)絡(luò)框架,比如,TF-Slim,雖然它們發(fā)展更不完善,也不是 TensorFlow 的核心部分。
神經(jīng)網(wǎng)絡(luò)研究者 Rachel Thomas 在 fast.ai 上撰文介紹了這一消息,并寫下了他使用TensorFlow 的心得體會(huì):
他說,使用 TensorFlow 給我的感覺就是我還不夠聰明,但是,在使用 Keras 的時(shí)候我會(huì)覺得神經(jīng)網(wǎng)絡(luò)要比我想象的簡單。這是因?yàn)?,TensorFlow 的 API 過于冗長和混亂,也是因?yàn)?Keras 擁有我體驗(yàn)過的最貼心的、最具表達(dá)力的 API。對我來說,在剛開始使用TensorFlow 受挫后就來公開批評它有點(diǎn)尷尬,它讓人覺得沉重、不自然。當(dāng)然,其中有我自己的原因。但是,Keras 和 Theano 確實(shí)證實(shí)了我的想法:tensors 和 神經(jīng)網(wǎng)絡(luò)不一定都是那么折磨人的。
在一次大學(xué)作業(yè)中,我曾經(jīng)使用一個(gè)硬件描述語言,通過添加和改變 CPU 暫存器中的字節(jié)來編碼除法(division)。這是一個(gè)很有趣的練習(xí),但是我非常確定,我不想用這種方式對神經(jīng)網(wǎng)絡(luò)進(jìn)行編碼。使用一個(gè)更高級別的語言的好處是顯而易見的:更快地編碼、更少的bug,以及,更少的痛苦。Keras 的好處還有更多——它更適配神經(jīng)網(wǎng)絡(luò)的概念,能促進(jìn)新的發(fā)現(xiàn)。Keras 讓我更加擅長神經(jīng)網(wǎng)絡(luò),因?yàn)檎Z言抽象與神經(jīng)網(wǎng)絡(luò)的概念搭配得更加好。
使用與我的思維相同的概念語言寫程序,能讓我把注意力集中在需要解決的難題上,而不是編程語言的偽跡上。因?yàn)?,?dāng)我把更多的精力花在頭腦中的思維與編程語言之間的概念轉(zhuǎn)換的時(shí)候,我的思考就會(huì)變慢。TensorFlow 影響了我的生產(chǎn)力。
正如 Chollet 所寫:“如果你想要長期使用一個(gè)更高級別的面向?qū)ο蟮?TF API ,Karas 就是正確的道路?!?/p>歡迎加入本站公開興趣群
商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.hztianpu.com/yun/4442.html
摘要:我們對種用于數(shù)據(jù)科學(xué)的開源深度學(xué)習(xí)庫作了排名。于年月發(fā)布了第名,已經(jīng)躋身于深度學(xué)習(xí)庫的上半部分。是最流行的深度學(xué)習(xí)前端第位是排名較高的非框架庫。頗受對數(shù)據(jù)集使用深度學(xué)習(xí)的數(shù)據(jù)科學(xué)家的青睞。深度學(xué)習(xí)庫的完整列表來自幾個(gè)來源。 我們對23種用于數(shù)據(jù)科學(xué)的開源深度學(xué)習(xí)庫作了排名。這番排名基于權(quán)重一樣大小的三個(gè)指標(biāo):Github上的活動(dòng)、Stack Overflow上的活動(dòng)以及谷歌搜索結(jié)果。排名結(jié)果...
摘要:但年月,宣布將在年終止的開發(fā)和維護(hù)。性能并非最優(yōu),為何如此受歡迎粉絲團(tuán)在過去的幾年里,出現(xiàn)了不同的開源深度學(xué)習(xí)框架,就屬于其中典型,由谷歌開發(fā)和支持,自然引發(fā)了很大的關(guān)注。 Keras作者Fran?ois Chollet剛剛在Twitter貼出一張圖片,是近三個(gè)月來arXiv上提到的深度學(xué)習(xí)開源框架排行:TensorFlow排名第一,這個(gè)或許并不出意外,Keras排名第二,隨后是Caffe、...
摘要:兩者取長補(bǔ)短,所以深度學(xué)習(xí)框架在年,迎來了前后端開發(fā)的黃金時(shí)代。陳天奇在今年的中,總結(jié)了計(jì)算圖優(yōu)化的三個(gè)點(diǎn)依賴性剪枝分為前向傳播剪枝,例已知,,求反向傳播剪枝例,,求,根據(jù)用戶的求解需求,可以剪掉沒有求解的圖分支。 虛擬框架殺入從發(fā)現(xiàn)問題到解決問題半年前的這時(shí)候,暑假,我在SIAT MMLAB實(shí)習(xí)??粗乱粫?huì)兒跑Torch,一會(huì)兒跑MXNet,一會(huì)兒跑Theano。SIAT的服務(wù)器一般是不...
摘要:第一個(gè)深度學(xué)習(xí)框架該怎么選對于初學(xué)者而言一直是個(gè)頭疼的問題。簡介和是頗受數(shù)據(jù)科學(xué)家歡迎的深度學(xué)習(xí)開源框架。就訓(xùn)練速度而言,勝過對比總結(jié)和都是深度學(xué)習(xí)框架初學(xué)者非常棒的選擇。 「第一個(gè)深度學(xué)習(xí)框架該怎么選」對于初學(xué)者而言一直是個(gè)頭疼的問題。本文中,來自 deepsense.ai 的研究員給出了他們在高級框架上的答案。在 Keras 與 PyTorch 的對比中,作者還給出了相同神經(jīng)網(wǎng)絡(luò)在不同框...
摘要:主要的功能和改進(jìn)上支持。對象現(xiàn)在從屬于,在發(fā)布時(shí)的嚴(yán)格描述已經(jīng)被刪除一個(gè)首次被使用,它自己緩存其范圍。在發(fā)布前,許多的的功能和類別都在命名空間中,后被移到。雖然我們會(huì)盡量保持源代碼與兼容,但不能保證。為增加了雙線性插值。 主要的功能和改進(jìn)1. Windows上支持Python3.6。2. 時(shí)空域去卷積(spatio temporal deconvolution.)增加了tf.layers.c...
閱讀 2430·2021-11-15 11:38
閱讀 3617·2021-09-22 15:16
閱讀 1256·2021-09-10 11:11
閱讀 3247·2021-09-10 10:51
閱讀 3072·2019-08-30 15:56
閱讀 2846·2019-08-30 15:44
閱讀 3242·2019-08-28 18:28
閱讀 3582·2019-08-26 13:36