摘要:近年來,深度學(xué)習(xí)在計(jì)算機(jī)感知自然語言處理和控制方面取得了重大進(jìn)展。位列新澤西州的發(fā)明家名人堂,并獲得年神經(jīng)網(wǎng)絡(luò)先鋒獎年杰出研究獎年終身成就獎和來自墨西哥的名譽(yù)博士學(xué)位。
Yann Lecun是卷積網(wǎng)絡(luò)模型的發(fā)明者,該模型被廣泛地應(yīng)用于模式識別應(yīng)用中,因此他也被稱為卷積網(wǎng)絡(luò)之父,是公認(rèn)的世界人工智能三巨頭之一。 2018年11月08日,他來到加州大學(xué)圣巴巴拉分校,為在場師生作了一場關(guān)于自監(jiān)督學(xué)習(xí)的前沿報(bào)告,近日他在twitter上公開了報(bào)告的全程錄像以及Slides全文,現(xiàn)為大家編譯如下。
介紹:
11月08日,應(yīng)加州大學(xué)圣巴巴拉分校,統(tǒng)計(jì)與應(yīng)用概率學(xué)系(Department of Statistics and Applied Probability)邀請,F(xiàn)acebook副總裁兼人工智能科學(xué)家、紐約大學(xué)數(shù)據(jù)科學(xué)中心創(chuàng)始主任Yann Lecun為在場師生做了一場自監(jiān)督學(xué)習(xí)的前沿報(bào)告。
近年來,深度學(xué)習(xí)在計(jì)算機(jī)感知、自然語言處理和控制方面取得了重大進(jìn)展。但幾乎所有這些成功都在很大程度上依賴于有監(jiān)督學(xué)習(xí),在監(jiān)督學(xué)習(xí)中,機(jī)器被要求預(yù)測人類提供的標(biāo)簽信息,或通過無模型的強(qiáng)化學(xué)習(xí)方法,不斷的嘗試各種行為空間的動作,以期達(dá)到收益(reward)較大化。這導(dǎo)致了監(jiān)督學(xué)習(xí)需要大量的標(biāo)記樣本,使得它只適用于特定的任務(wù)。而強(qiáng)化學(xué)習(xí)即使在簡單的學(xué)習(xí)任務(wù)中,也需要與環(huán)境進(jìn)行大量的交互。相比之下,動物和人類似乎只通過觀察和偶爾的互動便學(xué)會了大量與任務(wù)無關(guān)的關(guān)于世界如何運(yùn)轉(zhuǎn)的知識。動物學(xué)習(xí)新任務(wù)所需要的訓(xùn)練樣本,以及與世界的互動都非常的少。
我們甚至能在30個(gè)小時(shí)的練習(xí)中,學(xué)會如何駕駛飛機(jī)。那么人類和動物是如何進(jìn)行有效的學(xué)習(xí)呢?這里將提出一個(gè)假設(shè):即預(yù)測模型中的自監(jiān)督學(xué)習(xí),是人工智能方法中必不可少的一部分。有了這些模型,人們就可以預(yù)測結(jié)果并計(jì)劃如何行動,好的預(yù)測模型可能是直覺、推理和“常識”的基礎(chǔ),讓我們能夠填補(bǔ)缺失的信息:從過去和現(xiàn)在的經(jīng)驗(yàn)中預(yù)測未來,或從嘈雜的世界中推斷當(dāng)前的狀態(tài)。有人可能會說,預(yù)測是智力的本質(zhì),在簡要介紹了深度學(xué)習(xí)的現(xiàn)狀之后,我們將討論一些有前途的自監(jiān)督學(xué)習(xí)的原則和方法。
作者簡介:
在人工智能研究領(lǐng)域,Yann LeCun、Geoffrey Hinton 和 Yoshua Bengio一直被公認(rèn)為深度學(xué)習(xí)三巨頭。
Yann LeCun,自稱中文名“楊立昆”,計(jì)算機(jī)科學(xué)家,被譽(yù)為“卷積網(wǎng)絡(luò)之父”,為卷積神經(jīng)網(wǎng)絡(luò)(CNN,Convolutional Neural Networks)和圖像識別領(lǐng)域做出了重要貢獻(xiàn),以手寫字體識別、圖像壓縮和人工智能硬件等主題發(fā)表過 190 多份論文,研發(fā)了很多關(guān)于深度學(xué)習(xí)的項(xiàng)目,并且擁有14項(xiàng)相關(guān)的美國專利。他同Léon Bottou和Patrick Haffner等人一起創(chuàng)建了DjVu圖像壓縮技術(shù),同Léon Bottou一起開發(fā)了一種開源的Lush語言,比Matlab功能還要強(qiáng)大,并且也是一位Lisp高手。(Backpropagation,簡稱BP)反向傳播這種現(xiàn)階段常用來訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)的算法,就是 LeCun 和其老師“神經(jīng)網(wǎng)絡(luò)之父”Geoffrey Hinton 等科學(xué)家于 20 世紀(jì) 80 年代中期提出的,而后 LeCun 在貝爾實(shí)驗(yàn)室將 BP 應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中,并將其實(shí)用化,推廣到各種圖像相關(guān)任務(wù)中。
Yann LeCun 也是Facebook人工智能研究院院長,紐約大學(xué)的 Silver 教授,隸屬于紐約大學(xué)數(shù)據(jù)科學(xué)中心、Courant 數(shù)學(xué)科學(xué)研究所、神經(jīng)科學(xué)中心和電氣與計(jì)算機(jī)工程系。加盟Facebook之前,Lecun已在貝爾實(shí)驗(yàn)室工作超過20年,期間他開發(fā)了一套能夠識別手寫數(shù)字的系統(tǒng),叫作LeNet,用到了卷積神經(jīng)網(wǎng)絡(luò),已開源。他在 1983 年在巴黎 ESIEE 獲得電子工程學(xué)位,1987 年在 Université P&M Curie 獲得計(jì)算機(jī)科學(xué)博士學(xué)位。在完成了多倫多大學(xué)的博士后研究之后,他在 1988 年加入了 AT&T 貝爾實(shí)驗(yàn)室(AT&T Bell Laboratories /Holmdel, NJ),在 1996 年成為 AT&T Labs-Research 的圖像處理研究部門主管。2003 年,他加入紐約大學(xué)獲得教授任職,并在 NEC 研究所(普林斯頓)呆過短暫一段時(shí)間。2012 年他成為紐約大學(xué)數(shù)據(jù)科學(xué)中心的創(chuàng)辦主任。2013 年末,他成為 Facebook 的人工智能研究中心(FAIR)負(fù)責(zé)人,并仍保持在 NYU 中兼職教學(xué)。從 2015 到 2016 年,Yann LeCun 還是法蘭西學(xué)院的訪問學(xué)者。
LeCun 是 ICLR 的發(fā)起人和常任聯(lián)合主席(general co-chair),并且曾在多個(gè)編輯委員會和會議組織委員會任職。他是加拿大高級研究所(Canadian Institute for Advanced Research)機(jī)器與大腦學(xué)習(xí)(Learning in Machines and Brains)項(xiàng)目的聯(lián)合主席。他同樣是 IPAM 和 ICERM 的理事會成員。他曾是許多初創(chuàng)公司的顧問,并是 Elements Inc 和 Museami 的聯(lián)合創(chuàng)始人。LeCun 位列新澤西州的發(fā)明家名人堂,并獲得 2014 年 IEEE 神經(jīng)網(wǎng)絡(luò)先鋒獎(Neural Network Pioneer Award)、2015 年 IEEE PAMI 杰出研究獎、2016 年 Lovie 終身成就獎和來自墨西哥 IPN 的名譽(yù)博士學(xué)位。
視頻地址:
https://ucsb.app.box.com/s/msam98ewhhk48t60p75glvm9h0fv57fl
內(nèi)容大綱:
1、深度學(xué)習(xí)現(xiàn)狀
2、強(qiáng)化學(xué)習(xí)進(jìn)展
3、距離真正的人工智能,我們錯(cuò)過了什么?
4、可微分編程:深度學(xué)習(xí)與推理的結(jié)合
5、學(xué)習(xí)真實(shí)世界的預(yù)測模型
6、對抗訓(xùn)練
7、采用對抗訓(xùn)練的視頻預(yù)測方法
8、語義分割中的視頻預(yù)測方法
9、Stochastic Latent-Variable Forward Model:目標(biāo)編碼網(wǎng)絡(luò)
10、AI對未來的影響
內(nèi)容全文:
聲明:文章收集于網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系小編及時(shí)處理,謝謝!
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.hztianpu.com/yun/4832.html
摘要:無監(jiān)督式學(xué)習(xí)是突破困境的關(guān)鍵,采用無監(jiān)督學(xué)習(xí)的對抗訓(xùn)練讓擁有真正自我學(xué)習(xí)的能力。如何讓擁有人類的常識認(rèn)為要用無監(jiān)督式學(xué)習(xí)。強(qiáng)化學(xué)習(xí)是蛋糕上不可或缺的櫻桃,所需要資料量可能大約只有幾個(gè),監(jiān)督式學(xué)習(xí) 6 月 29 日,臺灣大學(xué)。卷積神經(jīng)網(wǎng)絡(luò)之父、FacebookAI 研究院院長 Yann LeCun 以「Deep Learning and the Path to AI」為題,對深度學(xué)習(xí)目前的發(fā)展...
摘要:幾乎沒有人比歲的更能與深度學(xué)習(xí)緊密地聯(lián)系在一起。他于年成為紐約大學(xué)教授,并從此引領(lǐng)了深度學(xué)習(xí)的發(fā)展。最近,深度學(xué)習(xí)及其相關(guān)領(lǐng)域已然成為最活躍的計(jì)算機(jī)研究領(lǐng)域之一。 本文原載IEEE,作者Lee Gomes,由機(jī)器之心翻譯出品,參與成員:電子羊、翬、泥泥劉、赤龍飛、鄭勞蕾、流明。人工智能經(jīng)歷了幾次低潮時(shí)期,這些灰暗時(shí)光被稱作「AI寒冬」。這里說的不是那段時(shí)期,事實(shí)上,人工智能如今變得異常火熱,...
摘要:主流機(jī)器學(xué)習(xí)社區(qū)對神經(jīng)網(wǎng)絡(luò)興趣寡然。對于深度學(xué)習(xí)的社區(qū)形成有著巨大的影響。然而,至少有兩個(gè)不同的方法對此都很有效應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)的簡單梯度下降適用于信號和圖像,以及近期的逐層非監(jiān)督式學(xué)習(xí)之后的梯度下降。 我們終于來到簡史的最后一部分。這一部分,我們會來到故事的尾聲并一睹神經(jīng)網(wǎng)絡(luò)如何在上世紀(jì)九十年代末擺脫頹勢并找回自己,也會看到自此以后它獲得的驚人先進(jìn)成果?!冈噯枡C(jī)器學(xué)習(xí)領(lǐng)域的任何一人,是什...
摘要:多加了這兩層卷積層和匯集層是卷積神經(jīng)網(wǎng)絡(luò)和普通舊神經(jīng)網(wǎng)絡(luò)的主要區(qū)別。卷積神經(jīng)網(wǎng)絡(luò)的操作過程那時(shí),卷積的思想被稱作權(quán)值共享,也在年和關(guān)于反向傳播的延伸分析中得到了切實(shí)討論。 導(dǎo)讀:這是《神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)簡史》第二部分,這一部分我們會了解BP算法發(fā)展之后一些取得迅猛發(fā)展的研究,稍后我們會看到深度學(xué)習(xí)的關(guān)鍵性基礎(chǔ)。神經(jīng)網(wǎng)絡(luò)獲得視覺隨著訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的謎題被揭開,這個(gè)話題再一次變得空前熱門,羅森...
摘要:人工智能的主流算法深度學(xué)習(xí)的歷史,堪稱也是深度學(xué)習(xí)三劍客和共同走過的年艱難而輝煌的不悔人生。之后使用一種稱為監(jiān)督學(xué)習(xí)的方法來訓(xùn)練感知器,以正確區(qū)分不同形狀。表示,多層次神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)并不會使感知器強(qiáng)大到有實(shí)用價(jià)值。 人工智能的主流算法Deep Learning深度學(xué)習(xí)的歷史,堪稱Deep History, 也是深度學(xué)習(xí)三劍客Geoff Hinton, Yann LeCun 和Yoshua B...
閱讀 2725·2021-11-17 17:00
閱讀 2016·2021-10-11 10:57
閱讀 3847·2021-09-09 11:33
閱讀 1042·2021-09-09 09:33
閱讀 3617·2019-08-30 14:20
閱讀 3425·2019-08-29 11:25
閱讀 2875·2019-08-26 13:48
閱讀 818·2019-08-26 11:52