摘要:深度學(xué)習(xí)浪潮這些年來(lái),深度學(xué)習(xí)浪潮一直沖擊著計(jì)算語(yǔ)言學(xué),而看起來(lái)年是這波浪潮全力沖擊自然語(yǔ)言處理會(huì)議的一年。深度學(xué)習(xí)的成功過(guò)去幾年,深度學(xué)習(xí)無(wú)疑開(kāi)辟了驚人的技術(shù)進(jìn)展。
機(jī)器翻譯、聊天機(jī)器人等自然語(yǔ)言處理應(yīng)用正隨著深度學(xué)習(xí)技術(shù)的進(jìn)展而得到更廣泛和更實(shí)際的應(yīng)用,甚至?xí)屓苏J(rèn)為深度學(xué)習(xí)可能就是自然語(yǔ)言處理的終極解決方案,但斯坦福大學(xué)計(jì)算機(jī)科學(xué)和語(yǔ)言學(xué)教授 Christopher D. Manning 并不這么看,他認(rèn)為深度學(xué)習(xí)確實(shí)能在自然語(yǔ)言處理領(lǐng)域有很大作為,但卻并不能取代計(jì)算語(yǔ)言學(xué)。
深度學(xué)習(xí)浪潮
這些年來(lái),深度學(xué)習(xí)浪潮一直沖擊著計(jì)算語(yǔ)言學(xué),而看起來(lái) 2015 年是這波浪潮全力沖擊自然語(yǔ)言處理(NLP)會(huì)議的一年。然而,一些專家預(yù)測(cè)其帶來(lái)的破壞最后還會(huì)更糟糕。2015 年,除了法國(guó)里爾召開(kāi)的 ICML 大會(huì),還有另外一個(gè)幾乎同樣大的事件:2015 深度學(xué)習(xí)研討會(huì)(2015 Deep Learning Workshop)。該研討會(huì)以一個(gè) panel 討論結(jié)束,正如 Neil Lawrence 在該 panel 上所說(shuō)的:「NLP 有點(diǎn)(kind of)像是深度學(xué)習(xí)機(jī)器車燈前的一只兔子,等著被壓扁?!购苊黠@,計(jì)算語(yǔ)言學(xué)界需要慎重了!它會(huì)是我的道路的終點(diǎn)嗎?這些壓路機(jī)般的預(yù)測(cè)來(lái)自哪里?
2015 年 6 月,巴黎 Facebook 人工智能實(shí)驗(yàn)室開(kāi)幕上,負(fù)責(zé)人 Yann LeCun 說(shuō):「深度學(xué)習(xí)的下一大步是自然語(yǔ)言理解,不只是給機(jī)器理解單個(gè)詞的能力,而是理解整個(gè)句子、段落的能力。」
在 2014 年 11 月的 Reddit AMA(Ask Me Anything/隨便問(wèn))問(wèn)答上,Geoff Hinton 說(shuō):「我認(rèn)為接下來(lái) 5 年,最令人激動(dòng)的領(lǐng)域?qū)?huì)是理解文本和視頻。如果 5 年內(nèi)我們還沒(méi)有在看過(guò) YouTube 視頻后能說(shuō)出發(fā)生了什么的東西,我會(huì)感到很失望。數(shù)年內(nèi),我們將會(huì)把深度學(xué)習(xí)安置到能夠放進(jìn)耳朵那樣的芯片上,并造出像巴別魚(yú)(《銀河系漫游指南》中出現(xiàn)的:如果你把一條巴別魚(yú)塞進(jìn)耳朵,就能立刻理解以任何形式的語(yǔ)言對(duì)你說(shuō)的任何事情。)那樣的英語(yǔ)解碼芯片?!?/p>
此外,現(xiàn)代深度學(xué)習(xí)的另一位泰斗 Yoshua Bengio,也逐漸增加了他們團(tuán)隊(duì)在語(yǔ)言方面的研究,包括最近在神經(jīng)機(jī)器翻譯系統(tǒng)上令人激動(dòng)的新研究。
從左到右:Russ Salakhutdinov(卡耐基梅隆大學(xué)機(jī)器學(xué)習(xí)系副教授)、Rich Sutton(阿爾伯塔大學(xué)計(jì)算機(jī)科學(xué)教授)、Geoff Hinton(在谷歌工作的認(rèn)知心理學(xué)家和計(jì)算機(jī)科學(xué)家)、Yoshua Bengio(因在人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的工作而知名的計(jì)算機(jī)科學(xué)家)和 2016 年討論機(jī)器智能的一個(gè) panel 的主持人 Steve Jurvetson,機(jī)器之心當(dāng)時(shí)對(duì)此論壇進(jìn)行了現(xiàn)場(chǎng)報(bào)道,參閱:《 | Hinton、Bengio、Sutton 等巨頭聚首多倫多:通過(guò)不同路徑實(shí)現(xiàn)人工智能的下一個(gè)目標(biāo) 》
不只是深度學(xué)習(xí)研究者這么認(rèn)為。機(jī)器學(xué)習(xí)領(lǐng)軍人物 Michael Jordan 在 2014 年 9 月的 AMA 問(wèn)答上被問(wèn)到「如果在研究上你獲得了 10 億美元投入一個(gè)大項(xiàng)目,你想做什么?」他回答說(shuō),「我會(huì)使用這 10 億美元建立一個(gè)專注于自然語(yǔ)言處理的 NASA 級(jí)項(xiàng)目,包括所有的方面(語(yǔ)義、語(yǔ)用等)?!顾^續(xù)補(bǔ)充說(shuō),「我非常理性地認(rèn)為 NLP 如此迷人,能讓我們專注于高度結(jié)構(gòu)化的推斷問(wèn)題上,在『什么是思想』這樣的問(wèn)題上直入核心,但明顯更實(shí)際。它無(wú)疑也是一種能讓世界變得更好的技術(shù)?!灌?,聽(tīng)起來(lái)不錯(cuò)。那么,計(jì)算語(yǔ)言學(xué)研究人員應(yīng)該害怕嗎?我認(rèn)為,不!回到 Geoff Hinton 前面提到的巴別魚(yú),我們要把《銀河系漫游指南》拿出來(lái)看看,其封面上用大而友好的字寫著「不要驚慌」。
深度學(xué)習(xí)的成功
過(guò)去幾年,深度學(xué)習(xí)無(wú)疑開(kāi)辟了驚人的技術(shù)進(jìn)展。這里我就不再詳介,但舉個(gè)例子說(shuō)明。谷歌最近的一篇博客介紹了 Neon,也就是用于的 Google Voice 新的轉(zhuǎn)錄系統(tǒng)。在承認(rèn)舊版的 Google Voice 語(yǔ)音郵件轉(zhuǎn)錄不夠智能之后,谷歌在博客中介紹了 Neon 的開(kāi)發(fā),這是一個(gè)能夠提供更準(zhǔn)確轉(zhuǎn)錄的語(yǔ)音郵件系統(tǒng),例如,「(Neon)使用一種長(zhǎng)短期記憶深度循環(huán)神經(jīng)網(wǎng)絡(luò)(長(zhǎng)舒一口氣,whew!),我們將轉(zhuǎn)錄的錯(cuò)誤率降低了 49%?!刮覀儾欢荚趬?mèng)想開(kāi)發(fā)一種新方法,能夠?qū)⒅拜^高級(jí)結(jié)果的錯(cuò)誤率降低一半嗎?
為什么計(jì)算語(yǔ)言學(xué)家不需要擔(dān)心
Michael Jordan 在 AMA 中給出了兩個(gè)理由解釋為什么他認(rèn)為深度學(xué)習(xí)不能解決 NLP 問(wèn)題,「盡管現(xiàn)在的深度學(xué)習(xí)研究?jī)A向于圍繞 NLP,但(1)我仍舊不相信它在 NLP 上的結(jié)果強(qiáng)于視覺(jué);(2)我仍舊不相信在 NLP 的案例中強(qiáng)于視覺(jué)。這種方法就是將巨量數(shù)據(jù)和黑箱的學(xué)習(xí)架構(gòu)結(jié)合起來(lái)」在第一個(gè)論點(diǎn)上,Jordan 很正確:目前,在高層語(yǔ)言處理問(wèn)題上,深度學(xué)習(xí)還無(wú)法像語(yǔ)音識(shí)別、視覺(jué)識(shí)別那樣極大降低錯(cuò)誤率。盡管也有所成果,但不像降低 25% 或 50% 的錯(cuò)誤率那樣驟然。而且可以很輕松地遇見(jiàn)這種情況還將持續(xù)。真正的巨大收獲可能只在信號(hào)處理任務(wù)上有可能。
語(yǔ)言學(xué)領(lǐng)域的人,NLP 領(lǐng)域的人,才是真正的設(shè)計(jì)者。
另一方面,第二個(gè) 我。然而,對(duì)于為什么 NLP 不需要擔(dān)憂深度學(xué)習(xí),我確實(shí)有自己的兩個(gè)理由:(1) 對(duì)于我們領(lǐng)域內(nèi)最聰明、在機(jī)器學(xué)習(xí)方面最具影響力的人來(lái)說(shuō) NLP 才是需要聚焦的問(wèn)題領(lǐng)域,這很美妙; (2) 我們的領(lǐng)域是語(yǔ)言技術(shù)的領(lǐng)域(domain)科學(xué);它不是關(guān)于機(jī)器學(xué)習(xí)的較佳方法——中心問(wèn)題仍然是領(lǐng)域問(wèn)題。這個(gè)領(lǐng)域問(wèn)題不會(huì)消失。Joseph Reisinger 在其博客上寫道:「我經(jīng)常在初創(chuàng)公司做通用機(jī)器學(xué)習(xí),坦誠(chéng)講,這是一個(gè)相當(dāng)荒謬的想法。機(jī)器學(xué)習(xí)并不是毫無(wú)差別的累活,它沒(méi)有像 EC2 那樣商品化,并比編碼更接近于設(shè)計(jì)?!?/p>
從這個(gè)角度看,語(yǔ)言學(xué)領(lǐng)域的人、NLP 領(lǐng)域的人,才是真正的設(shè)計(jì)者。近期的 ACL 會(huì)議已經(jīng)過(guò)于關(guān)注數(shù)量、關(guān)注突破較高級(jí)成果了??煞Q之為 Kaggle 競(jìng)賽。該領(lǐng)域的更多努力應(yīng)該面向問(wèn)題、方法以及架構(gòu)。最近,我同合作者一直專注的一件事是開(kāi)發(fā)普遍依存關(guān)系(Universal Dependencies)。目標(biāo)是開(kāi)發(fā)出通用的句法依存表征、POS 和特征標(biāo)記集。這只是一個(gè)例子,該領(lǐng)域還有其他的設(shè)計(jì)努力,比如抽象含義表征(Abstract Meaning Representation)的思路。
語(yǔ)言的深度學(xué)習(xí)
深度學(xué)習(xí)到底在哪些方面幫助了自然語(yǔ)言處理?從使用分布式詞表征,即使用真實(shí)值向量表征詞與概念來(lái)看,到目前為止,NLP 并沒(méi)有從深度學(xué)習(xí)(使用更抽象的層級(jí)表征提升泛化能力)獲得較大的提高。所有詞之間的相似性如具有密集和多維度表征,那么將在但不僅限于 NLP 中十分有用。事實(shí)上,分布式表征的重要性喚起了早期神經(jīng)網(wǎng)絡(luò)的「分布式并行處理」浪潮,而那些方法更具有更多的認(rèn)知科學(xué)導(dǎo)向性焦點(diǎn)(Rumelhart 和 McClelland 1986)。這種方法不僅能更好地解釋類人的泛化,同時(shí)從工程的角度來(lái)說(shuō),使用小維度和密集型詞向量允許我們對(duì)大規(guī)模語(yǔ)境建模,從而大大提高語(yǔ)言模型。從這個(gè)角度來(lái)看,提高傳統(tǒng)的詞 n-gram 模型順序會(huì)造成指數(shù)級(jí)的稀疏性并似乎會(huì)在概念性上破產(chǎn)。
智能需要能從知道小的部分理解整個(gè)大的事物。
我確實(shí)相信深度模型會(huì)很有用的。在深度表征中發(fā)生的共享在理論上可以給出指數(shù)級(jí)的表征優(yōu)勢(shì),并在實(shí)際上提升學(xué)習(xí)系統(tǒng)的性能。構(gòu)建深度學(xué)習(xí)系統(tǒng)的一般方法是優(yōu)秀而強(qiáng)大的:在端到端學(xué)習(xí)框架中,研究人員定義了模型的架構(gòu)和較好的損失函數(shù)(loss function),然后對(duì)模型的參數(shù)和表征進(jìn)行自組織學(xué)習(xí)以最小化該損失。我們接下來(lái)會(huì)了解最近所研究的深度學(xué)習(xí)系統(tǒng):神經(jīng)機(jī)器翻譯(neural machine translation/Sutskever, Vinyals, and Le 2014; Luong et al 2015)。
最后,我一直主張更多地關(guān)注模型的語(yǔ)義合成性,特別是語(yǔ)言和一般人工智能方面上。智能需要能從知道小的部分理解整個(gè)大的事物。尤其是語(yǔ)言,理解小說(shuō)和復(fù)雜句子的關(guān)鍵在于能否從較小的部分(單詞和短語(yǔ))構(gòu)建整體的意義。
最近,許多論文展示了如何從由「深度學(xué)習(xí)」方法的分布式詞表征來(lái)提升系統(tǒng)性能的方法,如 word2vec (Mikolov et al. 2013) 或 GloVe (Pennington, Socher, and Manning 2014)。然而,這并不是構(gòu)建深度學(xué)習(xí)模型,我也希望未來(lái)有更多的人關(guān)注強(qiáng)語(yǔ)言學(xué)的問(wèn)題,即我們能否在深度學(xué)習(xí)系統(tǒng)上構(gòu)建語(yǔ)義合成功能。
連接計(jì)算語(yǔ)言學(xué)和深度學(xué)習(xí)的科學(xué)問(wèn)題
我不鼓勵(lì)人們?yōu)榱耸褂迷~向量來(lái)增長(zhǎng)一點(diǎn)性能而努力研究,我建議我們可以回到一些有趣的語(yǔ)言學(xué)和認(rèn)知性問(wèn)題上,這些問(wèn)題將促進(jìn)非分類表征和神經(jīng)網(wǎng)絡(luò)方法的發(fā)展。
自然語(yǔ)言中非分類現(xiàn)象的一個(gè)例子是動(dòng)名詞 V-ing 形式(如 driving)的 POS。這種形式在動(dòng)詞形式和名詞性動(dòng)名詞之間的經(jīng)典描述是具有歧義的。事實(shí)上,真實(shí)情況是更復(fù)雜的,因?yàn)?V-ing 形式能出現(xiàn)在 Chomsky (1970) 的四種核心類別中:
更有趣的是,有證據(jù)表明其不僅有歧義,同時(shí)還混合了名詞-動(dòng)詞的狀態(tài)。例如,作為名詞的經(jīng)典語(yǔ)言學(xué)文本和限定詞一同出現(xiàn),而作為動(dòng)詞的經(jīng)典語(yǔ)言學(xué)文本采用的是直接對(duì)象。然而,眾所周知?jiǎng)用~名詞化可以同時(shí)做到這兩件事情:
1. The not observing this rule is that which the world has blamed in our satorist. (Dryden, Essay Dramatick Poesy, 1684, page 310)
2. The only mental provision she was making for the evening of life, was the collecting and transcribing all the riddles of every sort that she could meet with. (Jane Austen, Emma, 1816)
3. The difficulty is in the getting the gold into Erewhon. (Sam Butler, Erewhon Revisited, 1902)
這通常是在短語(yǔ)結(jié)構(gòu)樹(shù)形圖的層次中通過(guò)某種類別的變更操作進(jìn)行分析,但有證據(jù)表明,這個(gè)其實(shí)是語(yǔ)言中非分類行為的一種情況。
確實(shí),這個(gè)解釋早期用于 Ross (1972) 的「squish」案例。歷時(shí)的(Diachronically),V-ing 形式表現(xiàn)出動(dòng)詞化的增長(zhǎng)歷史,但在許多時(shí)期,它表現(xiàn)出非常離散的狀態(tài)。如我們?cè)谶@個(gè)領(lǐng)域找到的明確評(píng)估判斷:
4. Tom"s winning the election was a big upset.
5. This teasing John all the time has got to stop.
6. There is no marking exams on Fridays.
7. The cessation hostilities was unexpected.?
限定詞和動(dòng)詞對(duì)象的眾多組合聽(tīng)起來(lái)并不是很好,但還是比通過(guò)派生詞素(如-ation)名詞化對(duì)象好多了。Houston (1985, page 320) 表明,V-ing 形式到離散詞性分類的分配要比連續(xù)型解釋在-ing 和-in 的語(yǔ)言交替性差得多(預(yù)測(cè)意義上)。他還認(rèn)為「語(yǔ)法類別存在于一個(gè)連續(xù)統(tǒng)一體,它們?cè)陬悇e之間沒(méi)有明確的邊界。」
我的一個(gè)研究生同學(xué) Whitney Tabor 探討了一個(gè)不同而有趣的案例。Tabor (1994) 研究了 kind of 和 sort of 用法的不同,我在 1999 年的教科書(shū)(Manning and Schutze 1999)介紹性章節(jié)中使用了該案例。名詞 kind 或 sort 能構(gòu)成名詞性短語(yǔ),或者作為副詞性修飾語(yǔ)的限制:
8. [That kind [of knife]] isn"t used much.
9. We are [kind of] hungry.
有趣的是,歧義性形式存在重新分析的路徑,如下面的語(yǔ)料對(duì),它們展示了一種形式是如何從另一種形式出現(xiàn)的。
10. [a [kind [of dense rock]]]
11. [a [[kind of] dense] rock]
Tabor (1994) 討論了古典英語(yǔ)為什么存在 kind,但極少或根本沒(méi)有 kind of 的用法。從中世紀(jì)英語(yǔ)開(kāi)始,為再分析提供生長(zhǎng)地的歧義語(yǔ)境開(kāi)始出現(xiàn)(案例 (13) 中的是 1570 年的語(yǔ)句),隨后的非歧義案例限制性修飾語(yǔ)出現(xiàn)了(案例(14)是 1830 年的語(yǔ)句):
12. A nette sent in to the see, and of alle kind of fishis gedrynge (Wyclif,1382)
13. Their finest and best, is a kind of course red cloth (True Report,1570)
14. I was kind of provoked at the way you came up (Mass. Spy,1830)
這是一段沒(méi)有同步性(synchrony)的歷史。
讀者們,你們留意到了我在第一段中引用的那個(gè)例子嗎?
15. NLP is kind of like a rabbit in the headlights of the deep learning machine (Neil Lawrence, DL workshop panel, 2015)
Whitney Tabor 使用一個(gè)小型的深度循環(huán)神經(jīng)網(wǎng)絡(luò)(具有兩個(gè)隱藏層)對(duì)這個(gè)演化過(guò)程進(jìn)行了建模。他在 1994 年利用與斯坦福的 Dave Rumelhart 一起工作的機(jī)會(huì)完成了該項(xiàng)研究。
就在最近,開(kāi)始有一些新的研究工作旨在駕馭用于建模和解釋語(yǔ)言差異與變化的分布式表征的力量。事實(shí)上,Sagi, Kaufmann, and Clark (2011) 使用了更加傳統(tǒng)的研究方法——潛在語(yǔ)義分析(Latent Semantic Analysis)來(lái)生成分布式語(yǔ)詞表征,展現(xiàn)分布式表征如何能捕捉到某個(gè)語(yǔ)義變化:隨著時(shí)間的推移,被指稱的對(duì)象范圍的擴(kuò)大和縮小。比如,在古英語(yǔ)(Old English)中,deer 是指任一動(dòng)物,但在中世紀(jì)以及現(xiàn)代英語(yǔ)中,這個(gè)單詞被用來(lái)清楚指稱某科動(dòng)物。dog 和 hound 的意思調(diào)了個(gè)個(gè)兒:在中世紀(jì)英語(yǔ)中,hound 被用來(lái)指稱任何一種犬科動(dòng)物,但是現(xiàn)在卻被用來(lái)指稱某特定子類,dog 的使用情況正好相反。
現(xiàn)在 NLP 對(duì)于機(jī)器學(xué)習(xí)和產(chǎn)業(yè)應(yīng)用問(wèn)題是如此關(guān)鍵,生活在這樣一個(gè)時(shí)代我們應(yīng)該感到興奮和高興。
圖 1:cell 與四個(gè)其它單詞的余弦相似度隨時(shí)間變化而變化(其中 1.0 表示較大相似度,0.0 表示無(wú)相似度)。
Kulkarni et al. (2015) 使用神經(jīng)詞嵌入(neural word embeddings)建模詞義的轉(zhuǎn)變,例如,過(guò)去一個(gè)世紀(jì)來(lái) gay 的含義的轉(zhuǎn)變(根據(jù) Google Books Ngrams 語(yǔ)料庫(kù))。在一個(gè)最近的 ACL 研討會(huì)上,Kim et al. (2014) 采用了一個(gè)相似方法——使用 word2vec——查看詞義的最近變化。例如,圖 1 中,2000 年左右他們表明 cell 的詞義如何從接近于 closet 和 dungeon 迅速改變?yōu)榻咏?phone 和 cordless。在這一語(yǔ)境中一個(gè)詞的含義是超出詞的所有含義的平均值,并通過(guò)使用頻率加權(quán)。
分布式表征的科學(xué)應(yīng)用越來(lái)越多,利用深度學(xué)習(xí)為語(yǔ)言現(xiàn)象建模,是神經(jīng)網(wǎng)絡(luò)之前興起的兩大特點(diǎn)。后來(lái),由于網(wǎng)絡(luò)上引用和確定深度學(xué)習(xí)研究工作上有些混亂,我認(rèn)為有兩個(gè)幾乎不再被提及的人:Dave Rumelhart 和 Jay McClelland。從圣地亞哥的并行分布式處理研究小組開(kāi)始,他們的研究項(xiàng)目就旨在從更加科學(xué)和認(rèn)知的角度研究神經(jīng)網(wǎng)絡(luò)。
利用神經(jīng)網(wǎng)絡(luò)來(lái)解決規(guī)則統(tǒng)領(lǐng)下的語(yǔ)言行為(rule-governed linguistic behavior)問(wèn)題是否妥當(dāng)?現(xiàn)在,研究人員對(duì)此提出了一些好的質(zhì)疑。資歷老一些的研究人員應(yīng)該還記得,多年前有關(guān)這一問(wèn)題的論戰(zhàn)讓 Steve Pinker 聲名鵲起,也奠定了他六位研究生職業(yè)生涯的基石。篇幅有限,我就不在這里展開(kāi)了。但是,從結(jié)果上來(lái)看,我認(rèn)為那一場(chǎng)爭(zhēng)論富有成效。爭(zhēng)論過(guò)后,Paul Smolensky 進(jìn)行了大量研究工作,研究基礎(chǔ)分類系統(tǒng)如何出現(xiàn),以及如何在一個(gè)神經(jīng)基質(zhì)中表征出來(lái)(Smolensky and Legendre 2006)。實(shí)際上,人們認(rèn)為 Paul Smolensky 在兔子洞里陷得太深,他將大部分精力投入到研究一種新的音系分類模型——最優(yōu)化理論(Optimality Theory)((Prince and Smolensky 2004)中。很多早期的科研工作被忽略掉了。在自然語(yǔ)言處理領(lǐng)域,回過(guò)頭來(lái)強(qiáng)調(diào)語(yǔ)言的認(rèn)知和科學(xué)調(diào)查重要性,而不是幾乎完全使用研究工程模型,這是有好處的。
總而言之,我認(rèn)為我們應(yīng)該為生活在自然語(yǔ)言處理被視為機(jī)器學(xué)習(xí)和工業(yè)應(yīng)用問(wèn)題核心的時(shí)代而感到激動(dòng)。我們的未來(lái)是光明的,但每個(gè)人都應(yīng)該更多地思考問(wèn)題、架構(gòu)、認(rèn)知科學(xué)和人類語(yǔ)言的細(xì)節(jié)。我們需要探討語(yǔ)言是如何學(xué)習(xí)、處理,又是如何產(chǎn)生變化的,而不是一次次在基準(zhǔn)測(cè)試中沖擊業(yè)內(nèi)較佳。
原文鏈接:http://mitp.nautil.us/article/170/last-words-computational-linguistics-and-deep-learning
歡迎加入本站公開(kāi)興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://m.hztianpu.com/yun/4524.html
摘要:在過(guò)去幾年中,深度學(xué)習(xí)改變了整個(gè)人工智能的發(fā)展。在本文中,我將介紹年深度學(xué)習(xí)的一些主要進(jìn)展,與年深度學(xué)習(xí)進(jìn)展版本一樣,我沒(méi)有辦法進(jìn)行詳盡的審查。最后的想法與去年的情況一樣,年深度學(xué)習(xí)技術(shù)的使用持續(xù)增加。 在過(guò)去幾年中,深度學(xué)習(xí)改變了整個(gè)人工智能的發(fā)展。深度學(xué)習(xí)技術(shù)已經(jīng)開(kāi)始在醫(yī)療保健,金融,人力資源,零售,地震檢測(cè)和自動(dòng)駕駛汽車等領(lǐng)域的應(yīng)用程序中出現(xiàn)。至于現(xiàn)有的成果表現(xiàn)也一直在穩(wěn)步提高。在學(xué)術(shù)...
摘要:于月日至日在意大利比薩舉行,主會(huì)于日開(kāi)始。自然語(yǔ)言理解領(lǐng)域的較高級(jí)科學(xué)家受邀在發(fā)表主旨演講。深度學(xué)習(xí)的方法在這兩方面都能起到作用。下一個(gè)突破,將是信息檢索。深度學(xué)習(xí)在崛起,在衰退的主席在卸任的告別信中這樣寫到我們的大會(huì)正在衰退。 SIGIR全稱ACM SIGIR ,是國(guó)際計(jì)算機(jī)協(xié)會(huì)信息檢索大會(huì)的縮寫,這是一個(gè)展示信息檢索領(lǐng)域中各種新技術(shù)和新成果的重要國(guó)際論壇。SIGIR 2016于 7月17...
摘要:深度學(xué)習(xí)近年來(lái)在中廣泛使用,在機(jī)器閱讀理解領(lǐng)域也是如此,深度學(xué)習(xí)技術(shù)的引入使得機(jī)器閱讀理解能力在最近一年內(nèi)有了大幅提高,本文對(duì)深度學(xué)習(xí)在機(jī)器閱讀理解領(lǐng)域的技術(shù)應(yīng)用及其進(jìn)展進(jìn)行了歸納梳理。目前的各種閱讀理解任務(wù)中完形填空式任務(wù)是最常見(jiàn)的類型。 關(guān)于閱讀理解,相信大家都不陌生,我們接受的傳統(tǒng)語(yǔ)文教育中閱讀理解是非常常規(guī)的考試內(nèi)容,一般形式就是給你一篇文章,然后針對(duì)這些文章提出一些問(wèn)題,學(xué)生回答這...
閱讀 1831·2021-11-16 11:44
閱讀 2543·2021-10-11 11:07
閱讀 4403·2021-10-09 09:41
閱讀 808·2021-09-22 15:52
閱讀 3396·2021-09-09 09:33
閱讀 2914·2019-08-30 15:55
閱讀 2374·2019-08-30 15:55
閱讀 909·2019-08-30 15:55