摘要:感知器是神經(jīng)網(wǎng)絡最簡單的形式,單層雙輸入感知器的結構如下感知器的作用是將輸入分類,超平面有線性分割函數(shù)定義下圖是感知器的線性分割兩輸入感知器和三輸入感知器的情形。計算隱藏層神經(jīng)網(wǎng)絡的實際輸出其中是隱藏層神經(jīng)元輸入的個數(shù)。
神經(jīng)網(wǎng)絡里面主要就是單層神經(jīng)網(wǎng)絡學習和多層神經(jīng)網(wǎng)絡學習,涉及到知識點主要就是感知器,線性分割,影藏層,權重校正,誤差的平方和等知識點。
感知器:是神經(jīng)網(wǎng)絡最簡單的形式,單層雙輸入感知器的結構如下:
感知器的作用是將輸入分類,超平面有線性分割函數(shù)定義:
下圖是感知器的線性分割:兩輸入感知器和三輸入感知器的情形。
感知器如何學習分類任務
感知器通過細微的調(diào)節(jié)權值來減少感知器的期望輸出和實際輸出之間的差別可以完成這一任務。
下面我們來介紹下感知器分類任務的訓練算法
設Y(p)為實際輸出,Yd(p)為期望輸出,e(p)為誤差,
則:
如果e(p)為+,就需要增加感知器的輸出Y(p),如果為負,就減少感知器的的輸出Y(p),因此可以建立下面的感知器的學習規(guī)則:
算法1:
步驟一:初始化。
設置權重w1,w2,...Wn和閾值o的初值,取值范圍為[-0.5,+0.5]。
步驟二:激活。
通過用輸入?以及期望輸入Yd(p)來激活感知器,在迭代p=1上計算實際輸出
其中n為感知器輸入的數(shù)量,step為階躍激活函數(shù)。
步驟三:權重訓練。
修改感知器的權重。
其中為迭代p上的權重校正。
通過delta規(guī)則計算權重校正:
步驟四:迭代。
迭代p加1,回到步驟二,重復以上過程直至收斂。(完)
可以訓練感知器執(zhí)行類似AND(a),OR(b),,但是不能通過訓練執(zhí)行異或邏輯操作(c):
四個常用的激活函數(shù)------階躍、符號、線性、s形函數(shù)如下圖:
單感知器僅僅能分類線性分割模式,要處理非線性的問題就只能通過多層網(wǎng)絡來解決。
多層神經(jīng)網(wǎng)絡:多感知器是有一個或者多個隱藏層的前饋網(wǎng)絡,如下圖有兩個隱藏層的多層感知器:
為什么需要隱藏層?
多層神經(jīng)網(wǎng)絡的每一個層都有特定的功能,輸入層接受來自外部世界的輸入信號,重新將信號發(fā)送給隱藏層的所有神經(jīng)元,
利用一個隱藏層,我們可以表示輸入信號的任何連續(xù)函數(shù),利用兩個隱藏層甚至可以表示不連續(xù)的函數(shù)。
隱藏層到底隱藏了什么?
隱藏層隱藏期望的輸出值,隱藏層的神經(jīng)元不能通過網(wǎng)絡的輸入和輸出行為來分析,換句話說就是隱藏層的期望輸出由層自己決定。
多層網(wǎng)絡如何學習?
后向傳送方法。
學習算法有兩個階段:
1、將訓練輸入模式提供給網(wǎng)絡的輸入端,輸入模式在網(wǎng)絡中一層一層的傳送,直到輸出層產(chǎn)生輸出模式為止。
2、從網(wǎng)絡的輸出端后向的傳送到輸入端,在傳送誤差是調(diào)整權重的值。
后向傳送方法和感知器的類似,只是在后向傳送方法中神經(jīng)元使用的是S形的激活函數(shù):
后向傳送方法的算法:
步驟一:初始化。
用很小的范圍均勻分布的隨機數(shù)設置網(wǎng)絡的權重和閾值
其中Fi是網(wǎng)絡中神經(jīng)與的輸入的總數(shù)。
步驟二:激活。
通過應用輸入和期望的輸出
來激活后向傳送神經(jīng)網(wǎng)絡。
(1)計算隱藏層神經(jīng)網(wǎng)絡的實際輸出:
其中n是隱藏層神經(jīng)元j輸入的個數(shù)。
(2)計算輸出層神經(jīng)元的實際輸出:
其中m為輸出層神經(jīng)元k的輸入個數(shù)。
步驟三:訓練權重。
? ? ?修改后向傳送網(wǎng)絡的權重
(1)計算輸出層神經(jīng)元的誤差斜率:
其中:
計算權重的校正:
更新輸出層的權重:
(2)計算隱藏層神經(jīng)元的誤差斜率:
計算權重的校正:
更新隱藏層神經(jīng)元的權重:
步驟四:迭代。
迭代p加1,回到步驟二,重復以上過程直至滿足誤差的平方和滿足要求為止。(完)
本文轉(zhuǎn)自:http://blog.csdn.net/u011067360/article/details/22804175
文章版權歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.hztianpu.com/yun/4276.html
摘要:截至年月,全國已有個省區(qū)市發(fā)布了人工智能規(guī)劃,其中個制定了具體的產(chǎn)業(yè)規(guī)模發(fā)展目標。年我國企業(yè)相繼發(fā)布人工智能芯片。五大數(shù)據(jù)發(fā)展情況在促進大數(shù)據(jù)發(fā)展行動綱要等政策的指 showImg(http://upload-images.jianshu.io/upload_images/13825820-5b1886a2a4a6c96f.jpg?imageMogr2/auto-orient/stri...
摘要:四知識圖譜應用利用知識圖譜技術可以直接給出用戶想要的搜索結果,而不再是各類鏈接。智慧城市公安機關在偵查案件時,經(jīng)??吹睫k案民警用圖譜梳理案件及人物關系。在電視劇人民的名義中,警方利用知識圖譜分析,可以很快看清山水集團背后的利益鏈條。 導讀:悟已往之不諫,知來者之可追。 ?小編整理了各種關于人...
摘要:年之后,輿論熱點已經(jīng)逐漸從大數(shù)據(jù)轉(zhuǎn)向人工智能,大數(shù)據(jù)行業(yè)也歷經(jīng)整合。近一年間,一些大數(shù)據(jù)公司相繼出現(xiàn)裁員業(yè)務大調(diào)整等情況,部分公司出現(xiàn)虧損。今年開始,部分院校將招收第一屆大數(shù)據(jù)專業(yè)本科生。 在這個信息時代高速發(fā)展的情況下,很多人會對自己該往哪個方向發(fā)展感到迷茫,下面我就淺顯的給大家介紹一下五大流行區(qū)域的發(fā)展前景。 大數(shù)據(jù)的發(fā)展前景: 當前大數(shù)據(jù)行業(yè)真的是人才稀缺嗎? 學了幾年后,大數(shù)據(jù)...
摘要:年之后,輿論熱點已經(jīng)逐漸從大數(shù)據(jù)轉(zhuǎn)向人工智能,大數(shù)據(jù)行業(yè)也歷經(jīng)整合。近一年間,一些大數(shù)據(jù)公司相繼出現(xiàn)裁員業(yè)務大調(diào)整等情況,部分公司出現(xiàn)虧損。今年開始,部分院校將招收第一屆大數(shù)據(jù)專業(yè)本科生。 在這個信息時代高速發(fā)展的情況下,很多人會對自己該往哪個方向發(fā)展感到迷茫,下面我就淺顯的給大家介紹一下五大流行區(qū)域的發(fā)展前景。 大數(shù)據(jù)的發(fā)展前景: 當前大數(shù)據(jù)行業(yè)真的是人才稀缺嗎? 學了幾年后,大數(shù)據(jù)...
閱讀 7938·2023-04-25 14:36
閱讀 1830·2021-11-22 09:34
閱讀 2220·2019-08-30 15:55
閱讀 3202·2019-08-30 11:19
閱讀 1371·2019-08-29 15:17
閱讀 610·2019-08-29 12:47
閱讀 3062·2019-08-26 13:38
閱讀 2695·2019-08-26 11:00