『壹』 神經網路中rprop是什麼演算法
RPROP神經網路演算法原理
1993年德國Martin Riedmiller和Heinrich Braun在他們的論文「The RPROP Algorithm」中提出了這種方法。內
RPROP演算法的基本原理為容:首先為各權重變化賦一個初始值,設定權重變化加速因子與減速因子,在網路前饋迭代中當連續誤差梯度符號不變時,採用加速策略,加快訓練速度;當連續誤差梯度符號變化時,採用減速策略,以期穩定收斂。網路結合當前誤差梯度符號與變化步長實現BP,同時,為了避免網路學習發生振盪或下溢,演算法要求設定權重變化的上下限。
參考文獻:http://www.chinake.com/m/s/1483455.html
『貳』 神經網路演算法的三大類分別是
神經網路演算法的三大類分別是:
1、前饋神經網路:
這是實際應用中最常見的神經網路類型。第一層是輸入,最後一層是輸出。如果有多個隱藏層,我們稱之為「深度」神經網路。他們計算出一系列改變樣本相似性的變換。各層神經元的活動是前一層活動的非線性函數。
2、循環網路:
循環網路在他們的連接圖中定向了循環,這意味著你可以按照箭頭回到你開始的地方。他們可以有復雜的動態,使其很難訓練。他們更具有生物真實性。
循環網路的目的是用來處理序列數據。在傳統的神經網路模型中,是從輸入層到隱含層再到輸出層,層與層之間是全連接的,每層之間的節點是無連接的。但是這種普通的神經網路對於很多問題卻無能無力。
循環神經網路,即一個序列當前的輸出與前面的輸出也有關。具體的表現形式為網路會對前面的信息進行記憶並應用於當前輸出的計算中,即隱藏層之間的節點不再無連接而是有連接的,並且隱藏層的輸入不僅包括輸入層的輸出還包括上一時刻隱藏層的輸出。
3、對稱連接網路:
對稱連接網路有點像循環網路,但是單元之間的連接是對稱的(它們在兩個方向上權重相同)。比起循環網路,對稱連接網路更容易分析。
這個網路中有更多的限制,因為它們遵守能量函數定律。沒有隱藏單元的對稱連接網路被稱為「Hopfield 網路」。有隱藏單元的對稱連接的網路被稱為玻爾茲曼機。
(2)神經網路中有哪些演算法擴展閱讀:
應用及發展:
心理學家和認知科學家研究神經網路的目的在於探索人腦加工、儲存和搜索信息的機制,弄清人腦功能的機理,建立人類認知過程的微結構理論。
生物學、醫學、腦科學專家試圖通過神經網路的研究推動腦科學向定量、精確和理論化體系發展,同時也寄希望於臨床醫學的新突破;信息處理和計算機科學家研究這一問題的目的在於尋求新的途徑以解決不能解決或解決起來有極大困難的大量問題,構造更加逼近人腦功能的新一代計算機。
『叄』 神經網路演算法三大類
具體如下:
1、多層感知機,一種前饋人工神經網路模型,其將輸入的多個數據集映射到單一的輸出的數據集上,也稱做喚攜為全連接神經網路。2、卷積神經網路核心是卷積層,是一類包含卷積計算且具有深度結構的前饋神經網路演算法之一。
3、殘差收縮網路,殘差收縮網路是卷積神經網路的改進,引入了軟閾值純伏化,更適合強噪數據。屬鏈毀於深度殘差網路(DeepResialNetwork,ResNet)的新型改進形式。人工神經網路(ArtificialNeuralNetwork,即ANN),是20世紀80年代以來人工智慧領域興起的研究熱點。它從信息處理角度對人腦神經元網路進行抽象,建立某種簡單模型,按不同的連接方式組成不同的網路。在工程與學術界也常直接簡稱為神經網路或類神經網路。
『肆』 神經網路演算法
20 世紀五、六⼗年代,科學家 Frank Rosenblatt其受到 Warren McCulloch 和 Walter Pitts早期的⼯作的影響,發明了感知機(Perceptrons)。
⼀個感知器接受⼏個⼆進制輸⼊, ,並產⽣⼀個⼆進制輸出:
如上圖所示的感知機有三個輸⼊: 。通常可以有更多或更少輸⼊。 我們再引⼊權重: ,衡量輸入對輸出的重要性。感知機的輸出為0 或者 1,則由分配權重後的總和 ⼩於等於或者⼤於閾值決定。和權重⼀樣,閾值(threshold)是⼀個實數,⼀個神經元的參數。⽤更精確的代數形式如下:
給三個因素設置權重來作出決定:
可以把這三個因素對應地⽤⼆進制變數 來表⽰。例如,如果天⽓好,我們把
,如果不好, 。類似地,如果你的朋友陪你去, ,否則 。 也類似。
這三個對於可能對你來說,「電影好不好看」對你來說最重要,而天氣顯得不是那麼的重要。所以你會這樣分配權值: ,然後定義閾值threshold=5。
現在,你可以使⽤感知器來給這種決策建⽴數學模型。
例如:
隨著權重和閾值的變化,你可以得到不同的決策模型。很明顯,感知機不是⼈做出決策使⽤的全部模型。但是這個例⼦說明了⼀個感知機如何能權衡不同的依據來決策。這看上去也可以⼤致解釋⼀個感知機⽹絡有時確實能夠做出一些不錯的決定。
現在我們隊上面的結構做一點變化,令b=-threshold,即把閾值移到不等號左邊,變成偏置, 那麼感知器的規則可以重寫為:
引⼊偏置只是我們描述感知器的⼀個很⼩的變動,但是我們後⾯會看到它引導更進⼀步的符號簡化。因此,我們不再⽤閾值,⽽總是使⽤偏置。
感知機是首個可以學習的人工神經網路,它的出現引起的神經網路的第一層高潮。需要指出的是,感知機只能做簡單的線性分類任務,而且Minsky在1969年出版的《Perceptron》書中,證明了感知機對XOR(異或)這樣的問題都無法解決。但是感知機的提出,對神經網路的發展是具有重要意義的。
通過上面的感知機的觀察我們發現一個問題,每個感知機的輸出只有0和1,這就意味著有時我們只是在單個感知機上稍微修改了一點點權值w或者偏置b,就可能造成最終輸出完全的反轉。也就是說,感知機的輸出是一個階躍函數。如下圖所示,在0附近的時候,輸出的變化是非常明顯的,而在遠離0的地方,我們可能調整好久參數也不會發生輸出的變化。
這樣階躍的跳變並不是我們想要的,我們需要的是當我們隊權值w或者偏置b做出微小的調整後,輸出也相應的發生微小的改變芹則禪。這同時也意味值我們的輸出不再只是0和1,還可以輸出小數。由此我們引入了S型神經元。
S型神經元使用 S 型函數,也叫Sigmoid function函數,我們用它作為激活函數。其表達式如下:
圖像如下圖所示:
利⽤實際的 σ 函數,我們得到⼀個,就像上⾯說明的,平滑的感知器。 σ 函數的平滑特性,正是關鍵因素,⽽不是其細部形式盯明。 σ 的平滑意味著權重和偏置的微⼩變化,即 ∆w 和 ∆b,會從神經元產⽣⼀個微⼩的輸出變化 ∆output。實際上,微積分告訴我們
∆output 可以很好地近似表⽰為:
上面的式子是⼀個反映權重、偏置變化嫌塵和輸出變化的線性函數。這⼀線性使得我們可以通過選擇權重和偏置的微⼩變化來達到輸出的微⼩變化。所以當 S 型神經元和感知器本質上是相同的,但S型神經元在計算處理如何變化權重和偏置來使輸出變化的時候會更加容易。
有了對S型神經元的了解,我們就可以介紹神經網路的基本結構了。具體如下:
在⽹絡中最左邊的稱為輸⼊層,其中的神經元稱為輸⼊神經元。最右邊的,即輸出層包含有輸出神經元,在圖中,輸出層只有⼀個神經元。中間層,既然這層中的神經元既不是輸⼊也不是輸出,則被稱為隱藏層。
這就是神經網路的基本結構,隨著後面的發展神經網路的層數也隨之不斷增加和復雜。
我們回顧一下神經網路發展的歷程。神經網路的發展歷史曲折盪漾,既有被人捧上天的時刻,也有摔落在街頭無人問津的時段,中間經歷了數次大起大落。
從單層神經網路(感知機)開始,到包含一個隱藏層的兩層神經網路,再到多層的深度神經網路,一共有三次興起過程。詳見下圖。
我們希望有⼀個演算法,能讓我們找到權重和偏置,以⾄於⽹絡的輸出 y(x) 能夠擬合所有的 訓練輸⼊ x。為了量化我們如何實現這個⽬標,我們定義⼀個代價函數:
這⾥ w 表⽰所有的⽹絡中權重的集合, b 是所有的偏置, n 是訓練輸⼊數據的個數,
a 是表⽰當輸⼊為 x 時輸出的向量,求和則是在總的訓練輸⼊ x 上進⾏的。當然,輸出 a 取決於 x, w和 b,但是為了保持符號的簡潔性,我沒有明確地指出這種依賴關系。符號 ∥v∥ 是指向量 v 的模。我們把 C 稱為⼆次代價函數;有時也稱被稱為均⽅誤差或者 MSE。觀察⼆次代價函數的形式我們可以看到 C(w, b) 是⾮負的,因為求和公式中的每⼀項都是⾮負的。此外,代價函數 C(w,b)的值相當⼩,即 C(w; b) ≈ 0,精確地說,是當對於所有的訓練輸⼊ x, y(x) 接近於輸出 a 時。因
此如果我們的學習演算法能找到合適的權重和偏置,使得 C(w; b) ≈ 0,它就能很好地⼯作。相反,當 C(w; b) 很⼤時就不怎麼好了,那意味著對於⼤量地輸⼊, y(x) 與輸出 a 相差很⼤。因此我們的訓練演算法的⽬的,是最⼩化權重和偏置的代價函數 C(w; b)。換句話說,我們想要找到⼀系列能讓代價盡可能⼩的權重和偏置。我們將采⽤稱為梯度下降的演算法來達到這個⽬的。
下面我們將代價函數簡化為C(v)。它可以是任意的多元實值函數, 。
注意我們⽤ v 代替了 w 和 b 以強調它可能是任意的函數,我們現在先不局限於神經⽹絡的環境。
為了使問題更加簡單我們先考慮兩個變數的情況,想像 C 是⼀個只有兩個變數 和 的函數,我們的目的是找到 和 使得C最小。
如上圖所示,我們的目的就是找到局部最小值。對於這樣的一個問題,一種方法就是通過微積分的方法來解決,我們可以通過計算導數來求解C的極值點。但是對於神經網路來說,我們往往面對的是非常道的權值和偏置,也就是說v的維數不只是兩維,有可能是億萬維的。對於一個高維的函數C(v)求導數幾乎是不可能的。
在這種情況下,有人提出了一個有趣的演算法。想像一下一個小球從山頂滾下山谷的過程, 我們的⽇常經驗告訴我們這個球最終會滾到⾕底。我們先暫時忽略相關的物理定理, 對球體的⾁眼觀察是為了激發我們的想像⽽不是束縛我們的思維。因此與其陷進物理學⾥凌亂的細節,不如我們就這樣問⾃⼰:如果我們扮演⼀天的上帝,能夠構造⾃⼰的物理定律,能夠⽀配球體可以如何滾動,那麼我們將會採取什麼樣的運動學定律來讓球體能夠總是滾落到⾕底呢?
為了更精確地描述這個問題,讓我們思考⼀下,當我們在 和 ⽅向分別將球體移動⼀個很⼩的量,即 ∆ 和 ∆ 時,球體將會發⽣什麼情況。微積分告訴我們 C 將會有如下變化:
也可以用向量表示為
現在我們的問題就轉換為不斷尋找一個小於0的∆C,使得C+∆C不斷變小。
假設我們選取:
這⾥的 η 是個很⼩的正數(稱為學習速率),於是
由於 ∥∇C∥2 ≥ 0,這保證了 ∆C ≤ 0,即,如果我們按照上述⽅程的規則去改變 v,那麼 C
會⼀直減⼩,不會增加。
所以我們可以通過不斷改變v來C的值不斷下降,是小球滾到最低點。
總結⼀下,梯度下降演算法⼯作的⽅式就是重復計算梯度 ∇C,然後沿著相反的⽅向移動,沿著⼭⾕「滾落」。我們可以想像它像這樣:
為了使梯度下降能夠正確地運⾏,我們需要選擇合適的學習速率η,確保C不斷減少,直到找到最小值。
知道了兩個變數的函數 C 的梯度下降方法,我們可以很容易的把它推廣到多維。我們假設 C 是⼀個有 m 個變數 的多元函數。 ∆C 將會變為:
其中, ∇C為
∆v為:
更新規則為:
在回到神經網路中,w和b的更新規則為:
前面提到神經⽹絡如何使⽤梯度下降演算法來學習他們⾃⾝的權重和偏置。但是,這⾥還留下了⼀個問題:我們並沒有討論如何計算代價函數的梯度。這里就需要用到一個非常重要的演算法:反向傳播演算法(backpropagation)。
反向傳播演算法的啟示是數學中的鏈式法則。
四個方程:
輸出層誤差方程:
當前層誤差方程:
誤差方程關於偏置的關系:
誤差方程關於權值的關系
演算法描述:
檢視這個演算法,你可以看到為何它被稱作反向傳播。我們從最後⼀層開始向後計算誤差向量δ。這看起來有點奇怪,為何要從後⾯開始。但是如果你認真思考反向傳播的證明,這種反向移動其實是代價函數是⽹絡輸出的函數的結果。為了理解代價隨前⾯層的權重和偏置變化的規律,我們需要重復作⽤鏈式法則,反向地獲得需要的表達式。
參考鏈接: http://neuralnetworksanddeeplearning.com/
『伍』 ai浜哄伐鏅鴻兘綆楁硶鏈夊摢浜
浜哄伐鏅鴻兘涓鐨勭畻娉曠嶇被
1銆佺炵粡緗戠粶綆楁硶錛氫漢宸ョ炵粡緗戠粶緋葷粺鏄20涓栫邯40騫翠唬鍚庡嚭鐜扮殑銆傚畠鏄鐢變紬澶氱殑紲炵粡鍏冨彲璋冪殑榪炴帴鏉冨艱繛鎺ヨ屾垚錛屽叿鏈夊ぇ瑙勬ā騫惰屽勭悊銆佸垎甯冨紡淇℃伅瀛樺偍銆佽壇濂界殑鑷緇勭粐鑷瀛︿範鑳藉姏絳夌壒鐐廣
2銆並-鏈榪戦偦綆楁硶錛圞-NearestNeighbors錛孠NN錛夐潪甯哥畝鍗曘侹NN閫氳繃鍦ㄦ暣涓璁緇冮泦涓鎼滅儲K涓鏈鐩鎬技鐨勫疄渚嬶紝鍗矺涓閭誨眳錛屽苟涓烘墍鏈夎繖浜汯涓瀹炰緥鍒嗛厤涓涓鍏鍏辮緭鍑哄彉閲忥紝鏉ュ瑰硅薄榪涜屽垎綾匯
3銆丄daboost鏄涓縐嶈凱浠g畻娉曪紝鍏舵牳蹇冩濇兂鏄閽堝瑰悓涓涓璁緇冮泦璁緇冧笉鍚岀殑鍒嗙被鍣(寮卞垎綾誨櫒)錛岀劧鍚庢妸榪欎簺寮卞垎綾誨櫒闆嗗悎璧鋒潵錛屾瀯鎴愪竴涓鏇村己鐨勬渶緇堝垎綾誨櫒(寮哄垎綾誨櫒)銆
4銆佷漢宸ユ櫤鑳戒富瑕佸吀鍨嬬畻娉曪紝鏈夋搴︿笅闄嶇殑綆楁硶錛屽噺灝戣繃鎷熷悎鐨刣ropout綆楁硶絳夌瓑銆
浜哄伐鏅鴻兘鎶鏈閮芥湁鍝浜
宸ユ櫤鑳借$畻鏈虹戞敮浼佸浘瑙f櫤鑳藉疄璐ㄥ苟浜х嶆柊鑳界被鏅鴻兘鐩鎬技寮忓仛鍙嶅簲鏅鴻兘鏈哄櫒璇ラ嗗煙鐮旂┒鍖呮嫭鏈哄櫒銆佽璦璇嗗埆銆佸浘鍍忚瘑鍒銆佽嚜璇璦澶勭悊涓撳剁郴緇熺瓑銆備漢宸ユ櫤鑳斤紙Artificial_Intelligence錛夛紝鑻辨枃緙╁啓涓篈I銆
浜哄伐鏅鴻兘鎶鏈鏈夛細鏅鴻兘鎼滅儲寮曟搸銆佽嚜鍔ㄩ┚椹訛紙OSO緋葷粺)銆佷漢鍍忚瘑鍒銆佹枃瀛楄瘑鍒銆佸浘鍍忚瘑鍒銆佽濺鐗岃瘑鍒銆佹満鍣ㄧ炕璇戝拰鑷鐒惰璦鐞嗚В銆佷笓瀹剁郴緇熴佹満鍣ㄤ漢瀛︺佽嚜鍔ㄧ▼搴忚捐°佽埅澶╁簲鐢ㄣ佹満鍣ㄥ︿範銆佷俊鎮澶勭悊絳夈
浜哄伐鏅鴻兘鏃跺埢鏀瑰彉鐫浣犳垜鐨勭敓媧伙紝浜哄伐鏅鴻兘鍖呮嫭鍗佸垎騫挎硾鐨勭戝︼紝瀹冪敱涓嶅悓鐨勯嗗煙緇勬垚錛岀洰鍓嶏紝浜哄伐鏅鴻兘鎶鏈鍖呮嫭澶ф暟鎹銆佽$畻鏈鴻嗚夈佽闊寵瘑鍒銆佽嚜鐒惰璦澶勭悊銆佹満鍣ㄥ︿範浜斿ぇ閮ㄥ垎銆
浜哄伐鏅鴻兘鍖呮嫭浜斿ぇ鏍稿績鎶鏈錛氳$畻鏈鴻嗚夛細璁$畻鏈鴻嗚夋妧鏈榪愮敤鐢卞浘鍍忓勭悊鎿嶄綔鍙婃満鍣ㄥ︿範絳夋妧鏈鎵緇勬垚鐨勫簭鍒楁潵灝嗗浘鍍忓垎鏋愪換鍔″垎瑙d負渚誇簬綆$悊鐨勫皬鍧椾換鍔°
浜哄伐鏅鴻兘綆楁硶鏈夊摢浜
紲炵粡緗戠粶綆楁硶錛氫漢宸ョ炵粡緗戠粶緋葷粺鏄20涓栫邯40騫翠唬鍚庡嚭鐜扮殑銆傚畠鏄鐢變紬澶氱殑紲炵粡鍏冨彲璋冪殑榪炴帴鏉冨艱繛鎺ヨ屾垚錛屽叿鏈夊ぇ瑙勬ā騫惰屽勭悊銆佸垎甯冨紡淇℃伅瀛樺偍銆佽壇濂界殑鑷緇勭粐鑷瀛︿範鑳藉姏絳夌壒鐐廣
浜哄伐鏅鴻兘鍗佸ぇ綆楁硶濡備笅綰挎у洖褰掞紙LinearRegression錛夊彲鑳芥槸鏈嫻佽岀殑鏈哄櫒瀛︿範綆楁硶銆傜嚎鎬у洖褰掑氨鏄瑕佹壘涓鏉$洿綰匡紝騫朵笖璁╄繖鏉$洿綰垮敖鍙鑳藉湴鎷熷悎鏁g偣鍥句腑鐨勬暟鎹鐐廣
AdaboostAdaboost鏄涓縐嶈凱浠g畻娉曪紝鍏舵牳蹇冩濇兂鏄閽堝瑰悓涓涓璁緇冮泦璁緇冧笉鍚岀殑鍒嗙被鍣(寮卞垎綾誨櫒)錛岀劧鍚庢妸榪欎簺寮卞垎綾誨櫒闆嗗悎璧鋒潵錛屾瀯鎴愪竴涓鏇村己鐨勬渶緇堝垎綾誨櫒(寮哄垎綾誨櫒)銆
浜哄伐鏅鴻兘綆楁硶涔熻縐頒箣涓鴻蔣璁$畻錛屽畠鏄浜轟滑鍙楄嚜鐒剁晫瑙勫緥鐨勫惎榪錛屾牴鎹鍏跺師鐞嗘ā鎷熸眰瑙i棶棰樼殑綆楁硶銆傜洰鍓嶇殑浜哄伐鏅鴻兘綆楁硶鏈変漢宸ョ炵粡緗戠粶閬椾紶綆楁硶銆佹ā鎷熼鐏綆楁硶銆佺兢闆嗘櫤鑳借殎緹ょ畻娉曞拰渚嬪瓙緹ょ畻絳夌瓑銆
AI綆楀姏璧勬簮奼犳壘鍝瀹跺叕鍙稿仛鐨勫ソ
ai綆楀姏浜戣秼鍔ㄤ簯鏈渚垮疁銆傛牴鎹鏌ヨ㈢浉鍏充俊鎮鏄劇ず錛岃秼鍔ㄤ簯渚垮疁濂界敤鐨凙I綆楀姏奼犲寲浜慖DC鏁版嵁鏄劇ず錛屼互GPU涓轟唬琛ㄧ殑鍔犻熷崱鎷ユ湁鏇村氳$畻鍗曞厓錛屾洿閫傚悎AI璁$畻銆
鏆傛椂鏉ヨ蹭富瑕佹槸鍗庝負鍜岀憺鑺寰錛屽崕涓轟富瑕佷緷鎵樹簬鎵嬫満寮哄ぇ鐨勫鉤鍙拌繘琛屽簲鐢錛岀憺鑺寰鐩稿規潵璁叉秹鍙婄殑棰嗗煙鏇村氾紝鏇村姞騫挎硾銆
AI綆楁硶鍟嗙敤钀藉湴鐨勫巶鍟嗭細縐戝ぇ璁椋炪侀搧濉斻傚叾涓錛孉I榫欏ご鍏鍙哥戝ぇ璁椋炰綔涓篴鑲′漢宸ユ櫤鑳介緳澶村叕鍙革紝宸插湪鏁欒偛銆佹櫤鎱у煄甯傘佸尰鐤椼丆絝紜浠朵駭鍝佺瓑澶氫釜搴旂敤鍘傚晢寮灞曞伐浣滐紝濡傚悓鑺遍『銆佷笁鍏闆躲侀噾灞辯瓑銆
『陸』 神經網路的具體演算法
神經網路和粗集理論是智能信息處理的兩種重要的方法,其任務是從大量觀察和實驗數據中獲取知識、表達知識和推理決策規則。粗集理論是基於不可分辯性思想和知識簡化方法,從數據中推理邏輯規則,適合於數據簡化、數據相關性查找、發現數據模式、從數據中提取規則等。神經網路是利用非線性映射的思想和並行處理方法,用神經網路本身的結構表達輸入與輸出關聯知識的隱函數編碼,具有較強的並行處理、逼近和分類能力。在處理不準確、不完整的知識方面,粗集理論和神經網路都顯示出較強的適應能力,然而兩者處理信息的方法是不同的,粗集方法模擬人類的抽象邏輯思維,神經網路方法模擬形象直覺思維,具有很強的互補性。
首先,通過粗集理論方法減少信息表達的屬性數量,去掉冗餘信息,使訓練集簡化,減少神經網路系統的復雜性和訓練時間;其次利用神經網路優良的並行處理、逼近和分類能力來處理風險預警這類非線性問題,具有較強的容錯能力;再次,粗集理論在簡化知識的同時,很容易推理出決策規則,因而可以作為後續使用中的信息識別規則,將粗集得到的結果與神經網路得到的結果相比較,以便相互驗證;最後,粗集理論的方法和結果簡單易懂,而且以規則的形式給出,通過與神經網路結合,使神經網路也具有一定的解釋能力。因此,粗集理論與神經網路融合方法具有許多優點,非常適合處理諸如企業戰略風險預警這類非結構化、非線性的復雜問題。
關於輸入的問題--輸入模塊。
這一階段包括初始指標體系確定,根據所確定的指標體系而形成的數據採集系統及數據預處理。企業戰略風險的初始評價指標如下:
企業外部因素:政治環境(法律法規及其穩定性),經濟環境(社會總體收入水平,物價水平,經濟增長率),產業結構(進入產業障礙,競爭對手數量及集中程度),市場環境(市場大小)。
企業內部因素:企業盈利能力(銷售利潤率,企業利潤增長率),產品競爭能力(產品銷售率,市場佔有率),技術開發能力(技術開發費比率,企業專業技術人才比重),資金籌措能力(融資率),企業職工凝聚力(企業員工流動率),管理人才資源,信息資源;戰略本身的風險因素(戰略目標,戰略重點,戰略措施,戰略方針)。
本文所建立的預警指標系統是針對普遍意義上的企業,當該指標系統運用於實際企業時,需要對具體指標進行適當的增加或減少。因為各個企業有其具體的戰略目標、經營活動等特性。
計算處理模塊。這一模塊主要包括粗集處理部分和神經網路處理部分。
粗集處理階段。根據粗集的簡化規則及決策規則對數據進行約簡,構造神經網路的初始結構,便於神經網路的訓練。
企業戰略風險分析需要解決的問題是在保證對戰略風險狀態評價一致的情況下,選擇最少的特徵集,以便減少屬性維數、降低計算工作量和減少不確定因素的影響,粗集理論中的屬性約簡演算法可以很好地解決這個問題。
然後是輸出模塊~
該模塊是對將發生的戰略風險問題發出警報。
按照戰略風險大小強弱程度的不同,可將其分為三個層次。第一層次是輕微戰略風險,是損失較小、後果不甚明顯,對企業的戰略管理活動不構成重要影響的各類風險。這類風險一般情況下無礙大局,僅對企業形成局部和微小的傷害。第二層次是一般戰略風險,是損失適中、後果明顯但不構成致命性威脅的各類風險。這類風險的直接後果使企業遭受一定損失,並對其戰略管理的某些方面帶來較大的不利影響或留有一定後遺症。第三層次是致命性戰略風險,指損失較大,後果嚴重的風險。這類風險的直接後果往往會威脅企業的生存,導致重大損失,使之一時不能恢復或遭受破產。在實際操作中,每個企業應根據具體的狀況,將這三個層次以具體的數值表現出來。
下面回答你的問題:
總的來說,神經網路輸入的是初始指標體系;輸出的是風險。
你所說的風險應該說屬於輸出范疇,具體等級分為三級:無警、輕警、重警,並用綠、黃、紅三種顏色燈號表示。其中綠燈區表示企業綜合指標所反映的實際運行值與目標值基本一致,運行良好;黃燈區表示企業綜合指標所反映的實際運行值與目標值偏離較大,要引起企業的警惕。若採取一定的措施可轉為綠燈區,若不重視可在短期內轉為紅燈區;紅燈區則表示這種偏離超過企業接受的可能,並給企業帶來整體性的重大損失。例如:銷售利潤率極低、資產負債率過高,資源配置不合理、缺乏發展後勁等,必須找出原因,繼而採取有效措施,使企業的戰略管理活動始終處於「安全」的狀態。
希望以上答案能夠幫到你,祝你好運~
『柒』 Matlab神經網路原理中可以用於尋找最優解的演算法有哪些
若果對你有幫助,請點贊。
神經網路的結構(例如輸入3隱節點1輸出)建好後,一般就要求神經網路里的權值和閾值。現在一般求解權值和閾值,都是採用梯度下降之類的搜索演算法(梯度下降法、牛頓法、列文伯格-馬跨特法、狗腿法等等),這些演算法會先初始化一個解,在這個解的基礎上,確定一個搜索方向和一個移動步長(各種法算確定方向和步長的方法不同,也就使各種演算法適用於解決不同的問題),使初始解根據這個方向和步長移動後,能使目標函數的輸出(在神經網路中就是預測誤差)下降。 然後將它更新為新的解,再繼續尋找下一步的移動方向的步長,這樣不斷的迭代下去,目標函數(神經網路中的預測誤差)也不斷下降,最終就能找到一個解,使得目標函數(預測誤差)比較小。
而在尋解過程中,步長太大,就會搜索得不仔細,可能跨過了優秀的解,而步長太小,又會使尋解過程進行得太慢。因此,步長設置適當非常重要。
學習率對原步長(在梯度下降法中就是梯度的長度)作調整,如果學習率lr = 0.1,那麼梯度下降法中每次調整的步長就是0.1*梯度,
而在matlab神經網路工具箱里的lr,代表的是初始學習率。因為matlab工具箱為了在尋解不同階段更智能的選擇合適的步長,使用的是可變學習率,它會根據上一次解的調整對目標函數帶來的效果來對學習率作調整,再根據學習率決定步長。
機制如下:
if newE2/E2 > maxE_inc %若果誤差上升大於閾值
lr = lr * lr_dec; %則降低學習率
else
if newE2 < E2 %若果誤差減少
lr = lr * lr_inc;%則增加學習率
end
詳細的可以看《神經網路之家》nnetinfo里的《[重要]寫自己的BP神經網路(traingd)》一文,裡面是matlab神經網路工具箱梯度下降法的簡化代碼