『壹』 神经网络中rprop是什么算法
RPROP神经网络算法原理
1993年德国Martin Riedmiller和Heinrich Braun在他们的论文“The RPROP Algorithm”中提出了这种方法。内
RPROP算法的基本原理为容:首先为各权重变化赋一个初始值,设定权重变化加速因子与减速因子,在网络前馈迭代中当连续误差梯度符号不变时,采用加速策略,加快训练速度;当连续误差梯度符号变化时,采用减速策略,以期稳定收敛。网络结合当前误差梯度符号与变化步长实现BP,同时,为了避免网络学习发生振荡或下溢,算法要求设定权重变化的上下限。
参考文献:http://www.chinake.com/m/s/1483455.html
『贰』 神经网络算法的三大类分别是
神经网络算法的三大类分别是:
1、前馈神经网络:
这是实际应用中最常见的神经网络类型。第一层是输入,最后一层是输出。如果有多个隐藏层,我们称之为“深度”神经网络。他们计算出一系列改变样本相似性的变换。各层神经元的活动是前一层活动的非线性函数。
2、循环网络:
循环网络在他们的连接图中定向了循环,这意味着你可以按照箭头回到你开始的地方。他们可以有复杂的动态,使其很难训练。他们更具有生物真实性。
循环网络的目的是用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。
循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。
3、对称连接网络:
对称连接网络有点像循环网络,但是单元之间的连接是对称的(它们在两个方向上权重相同)。比起循环网络,对称连接网络更容易分析。
这个网络中有更多的限制,因为它们遵守能量函数定律。没有隐藏单元的对称连接网络被称为“Hopfield 网络”。有隐藏单元的对称连接的网络被称为玻尔兹曼机。
(2)神经网络中有哪些算法扩展阅读:
应用及发展:
心理学家和认知科学家研究神经网络的目的在于探索人脑加工、储存和搜索信息的机制,弄清人脑功能的机理,建立人类认知过程的微结构理论。
生物学、医学、脑科学专家试图通过神经网络的研究推动脑科学向定量、精确和理论化体系发展,同时也寄希望于临床医学的新突破;信息处理和计算机科学家研究这一问题的目的在于寻求新的途径以解决不能解决或解决起来有极大困难的大量问题,构造更加逼近人脑功能的新一代计算机。
『叁』 神经网络算法三大类
具体如下:
1、多层感知机,一种前馈人工神经网络模型,其将输入的多个数据集映射到单一的输出的数据集上,也称做唤携为全连接神经网络。2、卷积神经网络核心是卷积层,是一类包含卷积计算且具有深度结构的前馈神经网络算法之一。
3、残差收缩网络,残差收缩网络是卷积神经网络的改进,引入了软阈值纯伏化,更适合强噪数据。属链毁于深度残差网络(DeepResialNetwork,ResNet)的新型改进形式。人工神经网络(ArtificialNeuralNetwork,即ANN),是20世纪80年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。
『肆』 神经网络算法
20 世纪五、六⼗年代,科学家 Frank Rosenblatt其受到 Warren McCulloch 和 Walter Pitts早期的⼯作的影响,发明了感知机(Perceptrons)。
⼀个感知器接受⼏个⼆进制输⼊, ,并产⽣⼀个⼆进制输出:
如上图所示的感知机有三个输⼊: 。通常可以有更多或更少输⼊。 我们再引⼊权重: ,衡量输入对输出的重要性。感知机的输出为0 或者 1,则由分配权重后的总和 ⼩于等于或者⼤于阈值决定。和权重⼀样,阈值(threshold)是⼀个实数,⼀个神经元的参数。⽤更精确的代数形式如下:
给三个因素设置权重来作出决定:
可以把这三个因素对应地⽤⼆进制变量 来表⽰。例如,如果天⽓好,我们把
,如果不好, 。类似地,如果你的朋友陪你去, ,否则 。 也类似。
这三个对于可能对你来说,“电影好不好看”对你来说最重要,而天气显得不是那么的重要。所以你会这样分配权值: ,然后定义阈值threshold=5。
现在,你可以使⽤感知器来给这种决策建⽴数学模型。
例如:
随着权重和阈值的变化,你可以得到不同的决策模型。很明显,感知机不是⼈做出决策使⽤的全部模型。但是这个例⼦说明了⼀个感知机如何能权衡不同的依据来决策。这看上去也可以⼤致解释⼀个感知机⽹络有时确实能够做出一些不错的决定。
现在我们队上面的结构做一点变化,令b=-threshold,即把阈值移到不等号左边,变成偏置, 那么感知器的规则可以重写为:
引⼊偏置只是我们描述感知器的⼀个很⼩的变动,但是我们后⾯会看到它引导更进⼀步的符号简化。因此,我们不再⽤阈值,⽽总是使⽤偏置。
感知机是首个可以学习的人工神经网络,它的出现引起的神经网络的第一层高潮。需要指出的是,感知机只能做简单的线性分类任务,而且Minsky在1969年出版的《Perceptron》书中,证明了感知机对XOR(异或)这样的问题都无法解决。但是感知机的提出,对神经网络的发展是具有重要意义的。
通过上面的感知机的观察我们发现一个问题,每个感知机的输出只有0和1,这就意味着有时我们只是在单个感知机上稍微修改了一点点权值w或者偏置b,就可能造成最终输出完全的反转。也就是说,感知机的输出是一个阶跃函数。如下图所示,在0附近的时候,输出的变化是非常明显的,而在远离0的地方,我们可能调整好久参数也不会发生输出的变化。
这样阶跃的跳变并不是我们想要的,我们需要的是当我们队权值w或者偏置b做出微小的调整后,输出也相应的发生微小的改变芹则禅。这同时也意味值我们的输出不再只是0和1,还可以输出小数。由此我们引入了S型神经元。
S型神经元使用 S 型函数,也叫Sigmoid function函数,我们用它作为激活函数。其表达式如下:
图像如下图所示:
利⽤实际的 σ 函数,我们得到⼀个,就像上⾯说明的,平滑的感知器。 σ 函数的平滑特性,正是关键因素,⽽不是其细部形式盯明。 σ 的平滑意味着权重和偏置的微⼩变化,即 ∆w 和 ∆b,会从神经元产⽣⼀个微⼩的输出变化 ∆output。实际上,微积分告诉我们
∆output 可以很好地近似表⽰为:
上面的式子是⼀个反映权重、偏置变化嫌尘和输出变化的线性函数。这⼀线性使得我们可以通过选择权重和偏置的微⼩变化来达到输出的微⼩变化。所以当 S 型神经元和感知器本质上是相同的,但S型神经元在计算处理如何变化权重和偏置来使输出变化的时候会更加容易。
有了对S型神经元的了解,我们就可以介绍神经网络的基本结构了。具体如下:
在⽹络中最左边的称为输⼊层,其中的神经元称为输⼊神经元。最右边的,即输出层包含有输出神经元,在图中,输出层只有⼀个神经元。中间层,既然这层中的神经元既不是输⼊也不是输出,则被称为隐藏层。
这就是神经网络的基本结构,随着后面的发展神经网络的层数也随之不断增加和复杂。
我们回顾一下神经网络发展的历程。神经网络的发展历史曲折荡漾,既有被人捧上天的时刻,也有摔落在街头无人问津的时段,中间经历了数次大起大落。
从单层神经网络(感知机)开始,到包含一个隐藏层的两层神经网络,再到多层的深度神经网络,一共有三次兴起过程。详见下图。
我们希望有⼀个算法,能让我们找到权重和偏置,以⾄于⽹络的输出 y(x) 能够拟合所有的 训练输⼊ x。为了量化我们如何实现这个⽬标,我们定义⼀个代价函数:
这⾥ w 表⽰所有的⽹络中权重的集合, b 是所有的偏置, n 是训练输⼊数据的个数,
a 是表⽰当输⼊为 x 时输出的向量,求和则是在总的训练输⼊ x 上进⾏的。当然,输出 a 取决于 x, w和 b,但是为了保持符号的简洁性,我没有明确地指出这种依赖关系。符号 ∥v∥ 是指向量 v 的模。我们把 C 称为⼆次代价函数;有时也称被称为均⽅误差或者 MSE。观察⼆次代价函数的形式我们可以看到 C(w, b) 是⾮负的,因为求和公式中的每⼀项都是⾮负的。此外,代价函数 C(w,b)的值相当⼩,即 C(w; b) ≈ 0,精确地说,是当对于所有的训练输⼊ x, y(x) 接近于输出 a 时。因
此如果我们的学习算法能找到合适的权重和偏置,使得 C(w; b) ≈ 0,它就能很好地⼯作。相反,当 C(w; b) 很⼤时就不怎么好了,那意味着对于⼤量地输⼊, y(x) 与输出 a 相差很⼤。因此我们的训练算法的⽬的,是最⼩化权重和偏置的代价函数 C(w; b)。换句话说,我们想要找到⼀系列能让代价尽可能⼩的权重和偏置。我们将采⽤称为梯度下降的算法来达到这个⽬的。
下面我们将代价函数简化为C(v)。它可以是任意的多元实值函数, 。
注意我们⽤ v 代替了 w 和 b 以强调它可能是任意的函数,我们现在先不局限于神经⽹络的环境。
为了使问题更加简单我们先考虑两个变量的情况,想象 C 是⼀个只有两个变量 和 的函数,我们的目的是找到 和 使得C最小。
如上图所示,我们的目的就是找到局部最小值。对于这样的一个问题,一种方法就是通过微积分的方法来解决,我们可以通过计算导数来求解C的极值点。但是对于神经网络来说,我们往往面对的是非常道的权值和偏置,也就是说v的维数不只是两维,有可能是亿万维的。对于一个高维的函数C(v)求导数几乎是不可能的。
在这种情况下,有人提出了一个有趣的算法。想象一下一个小球从山顶滚下山谷的过程, 我们的⽇常经验告诉我们这个球最终会滚到⾕底。我们先暂时忽略相关的物理定理, 对球体的⾁眼观察是为了激发我们的想象⽽不是束缚我们的思维。因此与其陷进物理学⾥凌乱的细节,不如我们就这样问⾃⼰:如果我们扮演⼀天的上帝,能够构造⾃⼰的物理定律,能够⽀配球体可以如何滚动,那么我们将会采取什么样的运动学定律来让球体能够总是滚落到⾕底呢?
为了更精确地描述这个问题,让我们思考⼀下,当我们在 和 ⽅向分别将球体移动⼀个很⼩的量,即 ∆ 和 ∆ 时,球体将会发⽣什么情况。微积分告诉我们 C 将会有如下变化:
也可以用向量表示为
现在我们的问题就转换为不断寻找一个小于0的∆C,使得C+∆C不断变小。
假设我们选取:
这⾥的 η 是个很⼩的正数(称为学习速率),于是
由于 ∥∇C∥2 ≥ 0,这保证了 ∆C ≤ 0,即,如果我们按照上述⽅程的规则去改变 v,那么 C
会⼀直减⼩,不会增加。
所以我们可以通过不断改变v来C的值不断下降,是小球滚到最低点。
总结⼀下,梯度下降算法⼯作的⽅式就是重复计算梯度 ∇C,然后沿着相反的⽅向移动,沿着⼭⾕“滚落”。我们可以想象它像这样:
为了使梯度下降能够正确地运⾏,我们需要选择合适的学习速率η,确保C不断减少,直到找到最小值。
知道了两个变量的函数 C 的梯度下降方法,我们可以很容易的把它推广到多维。我们假设 C 是⼀个有 m 个变量 的多元函数。 ∆C 将会变为:
其中, ∇C为
∆v为:
更新规则为:
在回到神经网络中,w和b的更新规则为:
前面提到神经⽹络如何使⽤梯度下降算法来学习他们⾃⾝的权重和偏置。但是,这⾥还留下了⼀个问题:我们并没有讨论如何计算代价函数的梯度。这里就需要用到一个非常重要的算法:反向传播算法(backpropagation)。
反向传播算法的启示是数学中的链式法则。
四个方程:
输出层误差方程:
当前层误差方程:
误差方程关于偏置的关系:
误差方程关于权值的关系
算法描述:
检视这个算法,你可以看到为何它被称作反向传播。我们从最后⼀层开始向后计算误差向量δ。这看起来有点奇怪,为何要从后⾯开始。但是如果你认真思考反向传播的证明,这种反向移动其实是代价函数是⽹络输出的函数的结果。为了理解代价随前⾯层的权重和偏置变化的规律,我们需要重复作⽤链式法则,反向地获得需要的表达式。
参考链接: http://neuralnetworksanddeeplearning.com/
『伍』 ai浜哄伐鏅鸿兘绠楁硶鏈夊摢浜
浜哄伐鏅鸿兘涓鐨勭畻娉曠嶇被
1銆佺炵粡缃戠粶绠楁硶锛氫汉宸ョ炵粡缃戠粶绯荤粺鏄20涓栫邯40骞翠唬鍚庡嚭鐜扮殑銆傚畠鏄鐢变紬澶氱殑绁炵粡鍏冨彲璋冪殑杩炴帴鏉冨艰繛鎺ヨ屾垚锛屽叿鏈夊ぇ瑙勬ā骞惰屽勭悊銆佸垎甯冨紡淇℃伅瀛樺偍銆佽壇濂界殑鑷缁勭粐鑷瀛︿範鑳藉姏绛夌壒鐐广
2銆並-鏈杩戦偦绠楁硶锛圞-NearestNeighbors锛孠NN锛夐潪甯哥畝鍗曘侹NN閫氳繃鍦ㄦ暣涓璁缁冮泦涓鎼滅储K涓鏈鐩镐技鐨勫疄渚嬶紝鍗矺涓閭诲眳锛屽苟涓烘墍鏈夎繖浜汯涓瀹炰緥鍒嗛厤涓涓鍏鍏辫緭鍑哄彉閲忥紝鏉ュ瑰硅薄杩涜屽垎绫汇
3銆丄daboost鏄涓绉嶈凯浠g畻娉曪紝鍏舵牳蹇冩濇兂鏄閽堝瑰悓涓涓璁缁冮泦璁缁冧笉鍚岀殑鍒嗙被鍣(寮卞垎绫诲櫒)锛岀劧鍚庢妸杩欎簺寮卞垎绫诲櫒闆嗗悎璧锋潵锛屾瀯鎴愪竴涓鏇村己鐨勬渶缁堝垎绫诲櫒(寮哄垎绫诲櫒)銆
4銆佷汉宸ユ櫤鑳戒富瑕佸吀鍨嬬畻娉曪紝鏈夋搴︿笅闄嶇殑绠楁硶锛屽噺灏戣繃鎷熷悎鐨刣ropout绠楁硶绛夌瓑銆
浜哄伐鏅鸿兘鎶鏈閮芥湁鍝浜
宸ユ櫤鑳借$畻鏈虹戞敮浼佸浘瑙f櫤鑳藉疄璐ㄥ苟浜х嶆柊鑳界被鏅鸿兘鐩镐技寮忓仛鍙嶅簲鏅鸿兘鏈哄櫒璇ラ嗗煙鐮旂┒鍖呮嫭鏈哄櫒銆佽瑷璇嗗埆銆佸浘鍍忚瘑鍒銆佽嚜璇瑷澶勭悊涓撳剁郴缁熺瓑銆備汉宸ユ櫤鑳斤紙Artificial_Intelligence锛夛紝鑻辨枃缂╁啓涓篈I銆
浜哄伐鏅鸿兘鎶鏈鏈夛細鏅鸿兘鎼滅储寮曟搸銆佽嚜鍔ㄩ┚椹讹紙OSO绯荤粺)銆佷汉鍍忚瘑鍒銆佹枃瀛楄瘑鍒銆佸浘鍍忚瘑鍒銆佽溅鐗岃瘑鍒銆佹満鍣ㄧ炕璇戝拰鑷鐒惰瑷鐞嗚В銆佷笓瀹剁郴缁熴佹満鍣ㄤ汉瀛︺佽嚜鍔ㄧ▼搴忚捐°佽埅澶╁簲鐢ㄣ佹満鍣ㄥ︿範銆佷俊鎭澶勭悊绛夈
浜哄伐鏅鸿兘鏃跺埢鏀瑰彉鐫浣犳垜鐨勭敓娲伙紝浜哄伐鏅鸿兘鍖呮嫭鍗佸垎骞挎硾鐨勭戝︼紝瀹冪敱涓嶅悓鐨勯嗗煙缁勬垚锛岀洰鍓嶏紝浜哄伐鏅鸿兘鎶鏈鍖呮嫭澶ф暟鎹銆佽$畻鏈鸿嗚夈佽闊宠瘑鍒銆佽嚜鐒惰瑷澶勭悊銆佹満鍣ㄥ︿範浜斿ぇ閮ㄥ垎銆
浜哄伐鏅鸿兘鍖呮嫭浜斿ぇ鏍稿績鎶鏈锛氳$畻鏈鸿嗚夛細璁$畻鏈鸿嗚夋妧鏈杩愮敤鐢卞浘鍍忓勭悊鎿嶄綔鍙婃満鍣ㄥ︿範绛夋妧鏈鎵缁勬垚鐨勫簭鍒楁潵灏嗗浘鍍忓垎鏋愪换鍔″垎瑙d负渚夸簬绠$悊鐨勫皬鍧椾换鍔°
浜哄伐鏅鸿兘绠楁硶鏈夊摢浜
绁炵粡缃戠粶绠楁硶锛氫汉宸ョ炵粡缃戠粶绯荤粺鏄20涓栫邯40骞翠唬鍚庡嚭鐜扮殑銆傚畠鏄鐢变紬澶氱殑绁炵粡鍏冨彲璋冪殑杩炴帴鏉冨艰繛鎺ヨ屾垚锛屽叿鏈夊ぇ瑙勬ā骞惰屽勭悊銆佸垎甯冨紡淇℃伅瀛樺偍銆佽壇濂界殑鑷缁勭粐鑷瀛︿範鑳藉姏绛夌壒鐐广
浜哄伐鏅鸿兘鍗佸ぇ绠楁硶濡備笅绾挎у洖褰掞紙LinearRegression锛夊彲鑳芥槸鏈娴佽岀殑鏈哄櫒瀛︿範绠楁硶銆傜嚎鎬у洖褰掑氨鏄瑕佹壘涓鏉$洿绾匡紝骞朵笖璁╄繖鏉$洿绾垮敖鍙鑳藉湴鎷熷悎鏁g偣鍥句腑鐨勬暟鎹鐐广
AdaboostAdaboost鏄涓绉嶈凯浠g畻娉曪紝鍏舵牳蹇冩濇兂鏄閽堝瑰悓涓涓璁缁冮泦璁缁冧笉鍚岀殑鍒嗙被鍣(寮卞垎绫诲櫒)锛岀劧鍚庢妸杩欎簺寮卞垎绫诲櫒闆嗗悎璧锋潵锛屾瀯鎴愪竴涓鏇村己鐨勬渶缁堝垎绫诲櫒(寮哄垎绫诲櫒)銆
浜哄伐鏅鸿兘绠楁硶涔熻绉颁箣涓鸿蒋璁$畻锛屽畠鏄浜轰滑鍙楄嚜鐒剁晫瑙勫緥鐨勫惎杩锛屾牴鎹鍏跺師鐞嗘ā鎷熸眰瑙i棶棰樼殑绠楁硶銆傜洰鍓嶇殑浜哄伐鏅鸿兘绠楁硶鏈変汉宸ョ炵粡缃戠粶閬椾紶绠楁硶銆佹ā鎷熼鐏绠楁硶銆佺兢闆嗘櫤鑳借殎缇ょ畻娉曞拰渚嬪瓙缇ょ畻绛夌瓑銆
AI绠楀姏璧勬簮姹犳壘鍝瀹跺叕鍙稿仛鐨勫ソ
ai绠楀姏浜戣秼鍔ㄤ簯鏈渚垮疁銆傛牴鎹鏌ヨ㈢浉鍏充俊鎭鏄剧ず锛岃秼鍔ㄤ簯渚垮疁濂界敤鐨凙I绠楀姏姹犲寲浜慖DC鏁版嵁鏄剧ず锛屼互GPU涓轰唬琛ㄧ殑鍔犻熷崱鎷ユ湁鏇村氳$畻鍗曞厓锛屾洿閫傚悎AI璁$畻銆
鏆傛椂鏉ヨ蹭富瑕佹槸鍗庝负鍜岀憺鑺寰锛屽崕涓轰富瑕佷緷鎵樹簬鎵嬫満寮哄ぇ鐨勫钩鍙拌繘琛屽簲鐢锛岀憺鑺寰鐩稿规潵璁叉秹鍙婄殑棰嗗煙鏇村氾紝鏇村姞骞挎硾銆
AI绠楁硶鍟嗙敤钀藉湴鐨勫巶鍟嗭細绉戝ぇ璁椋炪侀搧濉斻傚叾涓锛孉I榫欏ご鍏鍙哥戝ぇ璁椋炰綔涓篴鑲′汉宸ユ櫤鑳介緳澶村叕鍙革紝宸插湪鏁欒偛銆佹櫤鎱у煄甯傘佸尰鐤椼丆绔纭浠朵骇鍝佺瓑澶氫釜搴旂敤鍘傚晢寮灞曞伐浣滐紝濡傚悓鑺遍『銆佷笁鍏闆躲侀噾灞辩瓑銆
『陆』 神经网络的具体算法
神经网络和粗集理论是智能信息处理的两种重要的方法,其任务是从大量观察和实验数据中获取知识、表达知识和推理决策规则。粗集理论是基于不可分辩性思想和知识简化方法,从数据中推理逻辑规则,适合于数据简化、数据相关性查找、发现数据模式、从数据中提取规则等。神经网络是利用非线性映射的思想和并行处理方法,用神经网络本身的结构表达输入与输出关联知识的隐函数编码,具有较强的并行处理、逼近和分类能力。在处理不准确、不完整的知识方面,粗集理论和神经网络都显示出较强的适应能力,然而两者处理信息的方法是不同的,粗集方法模拟人类的抽象逻辑思维,神经网络方法模拟形象直觉思维,具有很强的互补性。
首先,通过粗集理论方法减少信息表达的属性数量,去掉冗余信息,使训练集简化,减少神经网络系统的复杂性和训练时间;其次利用神经网络优良的并行处理、逼近和分类能力来处理风险预警这类非线性问题,具有较强的容错能力;再次,粗集理论在简化知识的同时,很容易推理出决策规则,因而可以作为后续使用中的信息识别规则,将粗集得到的结果与神经网络得到的结果相比较,以便相互验证;最后,粗集理论的方法和结果简单易懂,而且以规则的形式给出,通过与神经网络结合,使神经网络也具有一定的解释能力。因此,粗集理论与神经网络融合方法具有许多优点,非常适合处理诸如企业战略风险预警这类非结构化、非线性的复杂问题。
关于输入的问题--输入模块。
这一阶段包括初始指标体系确定,根据所确定的指标体系而形成的数据采集系统及数据预处理。企业战略风险的初始评价指标如下:
企业外部因素:政治环境(法律法规及其稳定性),经济环境(社会总体收入水平,物价水平,经济增长率),产业结构(进入产业障碍,竞争对手数量及集中程度),市场环境(市场大小)。
企业内部因素:企业盈利能力(销售利润率,企业利润增长率),产品竞争能力(产品销售率,市场占有率),技术开发能力(技术开发费比率,企业专业技术人才比重),资金筹措能力(融资率),企业职工凝聚力(企业员工流动率),管理人才资源,信息资源;战略本身的风险因素(战略目标,战略重点,战略措施,战略方针)。
本文所建立的预警指标系统是针对普遍意义上的企业,当该指标系统运用于实际企业时,需要对具体指标进行适当的增加或减少。因为各个企业有其具体的战略目标、经营活动等特性。
计算处理模块。这一模块主要包括粗集处理部分和神经网络处理部分。
粗集处理阶段。根据粗集的简化规则及决策规则对数据进行约简,构造神经网络的初始结构,便于神经网络的训练。
企业战略风险分析需要解决的问题是在保证对战略风险状态评价一致的情况下,选择最少的特征集,以便减少属性维数、降低计算工作量和减少不确定因素的影响,粗集理论中的属性约简算法可以很好地解决这个问题。
然后是输出模块~
该模块是对将发生的战略风险问题发出警报。
按照战略风险大小强弱程度的不同,可将其分为三个层次。第一层次是轻微战略风险,是损失较小、后果不甚明显,对企业的战略管理活动不构成重要影响的各类风险。这类风险一般情况下无碍大局,仅对企业形成局部和微小的伤害。第二层次是一般战略风险,是损失适中、后果明显但不构成致命性威胁的各类风险。这类风险的直接后果使企业遭受一定损失,并对其战略管理的某些方面带来较大的不利影响或留有一定后遗症。第三层次是致命性战略风险,指损失较大,后果严重的风险。这类风险的直接后果往往会威胁企业的生存,导致重大损失,使之一时不能恢复或遭受破产。在实际操作中,每个企业应根据具体的状况,将这三个层次以具体的数值表现出来。
下面回答你的问题:
总的来说,神经网络输入的是初始指标体系;输出的是风险。
你所说的风险应该说属于输出范畴,具体等级分为三级:无警、轻警、重警,并用绿、黄、红三种颜色灯号表示。其中绿灯区表示企业综合指标所反映的实际运行值与目标值基本一致,运行良好;黄灯区表示企业综合指标所反映的实际运行值与目标值偏离较大,要引起企业的警惕。若采取一定的措施可转为绿灯区,若不重视可在短期内转为红灯区;红灯区则表示这种偏离超过企业接受的可能,并给企业带来整体性的重大损失。例如:销售利润率极低、资产负债率过高,资源配置不合理、缺乏发展后劲等,必须找出原因,继而采取有效措施,使企业的战略管理活动始终处于“安全”的状态。
希望以上答案能够帮到你,祝你好运~
『柒』 Matlab神经网络原理中可以用于寻找最优解的算法有哪些
若果对你有帮助,请点赞。
神经网络的结构(例如输入3隐节点1输出)建好后,一般就要求神经网络里的权值和阈值。现在一般求解权值和阈值,都是采用梯度下降之类的搜索算法(梯度下降法、牛顿法、列文伯格-马跨特法、狗腿法等等),这些算法会先初始化一个解,在这个解的基础上,确定一个搜索方向和一个移动步长(各种法算确定方向和步长的方法不同,也就使各种算法适用于解决不同的问题),使初始解根据这个方向和步长移动后,能使目标函数的输出(在神经网络中就是预测误差)下降。 然后将它更新为新的解,再继续寻找下一步的移动方向的步长,这样不断的迭代下去,目标函数(神经网络中的预测误差)也不断下降,最终就能找到一个解,使得目标函数(预测误差)比较小。
而在寻解过程中,步长太大,就会搜索得不仔细,可能跨过了优秀的解,而步长太小,又会使寻解过程进行得太慢。因此,步长设置适当非常重要。
学习率对原步长(在梯度下降法中就是梯度的长度)作调整,如果学习率lr = 0.1,那么梯度下降法中每次调整的步长就是0.1*梯度,
而在matlab神经网络工具箱里的lr,代表的是初始学习率。因为matlab工具箱为了在寻解不同阶段更智能的选择合适的步长,使用的是可变学习率,它会根据上一次解的调整对目标函数带来的效果来对学习率作调整,再根据学习率决定步长。
机制如下:
if newE2/E2 > maxE_inc %若果误差上升大于阈值
lr = lr * lr_dec; %则降低学习率
else
if newE2 < E2 %若果误差减少
lr = lr * lr_inc;%则增加学习率
end
详细的可以看《神经网络之家》nnetinfo里的《[重要]写自己的BP神经网络(traingd)》一文,里面是matlab神经网络工具箱梯度下降法的简化代码