① 神經網路預測股票准嗎
目前還達不到非常准確的效果,決定股票走勢的因子很多,有些如突發的並購、減持、宏觀經濟的事件、公司人事的更迭等等,這些事件神經網路沒法給出好的判斷。
② 求助:用神經網路做一個數據預測
下列代碼為BP神經網路預測37-56周的銷售量的代碼:
% x為原始序列
load 銷售量.mat
data=C
x=data';
t=1:length(x);
lag=2;
fn=length(t);
[f_out,iinput]=BP(x,lag,fn);
%預測年份或某一時間段
t1=fn:fn+20;
n=length(t1);
t1=length(x)+1:length(x)+n;
%預測步數為fn
fn=length(t1);
[f_out,iinput]=BP(x,lag,fn);
P=vpa(f_out,5);
[t1' P']
% 畫出預測圖
figure(6),plot(t,x,'b*-'),hold on
plot(t(end):t1(end),[iinput(end),f_out],'rp-'),grid on
xlabel('周數'),ylabel('銷售量');
str=['BP神經網路預測',num2str(length(x)+1),'-',num2str(length(x)+20),'周的銷售量'];
title(str)
str1=['1-',num2str(length(x)),'周的銷售量'];
str2=[num2str(length(x)+1),'-',num2str(length(x)+20),'周的預測銷售量'];
legend(str1,str2)
運行結果
③ 神經網路——BP演算法
對於初學者來說,了解了一個演算法的重要意義,往往會引起他對演算法本身的重視。BP(Back Propagation,後向傳播)演算法,具有非凡的歷史意義和重大的現實意義。
1969年,作為人工神經網路創始人的明斯基(Marrin M insky)和佩珀特(Seymour Papert)合作出版了《感知器》一書,論證了簡單的線性感知器功能有限,不能解決如「異或」(XOR )這樣的基本問題,而且對多層網路也持悲觀態度。這些論點給神經網路研究以沉重的打擊,很多科學家紛紛離開這一領域,神經網路的研究走向長達10年的低潮時期。[1]
1974年哈佛大學的Paul Werbos發明BP演算法時,正值神經外網路低潮期,並未受到應有的重視。[2]
1983年,加州理工學院的物理學家John Hopfield利用神經網路,在旅行商這個NP完全問題的求解上獲得當時最好成績,引起了轟動[2]。然而,Hopfield的研究成果仍未能指出明斯基等人論點的錯誤所在,要推動神經網路研究的全面開展必須直接解除對感知器——多層網路演算法的疑慮。[1]
真正打破明斯基冰封魔咒的是,David Rumelhart等學者出版的《平行分布處理:認知的微觀結構探索》一書。書中完整地提出了BP演算法,系統地解決了多層網路中隱單元連接權的學習問題,並在數學上給出了完整的推導。這是神經網路發展史上的里程碑,BP演算法迅速走紅,掀起了神經網路的第二次高潮。[1,2]
因此,BP演算法的歷史意義:明確地否定了明斯基等人的錯誤觀點,對神經網路第二次高潮具有決定性意義。
這一點是說BP演算法在神經網路領域中的地位和意義。
BP演算法是迄今最成功的神經網路學習演算法,現實任務中使用神經網路時,大多是在使用BP演算法進行訓練[2],包括最近炙手可熱的深度學習概念下的卷積神經網路(CNNs)。
BP神經網路是這樣一種神經網路模型,它是由一個輸入層、一個輸出層和一個或多個隱層構成,它的激活函數採用sigmoid函數,採用BP演算法訓練的多層前饋神經網路。
BP演算法全稱叫作誤差反向傳播(error Back Propagation,或者也叫作誤差逆傳播)演算法。其演算法基本思想為:在2.1所述的前饋網路中,輸入信號經輸入層輸入,通過隱層計算由輸出層輸出,輸出值與標記值比較,若有誤差,將誤差反向由輸出層向輸入層傳播,在這個過程中,利用梯度下降演算法對神經元權值進行調整。
BP演算法中核心的數學工具就是微積分的 鏈式求導法則 。
BP演算法的缺點,首當其沖就是局部極小值問題。
BP演算法本質上是梯度下降,而它所要優化的目標函數又非常復雜,這使得BP演算法效率低下。
[1]、《BP演算法的哲學思考》,成素梅、郝中華著
[2]、《機器學習》,周志華著
[3]、 Deep Learning論文筆記之(四)CNN卷積神經網路推導和實現
2016-05-13 第一次發布
2016-06-04 較大幅度修改,完善推導過程,修改文章名
2016-07-23 修改了公式推導中的一個錯誤,修改了一個表述錯誤
④ 神經網路權值怎麼算
net.iw{1,1}=W0;net.b{1}=B0;
net.iw{1,1}=W0;輸入層和隱層間的權值,net.b{1}=B0輸入層和隱層間的閾值.
BP(back propagation)神經網路是1986年由Rumelhart和McClelland為首的科學家提出的概念,是一種按照誤差逆向傳播演算法訓練的多層前饋神經網路,是目前應用最廣泛的神經網路。
BP神經網路具有任意復雜的模式分類能力和優良的多維函數映射能力,解決了簡單感知器不能解決的異或(Exclusive OR,XOR)和一些其他問題。從結構上講,BP網路具有輸入層、隱藏層和輸出層;
從本質上講,BP演算法就是以網路誤差平方為目標函數、採用梯度下降法來計算目標函數的最小值。
(4)bp神經網路股市擴展閱讀:
BP神經網路無論在網路理論還是在性能方面已比較成熟。其突出優點就是具有很強的非線性映射能力和柔性的網路結構。網路的中間層數、各層的神經元個數可根據具體情況任意設定,並且隨著結構的差異其性能也有所不同。但是BP神經網路也存在以下的一些主要缺陷。
①學習速度慢,即使是一個簡單的問題,一般也需要幾百次甚至上千次的學習才能收斂。
②容易陷入局部極小值。
③網路層數、神經元個數的選擇沒有相應的理論指導。
④網路推廣能力有限。
對於上述問題,目前已經有了許多改進措施,研究最多的就是如何加速網路的收斂速度和盡量避免陷入局部極小值的問題。
⑤ BP是什麼
1、沸點
BP(Boiling Point ),(物理學)沸點。
2、血壓
BP(blood pressure),(醫學)血壓。
3、基點
Basis Point(bp)基點。用於金融方面,債券和票據利率改變數的度量單位。一個基點等於1個百分點的1%,即0.01%,因此,100個基點等於1%。 如: 一浮動利率債券的利率可能比LIBOR高10個基點,100個基點相當於1%,該債券的利率可能比普遍使用的LIBOR利率高0.1%。 [例] 當美聯儲宣布將利率下調50個基點時,也就等於下降了0.5個百分點。
4、鹼基對
bp(base pair),(生物學)鹼基對。 1bp=1鹼基對。
5、英國石油集團公司
BP(British Petroleum),英國石油集團公司。 BP石油集團公司
BP是世界上最大的石油和石化集團公司之一。由前英國石油、阿莫科、阿科和嘉實多等公司整合重組形成。公司的主要業務是油氣勘探開發;煉油;天然氣銷售和發電;油品零售和運輸;以及石油化工產品生產和銷售。此外,公司在太陽能發電方面的業務也在不斷壯大。BP總部設在英國倫敦。公司目前的資產市值約為2000億美元,擁有愈百萬股東。BP 近十一萬員工遍布全世界,在百餘個國家擁有生產和經營活動。2003年,BP在《財富》雜志的全球500強中排前五名,名列歐洲500強之首。 自1973年在華拓展業務以來,BP在一系列商業項目中累計投資超過40億美元,積極參與了中國的經濟建設。迄今BP是中國最大的海上天然氣生產企業,中國第一家液化天然氣(LNG)的唯一外方合作夥伴,石化領域最大的外資投資企業,中國最大的液化石油氣(LPG)進口和營銷企業,唯一參與航空燃油服務的外方合作夥伴,等。主要的合資企業有:向海南和香港供氣的崖城天然氣田,BP廣東液化天然氣站線項目,上海賽科,寧波華東BP液化石油氣有限公司, 珠海PTA, 重慶揚子乙醯,藍天航空燃油服務公司等。 約翰。布朗全球實力商業領袖 --《財富》2003年八月期專題報道譯文《財富》2003年八月期載文報道,在美國之外最有影響力的25位商業領袖之中,英國BP CEO約翰·布朗(John Browne)名列榜首。 去年殼牌超過BP成為在美國之外最大的石油公司。但是殼牌的Phil Warts僅僅是繼承了一個龐大的公司,而約翰·布朗則是在1998年合並阿莫科(Amoco)和2000年收購阿科(Arco)之後成功地把BP打造成一個超級企業。BP公司的CEO同時揮師俄羅斯,創建了對所有西方投資者來說最大的合資公司, 從而展示了實力。今年55歲的約翰。布朗,因為其聘用員工的做法而備受女性群體的尊敬與喜愛,同時由於倡導和推進綠色環保方面的努力,使其比同行更受歡迎。
其他
2010年雅虎十大熱門搜索詞
6、尋呼機
BP(beeper),BP機,尋呼機,傳呼機。
7、反向傳播
BP(Back Propagation),反向傳播。 BP神經網路,即誤差反傳誤差反向傳播演算法的學習過程,由信息的正向傳播和誤差的反向傳播兩個過程組成。輸入層各神經元負責接收來自外界的輸入信息,並傳遞給中間層各神經元;中間層是內部信息處理層,負責信息變換,根據信息變化能力的需求,中間層可以設計為單隱層或者多隱層結構;最後一個隱層傳遞到輸出層各神經元的信息,經進一步處理後,完成一次學習的正向傳播處理過程,由輸出層向外界輸出信息處理結果。當實際輸出與期望輸出不符時,進入誤差的反向傳播階段。誤差通過輸出層,按誤差梯度下降的方式修正各層權值,向隱層、輸入層逐層反傳。周而復始的信息正向傳播和誤差反向傳播過程,是各層權值不斷調整的過程,也是神經網路學習訓練的過程,此過程一直進行到網路輸出的誤差減少到可以接受的程度,或者預先設定的學習次數為止。
8、基址指針寄存器
BP(Base Pointer),基址指針寄存器。 編程時存儲器定址採用邏輯地址,邏輯地址有偏移地址和段地址。BP為基址指針寄存器,指明了數據的偏移地址,而段地址默認是堆棧段。所以就有了上面的表述。 例如:MOV AX,[BP] 源操作數指明一個主存數據,這個數據所在存儲單元的段地址由SS指明、偏移地址由BP指明。
9、葯學士
BP(Bachelor of Pharmacy),葯學士。
10、理學學士
BP(Bachelor of Philosophy ),理學學士,哲學學士。
11、反壓力
BP(Back Pressure),反壓力。
BP(Band Pass),(無線電)(計算機)帶通。
13、大氣壓
BP(Barometric Pressure ),大氣壓。
編輯本段14、海岸信標
BP(Beacon Point ),海岸信標,航標站。
編輯本段15、鍋爐壓力
BP(Boiler Pressure ),鍋爐壓力。
編輯本段16、 英國專利
BP(British Patent ),英國專利。
編輯本段17、《英國葯典》
BP(British Phamacopoeia),《英國葯典》。
編輯本段18、《巴格達條約》
BP(Baghdad Pact ),《巴格達條約》
編輯本段19、 中斷點
BP(Break Point), (計算機)中斷點。
編輯本段20、下電嘴
BP(Bottom Plug ),下電嘴,下電咀
編輯本段21、藍圖
BP(Blueprint ),藍圖。
編輯本段22、董事長
BP(Board President ),董事長。
編輯本段23、藍相(BP)
藍相(BP)是液晶中具有特殊性質的一個相態,它的序參量表現出三維空間周期性.藍相是出現在一個狹小的溫度間隔里(量級為0.1-1K)的穩定相態. 藍相是各種膽甾相液晶(膽甾醇衍生物和手性液晶)在稍低於清亮點時存在的一個或兩個熱力學穩定相,它是介於膽甾相和各向同性相之間的一個狹窄溫度區間(只有幾度)的新相,由於通常呈現藍色,故稱為藍相。這是由於它選擇性反射圓偏振光或伴隨的異常旋光彌散所致。 藍相是穩定的相態,具有遠程取向有序的特徵。但藍相不一定都是藍色,藍、藍灰、綠以至於白色都有可能。其彩色取決於布拉格散射,當然主要是螺距的長短。
編輯本段24、二苯甲酮
BP(Benzophenone, di-phinyl ketone),二苯甲酮 紫外線吸收劑(吸收紫外線波長290-360納米)和引發劑,有機顏料,醫葯,香料,殺蟲劑的中間體 醫葯工業中用於生產雙環乙哌啶,苯甲托品氫溴酸鹽,苯海拉明鹽等,也是苯乙烯聚合抑制劑和香料定香劑,能賦予香料以甜的氣息,用在許多香水和皂用香精中。 化妝品工業中可用於防曬油/膏。
編輯本段25、泡打粉
B.P(Baking Powder) ,泡打粉的縮寫。泡打粉又稱『速發粉』或『泡大粉』或『蛋糕發粉』或『發酵粉』,是西點膨大劑的一種,經常用於蛋糕及西餅的製作。配料中的鉀明礬有毒害,現在被醫學證明不宜食用.會導致骨質疏鬆、貧血,甚至影響神經細胞的發育。及引起老年性痴呆症。
編輯本段26、購買力
B.P (Buying Power) 購買力。在股票交易市場特別是日內交易市場中,BuyingPower是指交易員所能動用的資金量。B.P不等同於現金。經紀公司會專門建立一個資金池,交易員所需要的B.P就是從資金池中取得的。因而交易員並不能轉移其所使用的BP,而只能使用其來買賣股票或期貨。如果有10個交易員,每個交易員需要使用100萬,那麼資金池並不需要准備1000萬的資金,而只需要准備一定百分比的資金就足夠了。因為交易員所佔用的BP是動態的,只要根據經驗峰值統計,就可以確定出比較合理的百分比了。
編輯本段27、擴充包、素材包
BP(Booster Pack ; 擴充包 ; 素材包)是游戲中隊游戲本身進行擴展的文件版本。
編輯本段28.DNF中一種特殊的積分點
DNF中文名稱地下城與勇士,在新開放的的無盡的祭壇中BP可通過殺死怪物或服用BP葯水獲取。BP可用於購買五種能力:恢復,加力量,加智力,加速度,減少冷卻時間。
⑥ 吳微的論文論著
1. 吳微,解非線性分枝問題的擴展方程方法,
科學出版社, 北京, 1993.
2.R. Li, Z. Chen and W. Wu, Generalized Difference Methods for
Differential Equations,
(美國)Marcel Dekker Inc., New York, 2000.
3.吳微, 神經網路計算,
高等教育出版社, 北京, 2003.(「十五」規劃國家級教材) 1. 吳微,李榮華, 解一維二階橢圓和拋物型微分方程的廣義差分法,
數學年刊, 5A(1984)303-312.
2. 吳微, 系數與時間相關的二階雙曲方程的半離散有限元逼近,
吉大自然科學學報報, 1(1985)35-42.
3. 吳微, 與時間相關的二階雙曲方程的全離散有限元逼近,
吉大自然科學學報, 2(1985)46-54.
4. 吳微, 與時間相關的非自共軛拋物方程的全離散有限元逼近,
高校計算數學, 2(1985)113-120.
5. 倪平,吳微,廣義 Galerkin 方法的超收斂估計,
高校計算數學學報, 2(1986)154-158.
6. 吳微, 解雙調和方程的混合廣義差分法,
吉大自然科學學報, 3 (1986)14-22.
7. 吳微, The Calahan method for parabolic equations with time-
dependent coefficients,
計算數學(英文版), 5(1987)10-20.
8. 包剛,吳微, 二階雙曲方程廣義差分法的誤差估計,
吉大自然科學學報, 2(1987)33-42.
9. 吳微, 非線性拋物方程廣義差分法的誤差估計,
計算數學(中文版), 2(1987)119-132.
10.吳微, 非線性轉折點計算中的矩陣分裂技巧,
高校計算數學學報, 4 (1990)355-369.
11.P.J. Aston, A. Spence and W. WU, Bifurcation to rotating waves in
equations with O(2)-symmetry,
SIAM J. Apll. Math., 52(1992)792-809. (SCI)
12.P.J. Aston, A.Spence and W.Wu, Numerical investigation of the
bifurcation from travelling waves to molated travelling waves,
Inter. Ser. Numer. Math., 104(1992)35-47.
13.Wei WU, Nondegeneracy of Hopf points emanating from a Z_2 symmetry-
breaking Takens-Bogdanov point,
Appl. Math. Lett., 6(1993)9-12. (SCI)
14.吳微,吳柏生,李榮華, Singular points near a double foldpoint in
Z_2-symmetric nonlinear equations,
高校計算數學學報(英文版), 2(1993)101-115.
15.A. Spence, W. Wu, D. Roose and B. De Dier, Bifurcation analysis of
double Takens- Bogdanov points of nonlinear equations with $Z_2$-
symmetry,
Inter. J. Bifurcation and Chaos, 3(1993)1141-1153.
16.蘇毅,吳微, 從雙重摺疊點分枝出的 Hopf 點的非退化性和穩定性,
吉大自然科學學報, 3(1993)1-8.
17.吳微, Galerkin methods for elliptic and parabolic convection-
diffusion problems,
東北數學, 9(4)(1993)525-538.
18.吳微, A Petrov-Galerkin method based on symmetrization for
convection-defusion problems,
東北數學, 10(1)(1994)59-70.
19.W. Wu and A. Spence, A pitchfork/fold interaction in nonlinear
equations with Z2-symmetry,
東北數學, 10(2)(1994)174-180.
20.W. Wu, Y. Zou and M. Huang, Heteroclinic cycles emanating from
local bifurcations,
manuscripta mathematika, 85(1994)381-392.(SCI)
21.W. Wu, P.J. Aston and A. Spence,
Rotating waves from Hopf bifurcations in equations with O(2)-
symmetry,
SIAM J. Sci. Comput., 15(3)(1994)495-510.(SCI)
22.W. Wu, A. Spence and K.A. Cliffe,
Steady-state/Hopf interaction at a symmetry-breaking Takens-
Bogdanove point,
IMA J. Numer. Anal., 14(1994)137-160.(SCI)
23.吳微, Stability of travelling waves,
數學研究與評論, 14(3)(1994)1-7.
24.蘇毅,吳微, Singular points near an X0-breaking double singular fold
point in Z2-symmetric nonlinear equations,
東北數學, 10(3)(1994) 385-395.
25.W. Wu and Y. Su, Stability of periodic solutions generated by Hopf
points emanating from a Z_2-symmetry-breaking Takens-Bogdanov
point,
東北數學, 11(2)(1995)157-168.
26.吳微, Period-doubling bifurcation of travelling waves,
非線性動力學學報, 2(增刊)(1995)48-52.
27. 吳微,Bifurcation from steady-state to global dynamics,
Bull. Allahabad Math. Soc., 10/11(1995/96)85-94.
28.鄒永魁,吳微,Petrov-Galerkin method with linear trial and
quadratic test spaces for parabolic convection-diffusion problems,
東北數學, 12(2)(1996)207-216.
29.W.Wu,On nondegeneracy of Hopf bifurcation points emanating from
TB point.
Nonlinear Analysis T.M.A., 26(6)(1996) 1161-1168.(SCI)
30.P.J. Aston, A. Spence and W. Wu, Hopf bifurcation near a double
singular point,
J. Computational and Applied Mathemetics, 80(1997)277-297.(SCI)
31.W. Wu and F.Y. Meng,Mode interaction at a triple zero point of
O(2)-symmetric nonlinear systems with two parameters,
東北數學, 16(1)(2000)10-20.
32. 吳微,趙衛海,廣義逆矩陣及其在神經網路計算中的應用,
大連理工大學學報,40(S1)(2000)9-11。
33. 吳微,陳維強,劉波,用BP神經網路預測股票市場漲跌,
大連理工大學學報,41(1)(2001)9-15。
34. 李正學,吳微,張宏偉,Convergence of on-line gradient methods for
two-layer feedforward neural networks,
數學研究與評論, 21(2)(2001)219-228。
35.孔俊,吳微,趙衛海,識別數學符號的神經網路方法,
吉大自然科學學報, 3(2001)11-16.
36. 吳微,陳維強,用於股市預測的BP演算法的一些改進,
大連理工大學學報,41(5)(2001)518-522。
37. 孔俊,吳微,Online gradient methods with a punishing term for
nureul networks,
東北數學, 17(3)(2001)371-378.
38. Wei Wu and Yi Su, Hopf bifurcation near a singular point with Z2-
symmetry and X0-breaking,
J. Computational and Applied Mathematics, 144(1-2)(2002)335-347.
(SCI)
39. Wei Wu and Yuesheng Xu, Deterministic convergence of an online
gradient method for neural networks,
J. Computational and Applied Mathematics,144(1-2)(2002)335-347
(SCI)
40. Wei Wu, Guori Feng and Xin Li, Training multiple perceptrons via
minimization of sum of ridge functions,
Advances in Computational Mathematics, 17(2002)331-347.
(SCI)
41.Zhengxue Li, Wei Wu and Weidong Gao, Predictions of stock market
by BP neural networks with technical indexes as input,
J. Mathematical Research and Exposition, 23(2003)83-97.
42.郭立賓,吳微,二維圖像中交叉點的神經網路識別,
大連理工大學學報,43(2003)548-550。
43.Wei Wu and Zhiqiong Shao, Convergence of online gradient methods
for continuous perceptrons with linearly separable training
patterns,
Applied Mathematics Letters, 16(2003)999-1002.(SCI)
44.Zhengxue Li, Wei Wu and Yuelong Tian, Convergence of an online
gradient method for feedforward neural networks with stochastic
inputs,
Journal of Computational and Applied Mathematics, 163(1)(2004)
165-176.(SCI)
45.張玉林,吳微,用BP神經網路捕捉股市黑馬初探,
運籌與管理,13(2)(12004)123-130.
46. Lijun Liu and Wei Wu, Finite convergence of MR1 neural networks
for linearly separable training patterns,
Lecture Notes in Computer Science, 3147(2004)282-295. (SCI)
47. Wei Wu et al., Recent developments in on convergence of online
gradient methods for neural network training,
Lecture Notes in Computer Science, 3147(2004)235-238. (SCI)
48. Liqing Zhang and Wei Wu, Online gradient methods with a penalty
term for neural networks with large training set,
J. of Nonlinear Dynamics in Science and Technology, 11(2004)53-58.
49. Hongmei Shao, Wei Wu and Feng Li, Convergence of online gradient
method with a penalty term for feedforward neural networks with
stochastic inputs, Numerical Mathematics, A journal Chinese
Universities, 14(2004)87-96.
50. Wu, W., Feng, G., Li, Z. and Xu, Y., Deterministic Convergence of
an Online Gradient Method for BP Neural Networks, IEEE
Transactions on Neural Networks, 16(2005)533- 540. (SCI)
51. Zhengxue Li, Wei Wu, Guorui Feng and Huifang Lu, Convergence of an
Online Gradient Method for BP Neural Networks with Stochastic
Inputs, Lecture Notes in Computer Science, 3610(2005)720-729.
Ei Compedex (05439427415), SCI (BDA22)
52. Yang, J; Wu, W; Shao, ZQ, A new training algorithm for a fuzzy
perceptron and its convergence, Lecture Notes in Computer Science,
3496(2005) 609-614, Ei Compendex (05399382279), SCI (BCN38)
53. 曲笛,吳微,邵紅梅,帶動量項的線性輸出BP網路收斂性, 高校計算數學學
報,27(2005)增刊,368—372.
54. Naimin Zhang; Wei Wu; Gaofeng Zheng, Convergence of gradient
method with momentum for two-Layer feedforward neural networks,
IEEE Transactions on Neural Networks, vol.17, no.2, 2006, 522-
525, Ei Compendex (06129763934), SCI (026SD)
55. Wei Wu, Feng Li, Jun Kong, Lichang Hou, and Bingi Zhu,A Bottom-
Up OCR System for Mathematical Formulas Recognition,D.-S. Huang,
K. Li, and G.W. Irwin (Eds.): ICIC 2006, Lecture Notes in Computer
Science, 4113(2006)274–279, Ei Compendex(064210172616),SCI
56. 吳微,侯利昌, 基於LL(1)文法的印刷體數學公式結構分析方法, 大連理
工大學學報,46(2006)454-459
57. SHAO Zhiqiong, WU Wei, YANG Jie, Finite convergence of On-line BP
neural networks with linearly separable training patterns, 數學研究
與評論,26(2006)451-456
58. Wei Wu, Hongmei Shao, and Zhengxue Li,Convergence of Batch BP
Algorithm with Penalty for FNN Training, I. King et al. (Eds.):
ICONIP 2006, Part I, Lecture Notes in Computer Science 4232, 562–
569, 2006. SCI (BFG80)
59. Lichang Hou, Wei Wu, Bingi Zhu, Feng Li, A Segmentation Method
for Merged Characters Using Self-Organizing Map Neural Networks,
Journal of Information and Computational Science, 3:2(2006)219-
226. EI Compendex
61. Hongmei Shao, Wei Wu, Lijun Liu, Convergence and Monotonicity of
an Online Gradient Method with Penalty for Neural Networks, WSEAS
TRANSACTIONS on MATHEMATICS,6:3(2007)469-476. EI Compendex
62. 陳兵,吳微,基於SOFM和最短路徑法的粘連字元分割,儀器儀表學報, 2006
年第6期增刊,2090-2106
63. Lijun Liu and Wei Wu,Dynamical System for Computing Largest
Generalized Eigenvalue,J. Wang et al. (Eds.): ISNN 2006, Lecture
Notes in Computer Science 3971, 399-404, 2006. SCI
64. Huifang Lu, Wei Wu, Chao Zhang, Yanxiong, Convergence of Gradient
Descent Algorithm for Pi-Sigma Neural Networks, Journal of
information and Computational Science, 3:3(2006)503-509. EI
Compendex
三. 國際會議論文集
1. Wei Wu, E. Suli and K.W. Morton,
Optimal order estimates for linear Galerkin methods for convection-
diffusion problems,
MAFLAP 87, London,Academic Press, 1988.
2. A. Spence, P.J. Aston and W. Wu,
Bifurcation and stability analysis in nonlinear equations using
symmetry-breaking in extended systems,
Numerical Analysis, Dundee, 89, eds. D.F Griffiths at. al.,
Longman, 1990, 243-256.
3. W. Wu,K.A. Cliffe and A. Spence,
Steady-state/steady-state mode interaction in nonlinear equations
with Z2-symmetry,
Continuation and Bifurcation: Numerical Techniques and
Applications, eds. D. Roose, De D. Dier and A. Spence, Leuvon,
Belgium, 89.Kluwer Academic Press, 1990, Series C: Mathematical
and Physical Science, Vol. 313., 89-104.
4. Wei Wu and A. Spence,
Hopf points emanating from a double singular fold point,
工程與科學中的非線性問題國際會議文集, 肖竹鐵,胡向忱主編, 科學出版
社, 北京,1992, 267-269.
5. Wei Wu,
Mode interaction at a triple zero point of O(2)-symmetric
nonlinear systems with two parameters,
World Congress of Nonlinear Analysts'92, Florida, ed. V.
Lakshmikantham, Walter de ruyter, Berlin, New York, 1996,2011-2022.
6. Wei Wu, Heteroclinic and Hopf points bifurcating from local
singular points,
Bifurcation Theory and Its Numerical Analysis, eds. Z. Chen, S.
Chow, K. LI, Xi』an, China, 1998, Springer, 194-202.
7.Wei Wu,Convergence of an online gradient method,
Abstracts of short communications and poster sessions,
InternationalCongress of Mathematicians, Beijing, 2002, Higher
Ecation Press, p353.
8.Wei Wu and Yuesheng Xu, Convergence of online gradient method for
neural networks, in Numeriacal Liner Algebra and Optimization,
edited by Ya-xiang Yuan, (Proceedings of 2001』 International
Conference on Numerical Optimization and Numerical Algebra,
Dunhuang, China, ) Science Press, Beijing/New York, 2003, 52-67,
(Invited lecture)
9.Hongmei Shao, Wei Wu, Feng Li and Gaofeng Zheng, Convergence of
gradient algorithm for feedforward neural network training, The
Proceedings of International symposium on Computing and
Information (ISC&I 2004), Edited by Renhong Wang and Xiaonan Luo,
CIC Media Ltd., 2004, pp. 627-631
10. Wei Wu, Hongmei Shao and Di Qu, Strong convergence for gradient
methods for BP networks training, Proceedings of 2005
International Conference on Neural Networks & Brains (ICNN&B』05),
Edited by Mingsheng Zhao and Zhong Shi, Beijing, China, 2005,
IEEE Press. pp. 332-334.
11. 李峰, 吳微, 版面分析中基於可並行化局部操作序列的局部極大成分標記,
第六屆全球智能控制與自動化大會 (WCICA』06), 大連, 中國, 2006, IEEE
Press. pp. 10512-10516. (ISBN:1-4244-0331-6) EI
12. HONGMEI SHAO, WEI WU,LIJUN LIU,Convergence of an Online Gradient
Algorithm with Penalty for Two-layer Neural Networks,Proceedings
of the 10th WSEAS International Conference on APPLIED MATHEMATICS,
Dallas, Texas, USA, November 1-3, 2006. Edited by G. R.
Dattatreya, WSEAS, (ISSN: 1790-5117, ISBN: 960-8457-55-6)
13. Wei Wu, Liqing Zhang and Naimin Zhang, Online gradient method with
a penalty term for BP neural networks, in Proceedings of the
Seventh China-Japan Seminar on Numerical Mathematics, Zhangjiajie,
2005, Edited by Zhong-Ci Shi and Hisashi Okamoto, pp.179-192,
Science Press, Beijing, 2006. 1.李正學,吳微, 引入技術指標的BP網路在滬市綜合指數漲跌預測中的應用,
CCAST-WL Workshops Series, Beijing, Aug. 2001, Vol. 142, 161-176.
2.吳微,陳維強,劉播,用BP神經網路預測股票市場漲跌,
CCAST-WL Workshops Series, Beijing, Aug. 2000, Vol. 127, 1-22.
3.吳微, Generalized Difference Methods for Partial Differential
Equations,
The Third International Workshop on Scientific Computing and
Applications, Hongkong, 2003, 國際會議特邀報告.
4.吳微,Monotone and deterministic convergence of online gradient
methods for feedforward neural networks,
第二屆中韓數值分析及其應用研討會,北京,2003, 國際會議特邀報告.
5.吳微,Deterministic convergenceof an online gradient method for BP
neural networks,
The Second International Symposium on Computing Science,
Guangzhou, 2002, 國際會議特邀報告.
6.吳微,Some recent developments on convergence online gradient
methods for neural networks,
第七屆中日計算數學研討會,張家界,2004, 國際會議特邀報告.