❶ 什麼是神經語言程序學關於這個學科有哪些有權威性的代表作
神經語言程序學即NLP(Neuro-Linguistic Programming),首創於1970年的美國,NLP的發展源自它的創始人約翰·葛瑞德(John Grinder)與 理察·班德勒(Richard Bandler )對精神療法和人類行為的興趣。
權威性的代表作:
1 《改變現狀的行家手冊》 [美]理查·班德勒、威爾·麥可達納德 世茂出版社
2 《改變你的未來》 [美]理查·班德勒 世茂出版社
3 《改變未來續集》 史提夫·安祖 康尼瑞兒·安祖 世茂出版社
4 《改觀——重新建構你的思想、言語及行為》上下 [美]約翰·葛瑞德 理查·班德勒世茂出版社
5 《神奇的結構》英文版上下冊
6 《激發心靈的潛力》 [美]安東尼奧·羅賓 新疆科學技術出版社
7 《喚醒心中的巨人》 [美]安東尼奧·羅賓 安徽文藝出版社
14 《成為你想成為的人》[美]John J·Emerick,Jr 中國輕工業出版社
15 《教與學相長》 席德·傑克森 世茂出版社
16 《思考如何思考》 喬瑟夫·伊格 世茂出版社
17 《構建心靈寬頻網》 舒俊琳 廣東經濟出版社
18 《升級你的大腦》 舒俊琳 廣東經濟出版社
19 《能說會道》[英]彼得·湯姆森 國際文化出版公司
20 《喚醒內在天才》[美]派翠克·波特 黑龍江人民出版社
21 《超級影響力 NLP致勝行銷學》 [中]尚致勝
22 《NLP實踐指南》 [美]哈瑞·阿德爾 經濟管理出版社
23 《自己就是一座寶藏》 [台灣]陳安之
24 《激發潛能——NLP成功法則》 [英]蘇·奈特 機械工業出版社
25 《再造自我》 [英]蘇·奈特 機械工業出版社
26 《NLP學習突破的捷徑》 [英]黛安娜·皮弗中國商業出版社
27 《NLP實踐指南》 [美]哈瑞·阿德爾經濟管理出版社
28 《NLP高級管理教程》 [英]戴維·莫爾登經濟管理出版社
29 《十倍速學習法》 [瑞士]薇蕾娜·施坦納 南海出版公司
30 《雙贏軌跡》 [英]安德魯·布拉德伯里 上海遠東出版社
31 《創造你的最佳表現》 [中]胡謝驊 中國經濟出版社
32 《24小時改變你的一生》 [中]李珊璟 海天出版社
33 《最大化你的魅力》 [澳]德斯蒙德·吉爾福爾 中信出版社
34 《催眠式銷售》這事實上是一本NLP的書籍。
35 《心靈密碼》超星電子書 [中]尚致勝
36 《一分鍾巨人》電子書 [美]安東尼·羅賓
37 《大腦操作手冊》 [美]羅勃·帝爾茲、約翰·葛瑞德、理查·班德勒、裘帝·帝樂斯 世茂出版社
38 《青蛙變王子》 [美]約翰·葛瑞德、理查·班德勒 世茂出版社
39 《全面提升——NLP的應用》 [美]羅勃·帝爾 世茂出版社
40 《復制卓越——烙印技術》
41 《復制卓越2——最佳未來寫照》 [美]拉司黎·班德勒,大衛·喬登,邁可·利比亞 世茂出版社
42 《NLP——無限成就計劃》
43 《重新啟動——生命的原動力》 [美]羅勃·帝爾 世茂出版社
44 《神奇實用的NLP——NLP入門到臨床心理》 [美]史帝夫.萊卡頓 世茂出版社
45 《相信你能夠—自我心靈改造》 [美]康妮瑞、史提夫·安德瑞斯 中國生產力中心。
❷ 神經網路的歷史是什麼
沃倫·麥卡洛克和沃爾特·皮茨(1943)基於數學和一種稱為閾值邏輯的演算法創造了一種神經網路的計算模型。這種模型使得神經網路的研究分裂為兩種不同研究思路。一種主要關注大腦中的生物學過程,另一種主要關注神經網路在人工智慧里的應用。
一、赫布型學習
二十世紀40年代後期,心理學家唐納德·赫布根據神經可塑性的機制創造了一種對學習的假說,現在稱作赫布型學習。赫布型學習被認為是一種典型的非監督式學習規則,它後來的變種是長期增強作用的早期模型。從1948年開始,研究人員將這種計算模型的思想應用到B型圖靈機上。
法利和韋斯利·A·克拉克(1954)首次使用計算機,當時稱作計算器,在MIT模擬了一個赫布網路。納撒尼爾·羅切斯特(1956)等人模擬了一台 IBM 704計算機上的抽象神經網路的行為。
弗蘭克·羅森布拉特創造了感知機。這是一種模式識別演算法,用簡單的加減法實現了兩層的計算機學習網路。羅森布拉特也用數學符號描述了基本感知機里沒有的迴路,例如異或迴路。這種迴路一直無法被神經網路處理,直到保羅·韋伯斯(1975)創造了反向傳播演算法。
在馬文·明斯基和西摩爾·派普特(1969)發表了一項關於機器學習的研究以後,神經網路的研究停滯不前。他們發現了神經網路的兩個關鍵問題。
第一是基本感知機無法處理異或迴路。第二個重要的問題是電腦沒有足夠的能力來處理大型神經網路所需要的很長的計算時間。直到計算機具有更強的計算能力之前,神經網路的研究進展緩慢。
二、反向傳播演算法與復興
後來出現的一個關鍵的進展是保羅·韋伯斯發明的反向傳播演算法(Werbos 1975)。這個演算法有效地解決了異或的問題,還有更普遍的訓練多層神經網路的問題。
在二十世紀80年代中期,分布式並行處理(當時稱作聯結主義)流行起來。戴維·魯姆哈特和詹姆斯·麥克里蘭德的教材對於聯結主義在計算機模擬神經活動中的應用提供了全面的論述。
神經網路傳統上被認為是大腦中的神經活動的簡化模型,雖然這個模型和大腦的生理結構之間的關聯存在爭議。人們不清楚人工神經網路能多大程度地反映大腦的功能。
支持向量機和其他更簡單的方法(例如線性分類器)在機器學習領域的流行度逐漸超過了神經網路,但是在2000年代後期出現的深度學習重新激發了人們對神經網路的興趣。
三、2006年之後的進展
人們用CMOS創造了用於生物物理模擬和神經形態計算的計算設備。最新的研究顯示了用於大型主成分分析和卷積神經網路的納米設備具有良好的前景。
如果成功的話,這會創造出一種新的神經計算設備,因為它依賴於學習而不是編程,並且它從根本上就是模擬的而不是數字化的,雖然它的第一個實例可能是數字化的CMOS設備。
在2009到2012年之間,Jürgen Schmidhuber在Swiss AI Lab IDSIA的研究小組研發的循環神經網路和深前饋神經網路贏得了8項關於模式識別和機器學習的國際比賽。
例如,Alex Graves et al.的雙向、多維的LSTM贏得了2009年ICDAR的3項關於連筆字識別的比賽,而且之前並不知道關於將要學習的3種語言的信息。
IDSIA的Dan Ciresan和同事根據這個方法編寫的基於GPU的實現贏得了多項模式識別的比賽,包括IJCNN 2011交通標志識別比賽等等。
他們的神經網路也是第一個在重要的基準測試中(例如IJCNN 2012交通標志識別和NYU的揚·勒丘恩(Yann LeCun)的MNIST手寫數字問題)能達到或超過人類水平的人工模式識別器。
類似1980年Kunihiko Fukushima發明的neocognitron和視覺標准結構(由David H. Hubel和Torsten Wiesel在初級視皮層中發現的那些簡單而又復雜的細胞啟發)那樣有深度的、高度非線性的神經結構可以被多倫多大學傑弗里·辛頓實驗室的非監督式學習方法所訓練。
2012年,神經網路出現了快速的發展,主要原因在於計算技術的提高,使得很多復雜的運算變得成本低廉。以AlexNet為標志,大量的深度網路開始出現。
2014年出現了殘差神經網路,該網路極大解放了神經網路的深度限制,出現了深度學習的概念。
構成
典型的人工神經網路具有以下三個部分:
1、結構(Architecture)結構指定了網路中的變數和它們的拓撲關系。例如,神經網路中的變數可以是神經元連接的權重(weights)和神經元的激勵值(activities of the neurons)。
2、激勵函數(Activation Rule)大部分神經網路模型具有一個短時間尺度的動力學規則,來定義神經元如何根據其他神經元的活動來改變自己的激勵值。一般激勵函數依賴於網路中的權重(即該網路的參數)。
3、學習規則(Learning Rule)學習規則指定了網路中的權重如何隨著時間推進而調整。這一般被看做是一種長時間尺度的動力學規則。一般情況下,學習規則依賴於神經元的激勵值。它也可能依賴於監督者提供的目標值和當前權重的值。
例如,用於手寫識別的一個神經網路,有一組輸入神經元。輸入神經元會被輸入圖像的數據所激發。在激勵值被加權並通過一個函數(由網路的設計者確定)後,這些神經元的激勵值被傳遞到其他神經元。
這個過程不斷重復,直到輸出神經元被激發。最後,輸出神經元的激勵值決定了識別出來的是哪個字母。