❶ 什么是神经语言程序学关于这个学科有哪些有权威性的代表作
神经语言程序学即NLP(Neuro-Linguistic Programming),首创于1970年的美国,NLP的发展源自它的创始人约翰·葛瑞德(John Grinder)与 理察·班德勒(Richard Bandler )对精神疗法和人类行为的兴趣。
权威性的代表作:
1 《改变现状的行家手册》 [美]理查·班德勒、威尔·麦可达纳德 世茂出版社
2 《改变你的未来》 [美]理查·班德勒 世茂出版社
3 《改变未来续集》 史提夫·安祖 康尼瑞儿·安祖 世茂出版社
4 《改观——重新建构你的思想、言语及行为》上下 [美]约翰·葛瑞德 理查·班德勒世茂出版社
5 《神奇的结构》英文版上下册
6 《激发心灵的潜力》 [美]安东尼奥·罗宾 新疆科学技术出版社
7 《唤醒心中的巨人》 [美]安东尼奥·罗宾 安徽文艺出版社
14 《成为你想成为的人》[美]John J·Emerick,Jr 中国轻工业出版社
15 《教与学相长》 席德·杰克森 世茂出版社
16 《思考如何思考》 乔瑟夫·伊格 世茂出版社
17 《构建心灵宽带网》 舒俊琳 广东经济出版社
18 《升级你的大脑》 舒俊琳 广东经济出版社
19 《能说会道》[英]彼得·汤姆森 国际文化出版公司
20 《唤醒内在天才》[美]派翠克·波特 黑龙江人民出版社
21 《超级影响力 NLP致胜行销学》 [中]尚致胜
22 《NLP实践指南》 [美]哈瑞·阿德尔 经济管理出版社
23 《自己就是一座宝藏》 [台湾]陈安之
24 《激发潜能——NLP成功法则》 [英]苏·奈特 机械工业出版社
25 《再造自我》 [英]苏·奈特 机械工业出版社
26 《NLP学习突破的捷径》 [英]黛安娜·皮弗中国商业出版社
27 《NLP实践指南》 [美]哈瑞·阿德尔经济管理出版社
28 《NLP高级管理教程》 [英]戴维·莫尔登经济管理出版社
29 《十倍速学习法》 [瑞士]薇蕾娜·施坦纳 南海出版公司
30 《双赢轨迹》 [英]安德鲁·布拉德伯里 上海远东出版社
31 《创造你的最佳表现》 [中]胡谢骅 中国经济出版社
32 《24小时改变你的一生》 [中]李珊璟 海天出版社
33 《最大化你的魅力》 [澳]德斯蒙德·吉尔福尔 中信出版社
34 《催眠式销售》这事实上是一本NLP的书籍。
35 《心灵密码》超星电子书 [中]尚致胜
36 《一分钟巨人》电子书 [美]安东尼·罗宾
37 《大脑操作手册》 [美]罗勃·帝尔兹、约翰·葛瑞德、理查·班德勒、裘帝·帝乐斯 世茂出版社
38 《青蛙变王子》 [美]约翰·葛瑞德、理查·班德勒 世茂出版社
39 《全面提升——NLP的应用》 [美]罗勃·帝尔 世茂出版社
40 《复制卓越——烙印技术》
41 《复制卓越2——最佳未来写照》 [美]拉司黎·班德勒,大卫·乔登,迈可·利比亚 世茂出版社
42 《NLP——无限成就计划》
43 《重新启动——生命的原动力》 [美]罗勃·帝尔 世茂出版社
44 《神奇实用的NLP——NLP入门到临床心理》 [美]史帝夫.莱卡顿 世茂出版社
45 《相信你能够—自我心灵改造》 [美]康妮瑞、史提夫·安德瑞斯 中国生产力中心。
❷ 神经网络的历史是什么
沃伦·麦卡洛克和沃尔特·皮茨(1943)基于数学和一种称为阈值逻辑的算法创造了一种神经网络的计算模型。这种模型使得神经网络的研究分裂为两种不同研究思路。一种主要关注大脑中的生物学过程,另一种主要关注神经网络在人工智能里的应用。
一、赫布型学习
二十世纪40年代后期,心理学家唐纳德·赫布根据神经可塑性的机制创造了一种对学习的假说,现在称作赫布型学习。赫布型学习被认为是一种典型的非监督式学习规则,它后来的变种是长期增强作用的早期模型。从1948年开始,研究人员将这种计算模型的思想应用到B型图灵机上。
法利和韦斯利·A·克拉克(1954)首次使用计算机,当时称作计算器,在MIT模拟了一个赫布网络。纳撒尼尔·罗切斯特(1956)等人模拟了一台 IBM 704计算机上的抽象神经网络的行为。
弗兰克·罗森布拉特创造了感知机。这是一种模式识别算法,用简单的加减法实现了两层的计算机学习网络。罗森布拉特也用数学符号描述了基本感知机里没有的回路,例如异或回路。这种回路一直无法被神经网络处理,直到保罗·韦伯斯(1975)创造了反向传播算法。
在马文·明斯基和西摩尔·派普特(1969)发表了一项关于机器学习的研究以后,神经网络的研究停滞不前。他们发现了神经网络的两个关键问题。
第一是基本感知机无法处理异或回路。第二个重要的问题是电脑没有足够的能力来处理大型神经网络所需要的很长的计算时间。直到计算机具有更强的计算能力之前,神经网络的研究进展缓慢。
二、反向传播算法与复兴
后来出现的一个关键的进展是保罗·韦伯斯发明的反向传播算法(Werbos 1975)。这个算法有效地解决了异或的问题,还有更普遍的训练多层神经网络的问题。
在二十世纪80年代中期,分布式并行处理(当时称作联结主义)流行起来。戴维·鲁姆哈特和詹姆斯·麦克里兰德的教材对于联结主义在计算机模拟神经活动中的应用提供了全面的论述。
神经网络传统上被认为是大脑中的神经活动的简化模型,虽然这个模型和大脑的生理结构之间的关联存在争议。人们不清楚人工神经网络能多大程度地反映大脑的功能。
支持向量机和其他更简单的方法(例如线性分类器)在机器学习领域的流行度逐渐超过了神经网络,但是在2000年代后期出现的深度学习重新激发了人们对神经网络的兴趣。
三、2006年之后的进展
人们用CMOS创造了用于生物物理模拟和神经形态计算的计算设备。最新的研究显示了用于大型主成分分析和卷积神经网络的纳米设备具有良好的前景。
如果成功的话,这会创造出一种新的神经计算设备,因为它依赖于学习而不是编程,并且它从根本上就是模拟的而不是数字化的,虽然它的第一个实例可能是数字化的CMOS设备。
在2009到2012年之间,Jürgen Schmidhuber在Swiss AI Lab IDSIA的研究小组研发的循环神经网络和深前馈神经网络赢得了8项关于模式识别和机器学习的国际比赛。
例如,Alex Graves et al.的双向、多维的LSTM赢得了2009年ICDAR的3项关于连笔字识别的比赛,而且之前并不知道关于将要学习的3种语言的信息。
IDSIA的Dan Ciresan和同事根据这个方法编写的基于GPU的实现赢得了多项模式识别的比赛,包括IJCNN 2011交通标志识别比赛等等。
他们的神经网络也是第一个在重要的基准测试中(例如IJCNN 2012交通标志识别和NYU的扬·勒丘恩(Yann LeCun)的MNIST手写数字问题)能达到或超过人类水平的人工模式识别器。
类似1980年Kunihiko Fukushima发明的neocognitron和视觉标准结构(由David H. Hubel和Torsten Wiesel在初级视皮层中发现的那些简单而又复杂的细胞启发)那样有深度的、高度非线性的神经结构可以被多伦多大学杰弗里·辛顿实验室的非监督式学习方法所训练。
2012年,神经网络出现了快速的发展,主要原因在于计算技术的提高,使得很多复杂的运算变得成本低廉。以AlexNet为标志,大量的深度网络开始出现。
2014年出现了残差神经网络,该网络极大解放了神经网络的深度限制,出现了深度学习的概念。
构成
典型的人工神经网络具有以下三个部分:
1、结构(Architecture)结构指定了网络中的变量和它们的拓扑关系。例如,神经网络中的变量可以是神经元连接的权重(weights)和神经元的激励值(activities of the neurons)。
2、激励函数(Activation Rule)大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。一般激励函数依赖于网络中的权重(即该网络的参数)。
3、学习规则(Learning Rule)学习规则指定了网络中的权重如何随着时间推进而调整。这一般被看做是一种长时间尺度的动力学规则。一般情况下,学习规则依赖于神经元的激励值。它也可能依赖于监督者提供的目标值和当前权重的值。
例如,用于手写识别的一个神经网络,有一组输入神经元。输入神经元会被输入图像的数据所激发。在激励值被加权并通过一个函数(由网络的设计者确定)后,这些神经元的激励值被传递到其他神经元。
这个过程不断重复,直到输出神经元被激发。最后,输出神经元的激励值决定了识别出来的是哪个字母。