说的确定应该就是训练方法吧,神经网络的权值不是人工给定的。而是用训练集(包括输入和输出)训练,用训练集训练一遍称为一个epoch,一般要许多epoch才行,目的是使得目标与训练结果的误差(一般采用均方误差)小到一个给定的阈值。以上所说是有监督的学习方法,还有无监督的学习方法。
谷歌人工智能写作项目:小发猫
人工神经元是人工神经网络的基本处理单元,而人工智能的一个重要组成部分又是人工神经网络人工神经网络指标。人工神经网络是模拟生物神经元系统的数学模型,接受信息主要是通过神经元来进行的。首先,人工神经元利用连接强度将产生的信号扩大;然后,接收到所有与之相连的神经元输出的加权累积;最后,将神经元与加权总和一一比较,当比阈值大时,则激活人工神经元,信号被输送至与它连接的上一层的神经元,反之则不行。
人工神经网络的一个重要模型就是反向传播模型(Back-Propagation Model)(简称BP模型)。对于一个拥有n个输入节点、m个输出节点的反向传播网络,可将输入到输出的关系看作n维空间到m维空间的映射。由于网络中含有大量非线性节点,所以可具有高度非线性。
(一)神经网络评价法的步骤
利用神经网络对复垦潜力进行评价的目的就是对某个指标的输入产生一个预期的评价结果,在此过程中需要对网络的连接弧权值进行不断的调整。
(1)初始化所有连接弧的权值。为了保证网络不会出现饱和及反常的情况,一般将其设置为较小的随机数。
(2)在网络中输入一组训练数据,并对网络的输出值进行计算。
(3)对期望值与输出值之间的偏差进行计算,再从输出层逆向计算到第一隐含层,调整各条弧的权值,使其往减少该偏差的方向发展。
(4)重复以上几个步骤,对训练集中的各组训练数据反复计算,直至二者的偏差达到能够被认可的程度为止。
(二)人工神经网络模型的建立
(1)确定输入层个数。根据评价对象的实际情况,输入层的个数就是所选择的评价指标数。
(2)确定隐含层数。通常最为理想的神经网络只具有一个隐含层,输入的信号能够被隐含节点分离,然后组合成新的向量,其运算快速,可让复杂的事物简单化,减少不必要的麻烦。
(3)确定隐含层节点数。按照经验公式:
灾害损毁土地复垦
式中:j——隐含层的个数;
n——输入层的个数;
m——输出层的个数。
人工神经网络模型结构如图5-2。
图5-2人工神经网络结构图(据周丽晖,2004)
(三)人工神经网络的计算
输入被评价对象的指标信息(X1,X2,X3,…,Xn),计算实际输出值Yj。
灾害损毁土地复垦
比较已知输出与计算输出,修改K层节点的权值和阈值。
灾害损毁土地复垦
式中:wij——K-1层结点j的连接权值和阈值;
η——系数(0<η<1);
Xi——结点i的输出。
输出结果:
Cj=yj(1-yj)(dj-yj) (5-21)
式中:yj——结点j的实际输出值;
dj——结点j的期望输出值。因为无法对隐含结点的输出进行比较,可推算出:
灾害损毁土地复垦
式中:Xj——结点j的实际输出值。
它是一个轮番代替的过程,每次的迭代都将W值调整,这样经过反复更替,直到计算输出值与期望输出值的偏差在允许值范围内才能停止。
利用人工神经网络法对复垦潜力进行评价,实际上就是将土地复垦影响评价因子与复垦潜力之间的映射关系建立起来。只要选择的网络结构合适,利用人工神经网络函数的逼近性,就能无限接近上述映射关系,所以采用人工神经网络法进行灾毁土地复垦潜力评价是适宜的。
(四)人工神经网络方法的优缺点
人工神经网络方法与其他方法相比具有如下优点:
(1)它是利用最优训练原则进行重复计算,不停地调试神经网络结构,直至得到一个相对稳定的结果。所以,采取此方法进行复垦潜力评价可以消除很多人为主观因素,保证了复垦潜力评价结果的真实性和客观性。
(2)得到的评价结果误差相对较小,通过反复迭代减少系统误差,可满足任何精度要求。
(3)动态性好,通过增加参比样本的数量和随着时间不断推移,能够实现动态追踪比较和更深层次的学习。
(4)它以非线性函数为基础,与复杂的非线性动态经济系统更贴近,能够更加真实、更为准确地反映出灾毁土地复垦潜力,比传统评价方法更适用。
但是人工神经网络也存在一定的不足:
(1)人工神经网络算法是采取最优化算法,通过迭代计算对连接各神经元之间的权值不断地调整,直到达到全局最优化。但误差曲面相当复杂,在计算过程中一不小心就会使神经网络陷入局部最小点。
(2)误差通过输出层逆向传播,隐含层越多,逆向传播偏差在接近输入层时就越不准确,评价效率在一定程度上也受到影响,收敛速度不及时的情况就容易出现,从而造成个别区域的复垦潜力评价结果出现偏离。
人工神经网络(artificialneuralnetwork,ANN)指由大量与自然神经系统相类似的神经元联结而成的网络,是用工程技术手段模拟生物网络结构特征和功能特征的一类人工系统。神经网络不但具有处理数值数据的一般计算能力,而且还具有处理知识的思维、学习、记忆能力,它采用类似于“黑箱”的方法,通过学习和记忆,找出输入、输出变量之间的非线性关系(映射),在执行问题和求解时,将所获取的数据输入到已经训练好的网络,依据网络学到的知识进行网络推理,得出合理的答案与结果。
岩土工程中的许多问题是非线性问题,变量之间的关系十分复杂,很难用确切的数学、力学模型来描述。工程现场实测数据的代表性与测点的位置、范围和手段有关,有时很难满足传统统计方法所要求的统计条件和规律,加之岩土工程信息的复杂性和不确定性,因而运用神经网络方法实现岩土工程问题的求解是合适的。
BP神经网络模型是误差反向传播(BackPagation)网络模型的简称。它由输入层、隐含层和输出层组成。网络的学习过程就是对网络各层节点间连接权逐步修改的过程,这一过程由两部分组成:正向传播和反向传播。正向传播是输入模式从输入层经隐含层处理传向输出层;反向传播是均方误差信息从输出层向输入层传播,将误差信号沿原来的连接通路返回,通过修改各层神经元的权值,使得误差信号最小。
BP神经网络模型在建立及应用过程中,主要存在的不足和建议有以下四个方面:
(1)对于神经网络,数据愈多,网络的训练效果愈佳,也更能反映实际。但在实际操作中,由于条件的限制很难选取大量的样本值进行训练,样本数量偏少。
(2)BP网络模型其计算速度较慢、无法表达预测量与其相关参数之间亲疏关系。
(3)以定量数据为基础建立模型,若能收集到充分资料,以定性指标(如基坑降水方式、基坑支护模式、施工工况等)和一些易获取的定量指标作为输入层,以评价等级作为输出层,这样建立的BP网络模型将更准确全面。
(4)BP人工神经网络系统具有非线性、智能的特点。较好地考虑了定性描述和定量计算、精确逻辑分析和非确定性推理等方面,但由于样本不同,影响要素的权重不同,以及在根据先验知识和前人的经验总结对定性参数进行量化处理,必然会影响评价的客观性和准确性。因此,在实际评价中只有根据不同的基坑施工工况、不同的周边环境条件,应不同用户的需求,选择不同的分析指标,才能满足复杂工况条件下地质环境评价的要求,取得较好的应用效果。
人工神经网络(Artificial Neural Network,简称ANN ),以数学模型模拟神经元活动,是基于模仿大脑神经网络结构和功能而建立的一种信息处理系统。人工神经网络具有自学习、自组织、自适应以及很强的非线性函数逼近能力,拥有强大的容错性。它可以实现仿真、预测以及模糊控制等功能。是处理非线性系统的有力工具。
它是物流合作伙伴选择方法中合作伙伴选择的神经网络算法的另一种名称。它是20世界80年代后迅速发展的一门新兴学科,ANN可以模拟人脑的某些智能行为,如知觉,灵感和形象思维等,具有自学性,自适应和非线性动态处理等特征。
将ANN应用于供应链管理(SCM)环境下合作合办的综合评价选择,意在建立更加接近于人类思维模式的定性与定量相结合的综合评价选择模型。通过对给定样本模式的学习,获取评价专家的知识,经验,主管判断及对目标重要性的倾向,当对合作伙伴作出综合评价时,该方法可再现评价专家的经验,知识和直觉思维,从而实现了定性分析与定量分析的有效结合,也可以较好的保证合作伙伴综合评价结果的客观性。
在选定评价指标组合的基础上,对评价指标作出评价,得到评价值后,因各指标间没有统一的度量标准,难以进行直接的分析和比较,也不利于输入神经网络计算。因此,在用神经网络进行综合评价之前,应首先将输入的评价值通过隶属函数的作用转换为(0,1]之间的值,即对评价值进行标准无纲量化,并作为神经网络的输入,以使ANN可以处理定量和定性指标。
Introduction
--------------------------------------------------------------------------------
神经网络是新技术领域中的一个时尚词汇。很多人听过这个词,但很少人真正明白它是什么。本文的目的是介绍所有关于神经网络的基本包括它的功能、一般结构、相关术语、类型及其应用。
“神经网络”这个词实际是来自于生物学,而我们所指的神经网络正确的名称应该是“人工神经网络(ANNs)”。在本文,我会同时使用这两个互换的术语。
一个真正的神经网络是由数个至数十亿个被称为神经元的细胞(组成我们大脑的微小细胞)所组成,它们以不同方式连接而型成网络。人工神经网络就是尝试模拟这种生物学上的体系结构及其操作。在这里有一个难题:我们对生物学上的神经网络知道的不多!因此,不同类型之间的神经网络体系结构有很大的不同,我们所知道的只是神经元基本的结构。
The neuron
--------------------------------------------------------------------------------
虽然已经确认在我们的大脑中有大约50至500种不同的神经元,但它们大部份都是基于基本神经元的特别细胞。基本神经元包含有synapses、soma、axon及dendrites。Synapses负责神经元之间的连接,它们不是直接物理上连接的,而是它们之间有一个很小的空隙允许电子讯号从一个神经元跳到另一个神经元。然后这些电子讯号会交给soma处理及以其内部电子讯号将处理结果传递给axon。而axon会将这些讯号分发给dendrites。最后,dendrites带着这些讯号再交给其它的synapses,再继续下一个循环。
如同生物学上的基本神经元,人工的神经网络也有基本的神经元。每个神经元有特定数量的输入,也会为每个神经元设定权重(weight)。权重是对所输入的资料的重要性的一个指标。然后,神经元会计算出权重合计值(net value),而权重合计值就是将所有输入乘以它们的权重的合计。每个神经元都有它们各自的临界值(threshold),而当权重合计值大于临界值时,神经元会输出1。相反,则输出0。最后,输出会被传送给与该神经元连接的其它神经元继续剩余的计算。
Learning
--------------------------------------------------------------------------------
正如上述所写,问题的核心是权重及临界值是该如何设定的呢?世界上有很多不同的训练方式,就如网络类型一样多。但有些比较出名的包括back-propagation, delta rule及Kohonen训练模式。
由于结构体系的不同,训练的规则也不相同,但大部份的规则可以被分为二大类别 - 监管的及非监管的。监管方式的训练规则需要“教师”告诉他们特定的输入应该作出怎样的输出。然后训练规则会调整所有需要的权重值(这是网络中是非常复杂的),而整个过程会重头开始直至数据可以被网络正确的分析出来。监管方式的训练模式包括有back-propagation及delta rule。非监管方式的规则无需教师,因为他们所产生的输出会被进一步评估。
Architecture
--------------------------------------------------------------------------------
在神经网络中,遵守明确的规则一词是最“模糊不清”的。因为有太多不同种类的网络,由简单的布尔网络(Perceptrons),至复杂的自我调整网络(Kohonen),至热动态性网络模型(Boltzmann machines)!而这些,都遵守一个网络体系结构的标准。
一个网络包括有多个神经元“层”,输入层、隐蔽层及输出层。输入层负责接收输入及分发到隐蔽层(因为用户看不见这些层,所以见做隐蔽层)。这些隐蔽层负责所需的计算及输出结果给输出层,而用户则可以看到最终结果。现在,为免混淆,不会在这里更深入的探讨体系结构这一话题。对于不同神经网络的更多详细资料可以看Generation5 essays
尽管我们讨论过神经元、训练及体系结构,但我们还不清楚神经网络实际做些什么。
The Function of ANNs
--------------------------------------------------------------------------------
神经网络被设计为与图案一起工作 - 它们可以被分为分类式或联想式。分类式网络可以接受一组数,然后将其分类。例如ONR程序接受一个数字的影象而输出这个数字。或者PPDA32程序接受一个坐标而将它分类成A类或B类(类别是由所提供的训练决定的)。更多实际用途可以看Applications in the Military中的军事雷达,该雷达可以分别出车辆或树。
联想模式接受一组数而输出另一组。例如HIR程序接受一个‘脏’图像而输出一个它所学过而最接近的一个图像。联想模式更可应用于复杂的应用程序,如签名、面部、指纹识别等。
The Ups and Downs of Neural Networks
--------------------------------------------------------------------------------
神经网络在这个领域中有很多优点,使得它越来越流行。它在类型分类/识别方面非常出色。神经网络可以处理例外及不正常的输入数据,这对于很多系统都很重要(例如雷达及声波定位系统)。很多神经网络都是模仿生物神经网络的,即是他们仿照大脑的运作方式工作。神经网络也得助于神经系统科学的发展,使它可以像人类一样准确地辨别物件而有电脑的速度!前途是光明的,但现在...
是的,神经网络也有些不好的地方。这通常都是因为缺乏足够强大的硬件。神经网络的力量源自于以并行方式处理资讯,即是同时处理多项数据。因此,要一个串行的机器模拟并行处理是非常耗时的。
神经网络的另一个问题是对某一个问题构建网络所定义的条件不足 - 有太多因素需要考虑:训练的算法、体系结构、每层的神经元个数、有多少层、数据的表现等,还有其它更多因素。因此,随着时间越来越重要,大部份公司不可能负担重复的开发神经网络去有效地解决问题。
NN 神经网络,Neural Network
ANNs 人工神经网络,Artificial Neural Networks
neurons 神经元
synapses 神经键
self-organizing networks 自我调整网络
networks modelling thermodynamic properties 热动态性网络模型
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
网格算法我没听说过
好像只有网格计算这个词
网格计算是伴随着互联网技术而迅速发展起来的,专门针对复杂科学计算的新型计算模式。这种计算模式是利用互联网把分散在不同地理位置的电脑组织成一个“虚拟的超级计算机”,其中每一台参与计算的计算机就是一个“节点”,而整个计算是由成千上万个“节点”组成的“一张网格”, 所以这种计算方式叫网格计算。这样组织起来的“虚拟的超级计算机”有两个优势,一个是数据处理能力超强;另一个是能充分利用网上的闲置处理能力。简单地讲,网格是把整个网络整合成一台巨大的超级计算机,实现计算资源、存储资源、数据资源、信息资源、知识资源、专家资源的全面共享。
自从人工神经网络(ANN)在函数逼近、模式识别、建模仿真等领域的应用取得显著成效以来,就一直遭受到一项指控:ANN is one kind of black box models!当然,这项“罪名”成立与否并无定论,但终究影响不好。如今,大部分应用者都认为ANN是黑箱模型。在ANN的捍卫者中,也有一部分人致力于“洗白”ANN,试图告诉大家:ANN是white box model。
本文的目的不是争辩ANN到底是黑箱还是白箱,而是探讨ANN的"黑"所指的涵义(毕竟无风不起浪)。
ANN之所以被称为是黑箱模型,主要的原因如下。
对于某个具体的ANN模型的设计者来说,ANN的内部结构(例如隐含层的层数和每一层的节点数)是由他自己确定的;在确定了内部结构之后,需要通过输入数据进行训练,最后得到一个最佳模型。该模型不同层间的连接权重矩阵显然也是可知的,通过连接权重矩阵可以计算出输出变量对输入变量的依赖关系(一般在两层以上的ANN模型中,输出变量对输入变量的依赖关系都是非线性的)。那怎么说ANN是黑箱模型呢?
正是因为在大部分情况下,输出变量对输入变量的依赖关系都是非线性函数的关系,函数表达式往往很复杂,所以设计者无法直观地看出某个输入变量对输出变量的贡献率是大是小(即贡献率的大小没有一个尺度来衡量),或者更一般地说,无法解释非线性函数在物理世界中的现实意义。更甚者,ANN的规模(隐含层的层数和节点数)增大时,非线性函数的复杂度急剧增大。在这种情况下,即使得到了这个很复杂的关系函数,也如同一堆废铁。所以,有研究者试图采用连接权重的贡献度和相对贡献率等指标[1],来对训练出的权重矩阵进行修剪,剪去冗余的权重。但是这种方法治标不治本,只能应用于一个隐含层的ANN模型,即输出变量对输入变量的依赖关系是线性的;而且面对规模庞大的ANN模型时,计算这些指标所需的时间和空间复杂度急剧上升,吃力不讨好。
值得注意的是,对于应用者来说,ANN的透明化往往是指,连接权重矩阵的可视化。Ozesmi提出的神经网络释义图已经被广泛地用于ANN的可视化。
通达信的选股公式为xg:v>ref(v,1)*2 and c>ref(c,1)。公式的定义为今天的量大于等于昨天量的2倍,股价上涨。此公式的使用说明有以下几点:1、五行量化指标(浅灰色实心空心方格):实心代表趋势走好,空心代表趋势走坏;2、操盘动力线指标(黄金线):短线灵敏指标,低位拐头向上可跟进,高位拐头向下要警惕,附有高低位买卖提示;3、海洋状态指标(彩带):彩带颜色代表短中期多空趋势,低位转红可跟进,高位变色宜减仓、清仓。
量化选股的方法
1、多因素模型(Multiple-factor regression)
多因素模型将那些引起证券价格联动的因素直接加入到收益率公式之中,然后开发基于这些因素的模型,简化投资组合分析所要求的关于证券之间相关系数的输入。模型效果的好坏主要取决于因素的选取,即那些被选定的因素是否足以证明,证券收益率之间联动效应的根源在于那些因素对各证券的共同影响。
2、动量反转选股
有效市场假说分三个层次,分别为弱有效市场、 半强有效市场、 强有效市场分别代表价格反映了历史信息、公开信息和全部信息。
动量效应(Momentum Effect)指的是投资策略或组合的持有期业绩方向和形成期业绩方向一致的股价波动现象;
而反转效应(ContrarianEffect)则指的是投资策略或组合的持有期业绩方向和形成期业绩方向相反的股价波动现象。
3、分类和回归树(Classification and regression tree)
分类和回归树是数据挖掘技术的一种,以递归分割技术为基础(常用于制药学的研究),包括分类树和回归树:分类树产生定性输出,回归树处理定量输出。
4、神经网络(Neural networks)
因为股市的建模与预测所处理的信息量往往十分庞大,因此对算法有很严格要求,它的非线性动力学特性也非常复杂,所以一般传统的方法对于股市的预测往往难如人意。人工神经网络不仅具有大规模并行模拟处理、网络全局作用和非线性动力学等特点,而且有很强的自适应、自学习以及容错能力,具备传统的建模方法所不具有的许多优点,其可以不必事先知道有关被建模对象的参数、结构以及动态特性等方面的知识, 对被建模对象经验知识要求不高。 而只需给出对象的输入和输出数,通过网络本身的学习功能即可实现输入和输出之间的映射。
7.5.1 多因子工程地质分析法
7.5.1.1 原理
多因子工程地质分析法是由许惠德于1989年提出的。该法主要考虑井田建造、层组、岩组特征,以及岩性变异特征、岩体质量优劣分段、构造变异特征、河谷卸压影响及水文地质条件等工程地质因素。以岩组划分为基础,融合其他工程地质因素,采用对比分类法,将煤层顶板划分成4种稳定区域。
7.5.1.2 方法
(1)地质因素分析
1)建造:为一定的大地构造单元内,成岩作用在时间上的分异特征的术语。
2)层组:指不同岩性的岩层作有规律的组合,其划分是在建造基础上进行的。据煤系地层沉积特征,可划分出单层结构和多层结构两大类(表7.19)。
3)岩组:为岩体与岩石在一般特征上类似工程地质特征上相近的组合,其划分是在层组基础上进行的(表7.19)。
4)岩性变异特征:对煤层顶底板岩体可进行室内物理力学性质指标测定、室内微观分析(包括薄片鉴定、差热分析、X-射线衍射分析和电子显微镜分析)等。如对山西谱庄矿3号煤层顶板分析后得出如下结论:①泥岩、粉砂岩不具膨胀性,粉砂岩中石英有被粘土矿物交代现象,具泥质结构和显微定向构造,基底式胶结,胶结物为泥质,与泥岩有相似的物理力学性质,强度较低;②在同一岩组中,岩石的强度有由井田北部向中偏南降低的趋势;③井田中部岩体破碎程度较高;④随深度增加,各类岩石的完整程度增高。
5)岩体质量优劣分级:以岩石质量指标(RQD)作为岩体质量优劣的半定性评价。如潘庄矿(图7.11)首采区的中上部岩体质量极坏,据此可提出整个块段岩体质量评价。
6)构造变异特征:根据地层倾角、构造发育、顶板岩性组成等,评价一个地区的构造应力状况。如山西某井田内地层倾角平缓(5°~15°),褶皱呈舒缓波状,无较大的断层存在,地震烈度不高(6度),3号煤层的顶板大多为松软岩石。因此,井田内不易积聚大量应变能,构造应力较低。
表7.19 潘庄一号井田工程地质岩组划分
7) 河谷卸压: 河谷卸压会影响采场和巷道顶、帮内的应力分布; 而应力的增加、岩体的膨胀、松弛、裂隙的产生均会加剧顶板和围岩的不稳定性。如潘庄矿 3 号煤层首采区上方为一构造剥蚀的低山区,河谷两侧为侵蚀堆积地形。河谷切割较深,卸压现象较为严重。因此,根据 3 号煤层上覆岩层的厚度 ( 图7.11) 和性质、顶板岩层的强度,预测了相对严重卸压区段。
8) 水文地质条件: 主要根据地质、水文地质观测、试验资料,利用一定计算方法评价地质条件。如山西某矿通过分析计算煤层顶板岩体冒落带和破裂带的最大高度值,认为虽然冒落带与上覆含水层连接,采场充水似乎不可避免,但由于含水层水量较小易于疏干,因此不会造成突水威胁。
( 2) 工程地质稳定性分区
通过对各种地质因素的分析和对比,利用一定的计算和统计方法,应用综合编图手段,最终作出工程地质稳定性分区图,可划分出稳定区、中等稳定区、不稳定区和极不稳定区等 4 类,如果采用数学地质、数理统计、定量评价等手段,可以给上述 4 类区段赋予评价指数 ( 参数) 。图7.12 为潘庄矿首采区工程地质稳定性分区。
图7.11 层理岩组图
图7.12 山西潘庄采区工程地质分区
7.5.2 顶板稳定性沉积模式研究法
7.5.2.1 原理
该方法属成因顶板稳定性研究范畴,从沉积环境分析入手,分析顶板沉积模式,最终探明顶板稳定类型。
7.5.2.2 方法步骤
( 1) 顶板岩性分类
首先要对某煤层顶板 ( 研究对象) 进行岩性分类,分类的资料基础主要是勘探钻孔资料。如 J.Truman 等利用钻孔资料,将 1 号煤层以上 10 英尺 ( 1 英尺 =0.3048m) 的岩性划分成 16 种类型,并用 3 位数码表示各种岩石 ( 图7.13) 。
( 2) 编制岩性分布图
编制煤层之上不同高程的岩性分布图。从图中可以清楚地了解煤层之上岩性在横向和纵向上的分布及其变化。图7.14 为美国怀俄明州某矿 l 号煤层之上 10 英尺岩性分布图。
( 3) 工程应用
J.Truman 等通过研究美国怀俄明州某矿 1 号煤层顶板类型,认为在地下开采过程中,河道沉积物 ( 图7.13 中的层序类型 l,4,9,10,11,12,13) 顶板一般坚固稳定,如果河道砂岩没有切入煤层顶部 ( 图7.13 中层序类型⑨,⑩,瑏瑡,瑏瑢,瑏A) ,则插入的页岩可能有擦痕面。这些擦痕面是由于砂岩与页岩之问的致密程度不同而造成的,它们可能是引起顶板稳定性差异的重要因素,层序类型瑏A ( 流状沉积) 发生在河曲的切割侧。当发生滑动时,它们可使层理扭曲,大大降低了岩石强度,并常造成严重冒顶。一般来说,河道与河道之间的过渡带是不稳定的。另外还要注意煤层顶面到河道砂岩底面之间的距离,以确保使用合适的顶板锚杆,从而使锚点放在砂岩的底部。天然堤沉积 ( 图7.13 中层序类型⑥常含有植物根,这些植物根破坏了层理,降低了岩石的强度,必须加以锚固或强制冒落。
决口扇 ( 图7.13 中层序类型②,③) 往往是煤层发育的台坪,从而产生一个软弱带。决口扇与煤层之间的间距以及决口扇的厚度应予以注意,以确保锚杆有足够的长度,使锚点在砂岩中或是薄煤层之上。
图7.13 1 号煤层以上 10 英尺内的典型岩石层序( 据 J.Truman 等,1985)
①均质砂岩 10 英尺; ②1 号煤层直接顶板的决口扇砂岩厚度; ③1 号煤层以上 2~ 3 英尺的决口扇砂岩厚度; ④324 至 124 为向上变细层序 ( 1 号煤层以上的距离) ; ⑤均质砂质页岩 ( 324) ; ⑥均质砂岩与页岩互层 ( 124) ; ⑦向上变粗层序; ⑧均质页岩 ( 124) ; ⑨河道砂岩,厚度 < 10 英尺; ⑩河道砂岩底部,大于10 英尺,1 号煤层以上 0~ 4 英尺; 瑏瑡河道砂岩底部, > 10 英尺,1 号煤层以上 4~ 6 英尺; 瑏瑢河道砂岩 >10 英尺,1 号煤层以上 6~ 10 英尺; 瑏A1 号煤层以上 10 英尺间隔内的流动构造; 瑏A1 号煤层以上 0~ 4 英尺的薄煤层; 瑏瑥1 号煤层以上 4~6 英尺的薄煤层; 瑏瑦1 号煤层以上 6~10 英尺的薄煤层015—炭质砂岩; 020—煤层; 124—粘土; 324—砂质泥岩; 544—砂岩
图7.14 1号煤层以上10英尺内的岩石类型层序$ (据J.Truman等,1985)$
海湾沉积物 ( 图7.13 中层序类型⑤,⑦,⑧) 一般是坚固稳定的。
稳定性最差的是 ( 图7.13 中层序类型(16)) 1 号煤层之上的薄煤层及其下伏层是被植物根穿透的页岩,为顶板弱带,最易发生离层,造成顶板不稳定。
7.5.3 单项分析、综合评判法
7.5.3.1 原理和方法
如前所述,影响煤层硬板稳定性的地质因素很多,多则十几项,少则四、五项。对某一煤田或井田来说,所有因素中总是有主有次,因此需要逐一甄别,即单项分析,以筛选出几个主要因素,经过综合评判,然后与已采区实际揭露和顶板冒落情况进行对比,给予恰当的科学评分。最后在综合图上据评分结果划出各种不同的区域。
7.5.3.2 步骤
以山东新汶某矿第 2 煤层硬板为例,简述工作步骤。
( 1) 单项地质因素分析
1) 岩性: 第 2 煤层顶板岩性主要有砂岩、粉砂岩、页岩。评判给分如表7.20 所示。
表7.20 各单向因素评分
注: 括号中数字为评分。
2) 岩层厚度: 岩层厚度是评判的主要参数,因此需据不同岩性、不同厚度分别评分。对砂岩、粉砂岩、页岩等岩层厚度评判的评分结果见表7.20。
3) 倾角变异系数: 在煤层构造图上采用 “滑动窗口法” 计算出倾角变异系数,然后分指标段给予评分 ( 表7.20) 。
4) 小断层发育密度: 同样采用 “滑动窗口法” 计算出小断层发育密度,未采区应先进行小断层发育规律及密度的预测,然后给予评分 ( 表7.21) 。
表7.21 综合评判评分结果
5) 第 2 煤距上部第 1 煤的距离: 第 2 煤层上部有的地方发育了一薄煤层 ( 即第 1 煤层) 。由于薄煤层是个软弱层,所以开采后最易发生离层而冒落。而且,这种冒落的影响因素中最关键的是第 2 煤层距第 1 煤层的距离。据该矿历次实际冒落情况分析,给予表7.20 所示评判记分。
( 2) 综合评判—稳定性区划
据各次评判记分结果编图,经综合分析进行顶板稳定性区划,经与已采区的实际冒落情况对比基本吻合,最后成果见表7.21 和图7.15。
图7.15 第 2 煤层顶板稳定性分区
7.5.4 人工神经网络法
7.5.4.1 人工神经网络简介
随着计算机技术的普及和发展,利用计算机进行顶板预测的研究大量出现,如利用模糊数学法 ( 丁述礼,1994; 王生全,1997; 刘衡秋,2002) 、层次分析法 ( 刘海燕,2004) 、模糊聚类法 ( 涂敏,1995) 、分形几何法 ( 徐林生,1996; 张玉三,1995) 等方法来预测和评价顶板稳定性,并在相应方面和区域取得了明显的成效。本节将用人工神经网络法建立顶板稳定性预测模型,预测龙固井田顶板稳定性,进一步做出顶板稳定性综合分区图。
( 1) 人工神经网络的起源
人工神经网络 ( Artificial Neural Network,简称 ANN) 研究的先锋,美国心理学家Warren S.McCulloch 和数学 家 Walter H.Pitts 曾于 1943 年提 出 一种叫做 “似脑 机 器”( mindlike machine) 的思想,这种机器可由基于生物神经元特性的互联模型来制造,这就是神经学网络的概念。他们构造了一个表示大脑基本组成部分的神经元模型,对逻辑操作系统表现出通用性。随着大脑和计算机研究的进展,研究目标已从 “似脑机器”变为“学习机器”,为此一直关心神经系统适应律的心理学家 D.O.Hebb 于 1949 年提出了学习模型。1957 年 Rosenblatt 首次提出感知器,并设计了一个引人注目的结构。到 60 年代初期,关于学习系统的专用设计指南有 Widrow 等提出的 Adaline ( adaptive linear element,即自适应线性元) 以及 Steinbuch 等提出的学习矩阵。由于感知器的概念简单,因而在开始介绍时对它寄予很大希望。然而,不久之后 Minsky 和 Papert 从数学上证明了感知器不能实现复杂的逻辑功能。到了 70 年代,Grossberg 和 Kohonen 对神经网络研究做出了重要贡献。以生物学和心理学证据为基础,Grossberg 提出了几种具有新颖特性的非线性动态系统结构。该系统的网络动力学由一阶微分方程建模,而网络结构为模式聚集算法的自组织神经实现。基于神经元组织自己来调整各种各样的模式的思想,Kohonen 发展了他在自组织映像方面的研究工作。Werbos 在 70 年代开发了一种反向传播算法。Hopfield 在神经元交互作用的基础上引入一种递归型神经网络,这种网络就是有名的 Hopfield 网络。在 80年代中叶,作为一种前馈神经网络的学习算法,Parker 和 Rumelhart 等重新发现了反回传播算法。如今,神经网络的应用越来越广泛了。
( 2) 人工神经网络的特点及应用
人工神经网络是由许多神经元互连在一起组成的复杂网络系统。它是在现代神经学研究成果基础上提出的,能模拟人的若干基本功能,具有并行分布的信息处理结构,通过 “学习”或 “训练”的方式完成某一特定的工作。其最显著的特点是具有自学习能力,并在数据含有噪音、缺项或缺乏认知时能获得令人满意的结论,特别是它可以从积累的工作实例中学习知识,尽可能多地把各种定性、定量的影响因素作为变量加以输入,建立各影响因素与结论之间的高非线性映像,采用自适应模式识别方法完成此工作。它对处理内部规律不甚了解、不能用一组规则或方程进行描述的较复杂问题或开放的系统显得较为优势。
按照神经元的连接方式,人工神经网络可分为两种: 没有反馈的前向网络和相互结合型网络。前向网络是多层映像网络,每一层中神经元只接受来自前一层神经元的信号,因此信息的传播是单方向的。BP 网络是这类网络最典型的例子。在相互结合型的网络中,任意神经元之间都可能有连接,因此,输入信号要在网络中往返传播,从某一初态开始,经过若干变化,渐渐趋于某一稳定状态或进入周期震荡等其他状态,这方面的网络有Hopfield 网络、SOM 网络等。网络的学习能力体现在网络参数的调整上。参数调整方法为有教师学习和无教师学习两种基本方式。有教师学习方式是网络根据教师给出的正确输入模式,校正网络的参数,使其输出接近于正确模式。这类方式常采用梯度下降的学习方法,如 BP 算法。而无教师学习是网络在没有教师直接指点下通过竞争等方式自动调整网络参数的学习方法,如自适应共振网络。神经网络就是由许多神经元互连在一起组成的神经结构。把神经元之间相互作用的关系进行数学模型化就可以得到神经网络模型。目前已有几十种不同的神经网络模型。代表的网络模型有感知器、反向传播 BP 网络、GMDH 网络、RBF 网络、双向联想记忆 ( BAM) 、Hopfield 网络、Boltsmann 机、自适应共振网络( ART) 、自组织特征映像 ( SOM) 网络等。运用这些网络模型可实现函数近似 ( 数字逼近映像) 、数据聚类、模式识别、优化计算等功能,因此,人工神经网络广泛用于人工智能、自动控制、机器人、统计学、工程学等领域的信息处理中。
( 3) 人工神经网络的结构
A.神经元及其特性
图7.16 神经元模型
人工神经网络的基本处理单元在神经网络中的作用与神经生理学中神经元的作用相似,因此,人工神经网络的基本处理单元往往被称为神经元。人工神经网络结构中的神经元模型模拟一个生物神经元,如图7.16所示。该神经元单元由多个输入xi(i=1,2,…,n)和一个输出yj组成。中间状态由输入信号的加权和与修正值表示,而输出为:
煤层顶板稳定性评价、预测理论与方法
式中:θj为神经元单元的偏置(阈值);wji为连接权系数(对于激发状态,wji取正值,对于抑制状态,wji取负值);n为输入信号数目;yj为神经元输出;t为时间;f()为输出变换函数,有时叫做激发或激励函数,往往采用0和1二值函数或S形函数,见图7.17,这3种函数都是连续和非线性的。一种二值函数如图7.17(a)所示,可由下式表示:
煤层顶板稳定性评价、预测理论与方法
一种常规的S形函数如图7.17(b)所示,可由下式表示:
煤层顶板稳定性评价、预测理论与方法
常用双曲正切函数(如图7.17(c))来取代常规S形函数,因为S形函数的输出均为正值,而双曲正切函数的输出值可为正或负。双曲正切函数如下式所示:
图7.17 神经元中的某些变换(激发)函数
B.神经网络的基本类型
1)人工神经网络的基本特性:人工神经网络由神经元模型构成,这种由许多神经元组成的信息处理网络具有并行分布结构。每个神经元具有单一输出,并且能够与其他神经元连接;存在许多(多重)输出连接方法,每种连接方法对应一个连接权系数。严格地说,人工神经网络是一种具有下列特性的有向图:①对于每个节点存在一个状态变量xi;②从节点i至节点j,存在一个连接权系数wji;③对于每个节点,存在一个阈值j;④对于每个节点,定义一个变换函数fj(xi,wji,j),ij;对于最一般的情况,此函数取
煤层顶板稳定性评价、预测理论与方法
形式。
2)人工神经网络的主要学习算法:神经网络主要通过两种学习算法进行训练,即指导式(有师)学习算法和非指导式(无师)学习算法。此外,还存在第三种学习算法,即强化学习算法,可把它看做是有师学习的一种特例。
·有师学习:有师学习算法能够根据期望和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。因此,有师学习需要有个老师或导师来提供期望或目标输出信号。
·无师学习:无师学习算法不需要知道期望输出。在训练过程中,只要向神经网络提供输入模式,神经网络就能够自动地适应连接权,以便按相似特征把输入模式分组聚集。无师学习算法的例子包括Kohonen算法和Carpenter-Grossberg自适应共振理论(ART)等。
·强化学习:如前所述,强化学习是有师学习的特例。它不需要老师给出目标输出。强化学习算法采用一个“评论员”来评价与给定输入相对应的神经网络输出的优度(质量因数)。强化学习算法的一个例子是遗传算法(GAs)。
7.5.4.2 多层前馈神经网络(BP)模型
BP模型是目前研究最多、应用最广泛的ANN模型。它是由Rumelhart等组成的PDP小组于1985年提出的一种神经元模型,其结构如图7.18所示。理论已经证明一个3层的BP网络模型能够实现任意的连续映像。
图7.18 反向传播(BP)神经网络结构
( 1) BP 网络模型特点
BP ( Back Propagation) 网络模型是把一组样本的输入输出变成一个非线性优化问题,使用了最优化中最普遍的梯度下降算法,用迭代运算求解权,加入隐节点使得优化问题的可调参数增加,从而可以逼近精确解。
BP 网络由输入层、输出层及隐含层组成,隐含层可有一个或多个,每层由多个神经元组成。其特点是: 各层神经元仅与相邻层神经元之间有连接; 各层内神经元之间无任何连接; 各层神经元之间无反馈连接。输入信号先向前传播到隐结点,经过变换函数之后,把隐结点的输出信息传播到输出结点,经过处理后再给出输出结果。结点的变换函数通常选取 Sigmoid 型函数。一般情况下,隐含层采用 S 型对数或正切激活函数,而输出层采用线性激活函数。
如果输入层有 n 个神经元,输出层有 m 个神经元,则网络是从 n 维欧氏空间到 m 维欧氏空间的映像。在确定了 BP 网络的结构后,利用输入输出样本集对其进行训练,也即通过调整 BP 网络中的连接权值、网络的规模 ( 包括 n、m 和隐层节点数) ,就可以使网络实现给定的输入输出映像关系,并且可以以任意精度逼近任何非线性函数。BP 网络通过对简单的非线性函数的复合来完成映像,用这种方法经过少数的几次复合就可以得到极为复杂的函数关系,进而可以表达复杂的物理世界现象,使得许多实际问题都可以转为利用神经网络来解决。经过训练的 BP 网络,对于不是样本集中的输入也能给出合适的输出,这种性质称为泛化 ( Generalization) 功能。从函数拟合的角度看,这说明 BP 网络具有插值功能。
( 2) BP 网络学习算法
BP 神经网络采用误差反传学习算法,使用梯度搜索技术,实现网络的实际输出与期望输出的均方差最小化。网络学习的过程是一种边向后边传播边修正权的过程。
在这种网络中,学习过程由正向传播和反向传播组成。在正向过程中,输入信号从输入层经隐层单元逐层处理,并传向输出层,每一层神经元的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转向反向传播,将输出的误差按原来的连接通路返回。通过修改各层神经元的权值,使得误差信号最小。得到合适的网络连接值后,便可对新样本进行非线性映像。
A.信息的正向传递
假设 BP 网络共 L 层,对于给定的 P 个样本,网络的期望输出为:
煤层顶板稳定性评价、预测理论与方法
当输入第 P 个样本时,对于网络中的第 l ( l =1,2,…,L -1) 层中第 j 个神经元的操作特性为:
煤层顶板稳定性评价、预测理论与方法
式中:Wji———神经元i到神经元j的连接权值;
nl-1———第l-1层的结点数;
O(l-1)jp———神经元j的当前输入;
O(l)jp———神经元j的输出;
fl———非线性可微非递减函数,一般取为S型函数,即
煤层顶板稳定性评价、预测理论与方法
而对于输出层则有
煤层顶板稳定性评价、预测理论与方法
神经网络学习的目的是实现对每一样本
煤层顶板稳定性评价、预测理论与方法
,其中m为输出结点个数,达到最小,从而保证网络总误差 极小化。其中Tjdp, 分别为输出层第j个节点的期望输出和实际输出。
B.利用梯度下降法求权值变化及误差的反向传播
采用梯度算法对网络权值、阈值进行修正。
第1层的权系数迭代方程为:
煤层顶板稳定性评价、预测理论与方法
式中:k———迭代次数。
令
煤层顶板稳定性评价、预测理论与方法
令
煤层顶板稳定性评价、预测理论与方法
,则有
煤层顶板稳定性评价、预测理论与方法
,其中,η为学习步长。
C.网络的训练过程
1)网络初始化,用一组随机数对网络赋初始权值,设置学习步长η、允许误差ε、网络结构(即网络层数L和每层节点数nl);
2)为网络提供一组学习样本;
3)对每个学习样本p循环:
a.逐层正向计算网络各节点的输入和输出;
b.计算第p个样本的输出的误差Ep和网络的总误差E;
c.当E小于允许误差ε或者达到指定的迭代次数时,学习过程结束,否则,进行误差反向传播,
d.反向逐层计算网络各节点误差 ,如果fl取为S型函数,即 ,则
对于输出层
对于隐含层
e.修正网络连接权值:
煤层顶板稳定性评价、预测理论与方法
式中:k———学习次数;
η———学习因子。η取值越大,每次权值的改变越剧烈,可能导致学习过程振荡,
因此,为了使学习因子的取值足够大,又不致产生振荡,通常在权值修正公式中加入一个附加动量法。
表7.22 指标定量化原则
7.5.4.3 基于多层前馈神经网络(BP)模型的煤层顶板评价思路
由以上研究来看,BP人工神经网络模型是建立于已知因素的基础上,提取有关的权值等相关参数,然后去评价煤层顶板的稳定性。因此,要想利用该方法对煤层顶板进行评价,应该通过以下几个思路:
1)找出比较典型的能够反映某一井田的钻孔及能够反映顶板稳定性的资料,通过专家打分法或其他方法对其顶板稳定性进行评价;
2)利用评价结果对不同等级的顶板稳定性进行分级定量的定义,并建立评价指标的定量化表,表7.22是对巨野煤田龙固井田进行分级的指标;
3)通过已知并评价好的钻孔,代入到人工神经网络神经元公式进行大量的回算权值,并通过最终的分析确定出权值(Wkj)的值;
4)将权值代入神经元模型,确定某一井田顶板稳定性模式,然后将井田内其他相关钻孔的地质资料带入,并得出其结果,代入表7.22进行分析得出井田钻孔周围顶板稳定性。
神经网络的介绍2006-10-23 14:58原文摘自:()
Introduction
--------------------------------------------------------------------------------
神经网络是新技术领域中的一个时尚词汇。很多人听过这个词,但很少人真正明白它是什么。本文的目的是介绍所有关于神经网络的基本包括它的功能、一般结构、相关术语、类型及其应用。
“神经网络”这个词实际是来自于生物学,而我们所指的神经网络正确的名称应该是“人工神经网络(ANNs)”。在本文,我会同时使用这两个互换的术语。
一个真正的神经网络是由数个至数十亿个被称为神经元的细胞(组成我们大脑的微小细胞)所组成,它们以不同方式连接而型成网络。人工神经网络就是尝试模拟这种生物学上的体系结构及其操作。在这里有一个难题:我们对生物学上的神经网络知道的不多!因此,不同类型之间的神经网络体系结构有很大的不同,我们所知道的只是神经元基本的结构。
The neuron
--------------------------------------------------------------------------------
虽然已经确认在我们的大脑中有大约50至500种不同的神经元,但它们大部份都是基于基本神经元的特别细胞。基本神经元包含有synapses、soma、axon及dendrites。Synapses负责神经元之间的连接,它们不是直接物理上连接的,而是它们之间有一个很小的空隙允许电子讯号从一个神经元跳到另一个神经元。然后这些电子讯号会交给soma处理及以其内部电子讯号将处理结果传递给axon。而axon会将这些讯号分发给dendrites。最后,dendrites带着这些讯号再交给其它的synapses,再继续下一个循环。
如同生物学上的基本神经元,人工的神经网络也有基本的神经元。每个神经元有特定数量的输入,也会为每个神经元设定权重(weight)。权重是对所输入的资料的重要性的一个指标。然后,神经元会计算出权重合计值(net value),而权重合计值就是将所有输入乘以它们的权重的合计。每个神经元都有它们各自的临界值(threshold),而当权重合计值大于临界值时,神经元会输出1。相反,则输出0。最后,输出会被传送给与该神经元连接的其它神经元继续剩余的计算。
Learning
--------------------------------------------------------------------------------
正如上述所写,问题的核心是权重及临界值是该如何设定的呢?世界上有很多不同的训练方式,就如网络类型一样多。但有些比较出名的包括back-propagation, delta rule及Kohonen训练模式。
由于结构体系的不同,训练的规则也不相同,但大部份的规则可以被分为二大类别 - 监管的及非监管的。监管方式的训练规则需要“教师”告诉他们特定的输入应该作出怎样的输出。然后训练规则会调整所有需要的权重值(这是网络中是非常复杂的),而整个过程会重头开始直至数据可以被网络正确的分析出来。监管方式的训练模式包括有back-propagation及delta rule。非监管方式的规则无需教师,因为他们所产生的输出会被进一步评估。
Architecture
--------------------------------------------------------------------------------
在神经网络中,遵守明确的规则一词是最“模糊不清”的。因为有太多不同种类的网络,由简单的布尔网络(Perceptrons),至复杂的自我调整网络(Kohonen),至热动态性网络模型(Boltzmann machines)!而这些,都遵守一个网络体系结构的标准。
一个网络包括有多个神经元“层”,输入层、隐蔽层及输出层。输入层负责接收输入及分发到隐蔽层(因为用户看不见这些层,所以见做隐蔽层)。这些隐蔽层负责所需的计算及输出结果给输出层,而用户则可以看到最终结果。现在,为免混淆,不会在这里更深入的探讨体系结构这一话题。对于不同神经网络的更多详细资料可以看Generation5 essays
尽管我们讨论过神经元、训练及体系结构,但我们还不清楚神经网络实际做些什么。
The Function of ANNs
--------------------------------------------------------------------------------
神经网络被设计为与图案一起工作 - 它们可以被分为分类式或联想式。分类式网络可以接受一组数,然后将其分类。例如ONR程序接受一个数字的影象而输出这个数字。或者PPDA32程序接受一个坐标而将它分类成A类或B类(类别是由所提供的训练决定的)。更多实际用途可以看Applications in the Military中的军事雷达,该雷达可以分别出车辆或树。
联想模式接受一组数而输出另一组。例如HIR程序接受一个‘脏’图像而输出一个它所学过而最接近的一个图像。联想模式更可应用于复杂的应用程序,如签名、面部、指纹识别等。
The Ups and Downs of Neural Networks
--------------------------------------------------------------------------------
神经网络在这个领域中有很多优点,使得它越来越流行。它在类型分类/识别方面非常出色。神经网络可以处理例外及不正常的输入数据,这对于很多系统都很重要(例如雷达及声波定位系统)。很多神经网络都是模仿生物神经网络的,即是他们仿照大脑的运作方式工作。神经网络也得助于神经系统科学的发展,使它可以像人类一样准确地辨别物件而有电脑的速度!前途是光明的,但现在...
是的,神经网络也有些不好的地方。这通常都是因为缺乏足够强大的硬件。神经网络的力量源自于以并行方式处理资讯,即是同时处理多项数据。因此,要一个串行的机器模拟并行处理是非常耗时的。
神经网络的另一个问题是对某一个问题构建网络所定义的条件不足 - 有太多因素需要考虑:训练的算法、体系结构、每层的神经元个数、有多少层、数据的表现等,还有其它更多因素。因此,随着时间越来越重要,大部份公司不可能负担重复的开发神经网络去有效地解决问题。
Conclusion
--------------------------------------------------------------------------------
希望您可以通过本文对神经网络有基本的认识。Generation5现在有很多关于神经网络的资料可以查阅,包括文章及程序。我们有Hopfield、perceptrons(2个)网络的例子,及一些back-propagation个案研究。
Glossary
--------------------------------------------------------------------------------
NN 神经网络,Neural Network
ANNs 人工神经网络,Artificial Neural Networks
neurons 神经元
synapses 神经键
self-organizing networks 自我调整网络
networks modelling thermodynamic properties 热动态性网络模型