隐层

  • 修正的线性和幂函数的神经网络算子的构造与逼近
    的一种模型就是单隐层前向神经网络,其数学表达式为其中aj是连接隐层与输出层之间的权值(也称外权),x∈Rd是网络的输入,ωj∈Rd是连接输入层与隐层之间的权值(也称内权),bj是阈值或偏置, 而φ是定义在R上的激活函数,n是隐层神经元的个数. 第二种是近年来引起人们极大兴趣的, 在计算机视觉、自然语言处理及模式识别等领域取得突破性成功应用的深度网络或多隐层神经网络. 由于深度网络有多个隐层, 从而其网络的拓扑结构就较单隐层而言更复杂, 且网络隐层数越多,

    绍兴文理学院学报(自然科学版) 2022年4期2022-11-17

  • 基于GABP神经网络的供应链合作伙伴评价方法
    三层,即输入层、隐层以及输出层,输入层和输出层节点个数根据任务确定,重要的是隐层节点个数的确定。过多的隐层节点数会使新的输入集难以适应该网络,而过少的隐层节点数会使网络的精度受到影响,因此合理选择隐层节点数是BP神经网络应用必须解决的问题之一。文献[11]中提出设置隐层节点数为ab,其中a、b为输入和输出的节点个数。但是固定的隐层节点数会降低神经网络的自适应性。另一方面,BP神经网络可将网络误差逆向传输从而优化节点间的权重和阈值,直到误差满足要求为止。因此

    物流技术 2022年10期2022-11-05

  • 基于RTD可编程逻辑门的n变量函数实现算法
    经网络由输入层、隐层和输出层三层网络结构组成[16]。文献[9]和文献[17]均基于三层网络结构,提出RTD可编程逻辑门的函数综合算法,且文献[17]算法较文献[9]算法的效率更高、设计的电路更简单,但仍存在不足。本文将基于新的定理,提出一种n变量函数实现算法,能有效解决文献[17]算法的不足,且算法准确性更高、设计的电路更简单。1 相关理论及RTD可编程逻辑门1.1 相关理论1.2 RTD可编程逻辑门基于RTD的阈值电路结构通常由MOBILE和输入分支组

    浙江大学学报(理学版) 2022年4期2022-07-25

  • 一种自适应确定隐层节点数的增量半监督超限学习机算法
    自适应确定合理的隐层节点个数;2) 当隐层节点数增加后,如何重新训练网络。本文基于流形正则化,在半监督超限学习机的基础上,提出了一种增量半监督超限学习机(Incremental SS-ELM, ISS-ELM)算法。对于给定的学习精度,该算法能够逐个或者成批地增加隐层节点,并自适应确定隐层节点数量。在此过程当中,网络的外权矩阵不需要重新训练,只需逐步更新,当隐层节点数较大时,能大幅减少半监督超限学习机的训练时间。2 相关工作本文在超限学习机和半监督超限学习

    复旦学报(自然科学版) 2022年1期2022-06-16

  • 基于原型学习与深度特征融合的脑功能连接分类方法研究
    征跨越模型中间的隐层直接与全连接层连接起来,最后使用该特征来预测样本类别.该方法可以有效地将高层次特征和低层次特征结合起来,在人脸性别分类任务中获得了比传统CNN更高的准确率.李勇等[10]针对LeNet-5 在表情识别中识别率不高的问题提出了一种基于跨连接LeNet-5 网络的面部表情识别方法,该方法能够将神经网络提取的低层次特征和高层次特征融合,提高了表情识别率.最近,又有研究表明,将原型学习与深度学习结合能够提取到类内差异小,类间差异大的鉴别性特征.

    自动化学报 2022年2期2022-03-10

  • 基于双层GRU神经网络的油田注水预测方法研究
    据,分别建立了单隐层和双隐层两种不同隐层的人工神经网络(ANN)模型对叶绿素a (Chl-a) 浓度进行了预测; 文献[12] 基于双层GRU神经网络和飞蛾火焰优化(MFO) 算法提出了一种新型自动驾驶行为决策方法,实验表明,该方法在汽车自动驾驶的行为决策方面比现有的方法准确性更高。由于注水流量数据具有一定的周期性,且当前注水量受上一时刻注水量的影响,为了充分利用该特性,提高注水流量预测精度,笔者考虑采用GRU神经网络模型进行注水流量预测。 但是以往采用G

    化工自动化及仪表 2022年1期2022-02-15

  • 基于多视图自编码器及高斯模糊的缺陷检测方法
    的每个维度与所有隐层特征相连,每个隐层特征与重构的每个维度相连,导致模型无法有效地分离缺陷、背景和噪声信息。虽然AE已经有了各种改进,比如稀疏自编码器[6]、降噪自编码器[7]、堆栈降噪自编码器[8]等,但都无法有效提取深层缺陷信息。多视图学习作为机器学习的一个分支,因其处理高维数据不会引起过拟合而受到欢迎[9-10]。Jia等[11]将多视图学习的所有视图(输入数据)映射到一个公共空间和几个私有空间。在多视图学习方法中,基于子空间学习的方法旨在获取比输入

    湖北理工学院学报 2021年4期2021-08-04

  • 充油电气设备油色谱故障诊断ANN方法的性能优化
    ;②有文献给出了隐层神经元数量的选择方法[23-24],但不确定对基于油色谱的ANN方法是否适用,关于隐层神经元数量、隐层和输出层神经元激活函数选择和训练目标选择对基于油色谱的ANN训练速度和诊断准确率的影响未见文献公开报道。以上问题可能会影响网络诊断的准确性,非常有必要进行研究。为了解决这个问题,本文基于搜集得到的470个典型故障特征气体样本,构建单隐层多层前馈ANN系统,研究训练算法、隐层神经元数量、网络输入和训练目标、隐层和输出层神经元激活函数对训练

    广东电力 2021年6期2021-07-02

  • 卷积神经网络模型信息的深层安全控制方法及其优化
    度神经网络的单一隐层的偏置加入变异因子,只有授权用户能够解耦受控神经网络,实现对用户的访问控制。本文在上述文献的基础上,提出卷积神经网络深层控制方法。当目标模型训练完成,通过在目标神经网络多个隐层的众多参数处加入控制因子,使未授权用户无法访问目标模型。授权用户输入用户ID使用目标深度神经网络模型时,目标模型可以对用户输入做出正确预测。2 深度神经网络多层控制方法2.1 基本思想在人工智能即服务模式下,用户能够通过授权访问的方式使用云环境下深度神经网络模型,

    计算机应用与软件 2021年6期2021-06-21

  • 基于多隐层小波卷积极限学习神经网络的滚动轴承故障识别
    征提取较困难。多隐层自动编码网络[2]能自动地从滚动轴承振动信号中学习有价值的特征,克服了传统基于“人工特征提取+模式识别”方法受主观影响大的缺陷[3],在滚动轴承故障识别领域取得了较大突破。文献[4]在缺少滚动轴承故障信息的情况下,利用多隐层玻尔兹曼网络取得了较高的识别准确率;文献[5]提出的融合多隐层自动编码网络能更有效、更稳健地对滚动轴承的多种故障进行识别。自动编码网络[6]不需要标记数据,其训练过程为非监督过程,因此,可将自动编码网络的思想应用到极

    工矿自动化 2021年5期2021-06-02

  • 基于粒子群优化极限学习机及电容层析成像的两相流流型及其参数预测
    ∈Rm,定义一个隐层节点数为,激活函数为g(x)的SLFNs的数学模型为[6~7]:(1)式中:j=1,…,N;wi=[wi1,wi2,…,win]T为连接输入层和第i个隐层节点的权重;βi=[βi1,βi2,…,βim]T为连接输出层和第i个隐层节点的权重;bi为第i个隐层节点的阈值;wi·xj为wi和xj的内积;oj为前馈神经网络的输出值;g(x)可选为Sigmoid函数或径向基函数等。(2)将式(2)简写为:Hβ=T(3)式中:H为神经网络隐层的输出

    计量学报 2020年12期2021-01-19

  • 基于栈式降噪稀疏自编码器的极限学习机
    一种简单高效的单隐层前馈神经网络(Single Hidden Layer Feedforward Neural Network,SLFN)算法。ELM网络的输入权重和隐层偏置均为随机生成,输出权值则通过求解最小化平方损失函数得到,能够有效解决传统SLFN算法收敛速度慢、容易产生局部最优解的问题。ELM因实现简单、训练速度快和泛化性能好等特点,现已被广泛应用于语音识别[2]、故障诊断[3-4]、生物医学[5-6]、计算机视觉[7-8]等多个领域。大量研究表明

    计算机工程 2020年9期2020-09-18

  • 一种深度梯度提升回归预测模型
    习,分为输入层、隐层和输出层。输入层(L1)包括若干学习器(R11,R12,…,R1m)进行初级特征学习,每个学习器使用随机子空间方法随机选择相同大小的不同特征组合的子空间作为输入。隐层中含有隐层学习器进行高层特征抽象。为保持数据集原始特征信息,第一层隐层(L2)的输入为原始特征和输入层若干学习器的输出。从第二层隐层开始(L3),每一层的输入包含原始数据集中的所有特征和所有隐层学习器的输出作为下一层隐层学习器的输入。根据学习结果,隐层层数自适应确定,当上一

    计算机应用与软件 2020年9期2020-09-09

  • 基于BP神经网络学习算法的图像压缩技术研究
    传播是由输入层到隐层的一个过程,反向传播是输出层到隐层的一个误差反传过程[5]。1.1 BP神经网络模型BP算法的多层前馈网络可以看作是目前最广泛的神经网络,以较大的比率应用于生活中,当然单隐层网络更为普遍地应用于语言神经网络中。BP神经网络模型如图1所示,主要由输入层、隐层和输出层三部分组成[6]。图1 三层BP网络模型三层的网络中,输入向量X=(x1,x2,…,xi,…,xn)T,比如加入x0=-1,此时,可以为隐层引入阈值;隐层输出向量为Y=(y1,

    商洛学院学报 2020年4期2020-07-08

  • 基于改进烟花算法的ELM 分类模型*
    一种快速学习的单隐层前馈神经网络,隐层输入权值和偏置根据输入节点和隐层节点数随机生成,根据隐层输入权值和偏置求得隐层输出矩阵。尽管极限学习机与标准的神经网络相比有很多的优点,但是并不能满足人们对精度更高和速度更快的需要,因此,很多优化的ELM 算法出现。例如小波核极限学习机、粒子群极限学习机、蚁群优化极限学习机、人工蜂群算法优化极限学习机等[2],优化了极限学习机的分类性能或极限学习机的隐层节点。受烟花在空中爆炸产生火花,照亮临近的天空并构造出美丽的图案这

    火力与指挥控制 2020年2期2020-04-02

  • 基于粒子群优化的深度随机神经网络
    LM)[1]为单隐层前馈随机神经网络的一类有效学习算法.该算法随机选择输入层权值和隐单元阈值,并通过摩尔-彭若斯广义逆解析,确定网络输出层权值.相对于传统的神经网络梯度学习算法,超限学习机能够以极快的速度获得更优的泛化性能;同时,超限学习机中隐单元激活函数不需要一定可微,在学习过程中不用考虑停止规则、学习率和迭代次数等问题.相对于支持向量机,超限学习机仅需确定隐层节点数,不需要进行复杂的参数选择,在多类别分类问题和回归问题上均能获得良好性能.因此,近十年来

    江苏科技大学学报(自然科学版) 2020年1期2020-03-30

  • 基于深度架构网络的矮新星自动分类研究
    E)是仅包含一个隐层的经典神经网络模型, 能够自动挖掘样本数据的低层次特征。 然而一层AE编码能力有限, 数据表征学习能力不足。 具有多层次分布式架构的网络可弥补浅层模型在数据表征学习方面的欠缺, 对混乱无序的海量原始数据进行抽象, 挖掘隐藏在数据内部具有区分度的潜在特征[10]。 本文结合AE算法在参数估计上的计算优势, 以AE为基础构建了基于多层感知器架构的深度前馈堆栈式自编码器网络, 其深度分布式结构能够提供有效的数据抽象和表征学习能力, 特征检测层

    光谱学与光谱分析 2020年2期2020-02-25

  • 基于噪声数据与干净数据的深度置信网络∗
    .pgRBM 把隐层节点分为与分类有关的和与分类无关的两个部分,其连接权值的初值是用特征选择的方法对RBM 学习的权值处理得到的.pgrncRBM 就是在传统的pgRBM 基础上对pgRBM 学习到的数据二次去噪,其与分类无关的隐层节点相连权值的初值是用特征选择的方法对RBM 对一次降噪的数据学习到的权值处理得到的,但是其与分类有关的隐层节点相连权值的初值是用RBM 对不含噪声的数据学习得到的.这样,pgrncRBM 在处理随机噪声数据时可以学习到更为“干

    软件学报 2019年11期2019-12-11

  • 基于深度学习的金融衍生品RSI指标预测模型
    时刻的50 个隐层输出,故有(30+50+1)*50=4050 个参数;RNN2: 100 个节点,接受dense1 的100 个隐层输出,以及自身的偏置值,故有(100+1)*100=10100 个参数;2RNN2: 50 个节点,接受2RNN1 的50 个隐层的输出、自身t-1 隐层的输出,以及自身的偏置值,故有(50+50+1)*50=5050 个参数;output: 3 个节点,接受RNN2 的100 个隐层的输出、rnn2 的50 个隐层的输出

    电子技术与软件工程 2019年12期2019-08-22

  • 基于多隐层Gibbs采样的深度信念网络训练方法
    反向传播算法在多隐层神经网络上存在着梯度消失的问题,使得深度网络的性能甚至还不如浅层网络[1].这两个关键问题在2006年Hinton提出的文献[2]中得到了很大程度上的解决.在文献[2]中提出的多层限制玻尔兹曼机(Restrict Boltzmann machine,RBM)堆叠降维的方法,在无监督的情况下实现了自动化的特征学习,实验表明效果比传统的PCA方法要好得多.在此基础上增加分类器就构成了深度信念网络模型(Deep belief network,

    自动化学报 2019年5期2019-06-11

  • 基于RDPSO结构优化的三隐层BP神经网络水质预测模型及应用
    际应用中,由于单隐层BP神经网络初始权值阈值等参数通过随机确定,致使BP神经网络收敛速度慢、易陷入局部最优而不能获得较好的预测效果。目前,普遍采用遗传算法[5-6]、粒子群算法[7-8]等智能算法优化BP神经网络权值及阈值或增加BP神经网络隐层数来改善BP神经网络的预测性能。研究表明,同单隐层相比,多隐层BP神经网络泛化能力强,预测精度高,是提高BP神经网络预测性能的重要途径之一。目前已在径流预测[9]、水质预测[10]、风电功率预测[11]以及水安全评价

    人民珠江 2019年4期2019-04-20

  • 连续音素的改进深信度网络的识别算法∗
    包含一个由随机的隐层单元构成的隐层和一个由随机的可见单元构成的显层,其中隐层一般为伯努利分布,显层一般是高斯分布或伯努利分布[9]。RBM可以表示成双向图,只有不同层之间的单元才会存在边,同层单元之间都不会有边连接,即层间全连接,层内无连接。RBM是一种基于能量的模型,其可见矢量v和隐层矢量h的联合配置能量由公式(1)给出。其中,vi是可见单元的二值状态,hj是隐层单元的二值状态,ai和bj分别是可见单元i和隐层单元j的偏置值,wij是链接权值。通过E可以

    应用声学 2019年1期2019-04-02

  • BP网络结构和算法对非线性系统进行辨识
    网络输入、输出、隐层节点的个数,BP网络还是具有相当高的精度,对非线性系统辨识也是一种切实可行的方法[2]。1 BP网络设计BP网络主要包含输出输入层和隐层,建立BP网络首先要选择好网络的层数和每层的节点数。输入输出层的节点数是根据要分析的变量数而定,当要分析非线性模拟信号量时,一般采用按时序采样的方式选取数点作为输入层节点数。输出层节点数要根据实际需要考虑输出数据的类型和数据大小来决定。网络的层数一般时预先设定的,确定网络层数就是确定有几个隐层,理论上,

    山东化工 2019年2期2019-02-21

  • 改进磷虾群算法优化ELM的入侵检测*
    改进,在极大减少隐层节点数的同时提高了节点的学习质量,使得精简的IKH-ELM的泛化性能明显提高,且超过需要众多隐层节点的原始ELM的性能。同时,本文将IKH-ELM应用到入侵检测中,通过实验验证其效果,并与原始ELM、BP、SVM等算法进行比较,结果表明IKH-ELM具有更好的综合性能。1 极限学习机极限学习机(Extreme Learning Machine,ELM)是单隐层前馈神经网络(Single-hidden Layer feed-Forward

    火力与指挥控制 2018年12期2019-01-14

  • 基于局部自动编码器的手写数字分类
    C2ELM在不同隐层结点数下的训练时间,接着将C2ELM和RF-C2ELM扩展为多层神经网络,并与ML-ELM(Multi Layer Extreme Learning Machine)作比较.2 相关知识2.1 ELM对于任意N个互不相同的训练样本与对应标签的集合,数据组织形式为(xi,ti),其中xi=[xi1,xi2,…,xin]T∈Rn是模型的输入,ti=[ti1,ti2,…,tim]T∈Rm是整个模型的期望输出,i=1,2,…,N.假设SLFNs

    小型微型计算机系统 2018年11期2018-11-15

  • 集成自编码与PCA的高炉多元铁水质量随机权神经网络建模
    度,但是存在最优隐层节点数的选择问题,且易出现过拟合问题;文献[17]进一步采用在线序贯学习型RVFLNs实现多元铁水质量的在线软测量建模,但是当隐层节点选择不当时,会出现过拟合现象;文献[18]提出的增量型RVFLNs一定程度解决隐层节点的选择问题和过拟合问题,但是该方法中隐层节点数较多,网络结构过于复杂,计算效率低.毫无疑问,RVFLNs比BP等常规神经网络具有更高的计算效率,且RVFLNs及其改进算法都具有较高的模型精度,但这些算法仍然存在如下两方面

    自动化学报 2018年10期2018-11-01

  • 基于BP神经网络的铁路轨道几何不平顺预测方法
    计算结果显示,双隐层神经网络具有较高的预测精度,能够用于重载铁路轨道质量预测。1 理论模型1.1 多元多重回归模型多元回归模型是用来对多变量进行回归分析的数学模型,通常含有多个自变量与一个因变量。当该模型用于分析多个因变量与多个自变量的依赖关系时,则称为多元多重回归模型,其模型结构为( 1 )式中:x1,x2,…,xm为自变量;y1,y2,…,yp为因变量;β为模型参数;ε~N(0,σ2)为随机误差。该模型的矩阵表示形式为( 2 )利用拉直法及矩阵四块求逆

    铁道学报 2018年9期2018-09-28

  • 循环流化床锅炉燃烧系统的神经网络模型研究
    一种性能出色的单隐层前馈神经网络,称为极限学习机(Extreme Learning Machine,ELM)。ELM的模型和理论[14-15]被成功应用于函数逼近[16-17]、模式分类[18]和系统辨识等许多领域。ELM的核心内容是将单隐层模糊神经网络转化为求解线性最小二乘问题,然后通过Moore Penrose(MP)广义逆计算输出权值。2013年,Li等[19]提出了一种基于ELM的新型人工神经网络——快速学习网(Fast Learning Netw

    动力工程学报 2018年6期2018-06-27

  • 代价敏感正则化有限记忆多隐层在线序列极限学习机及图像识别应用
    正则化有限记忆多隐层在线序列极限学习机(CSR-FMML-OSELM)算法。极限学习机(ELM)[4]是一种新型的单隐层前馈神经网络训练算法,近年来针对该算法进行了不少研究和拓展。Yang等人[5]提出了一种双端增量型极限学习机,这是一种通过网络余差反向传递的方式直接计算部分隐层神经元参数的算法,摆脱了隐层神经元完全随机选取的任意性对算法性能造成的不利影响。Cao等人[6]借鉴Learn++思想提出了一种基于投票机制的集成ELM算法,也属于一种ELM隐层

    铁路计算机应用 2018年5期2018-06-01

  • 深度学习的研究进展与发展
    一个可视层和一个隐层组成[2],如图1所示,其中v和h分别表示可视层和隐层,可视单元和隐单元间均存在连接,而同层单元间无连接。记可视层和隐层的神经元个数分别为I和J,可视单元vi∈{0,1}和隐单元hj∈{0,1}之间的连接权值为wij,ai和bj分别为可视层和隐层的偏置,θ={wij,ai,bj}。图1 RBM的网络结构通常假设RBM的隐单元服从伯努利分布,可视单元服从伯努利分布或高斯分布。为了学习模型参数θ,先定义可视单元不同分布下的两种能量函数[2]

    计算机工程与应用 2018年10期2018-05-21

  • 一种基于共轭梯度法的广义单隐层神经网络
    提出了一种针对单隐层前馈神经网络的快速构建与学习算法[4],因其快速特性而称之为超限学习机(extreme learning machine, ELM).ELM算法的整个学习过程一次完成,使得网络训练大大简化,运算速度几十倍甚至几千倍于BP算法[5-6],ELM在许多领域都取得了突出成果[7-9].虽然网络训练效果很好,但ELM相对于传统的神经网络,需要更多的隐层节点才能达到同样的训练精度[10].由于使用大量隐层节点,计算工作量会大大增加,特别是样本超高

    郑州大学学报(工学版) 2018年2期2018-04-13

  • 基于ADS的KBNN在带通滤波器优化设计中的应用
    作为先验知识构成隐层的知识神经元,并对微带发夹型带通滤波器进行建模,以验证该方法的参考价值.1 知识神经网络模型1.1 网络构造方法KBNN自提出以来,国内外有许多学者研究知识神经网络,提出了多种模型,例如差值模型[7]、先验知识注入模型[8]、知识基神经网络模型[9]等.文中在差值模型和知识基神经网络模型的基础上,提出了一种新的构建方法,如图1.图1 知识神经网络构造方法图1中,该网络与传统的神经网络具有相同的输入层和输出层,不同点在于隐层的构造方法.在

    江苏科技大学学报(自然科学版) 2018年1期2018-04-11

  • 基于混沌优化极限学习机的库岸边坡变形预测
    数;βi为第i个隐层神经元与输出层间的连接权值;g(x)为激励函数;wi为输入层与第i个隐层神经元间的连接权值;xj为第j个输入样本;bi为第i个隐藏层神经元处的阈值。根据网络训练,可得训练误差E,即式中,N为训练样本个数;tj为第j个期望值。若训练参数设置得当,训练值可零误差趋近于期望值,即根据变换,可将上式转变为矩阵形式,即Y=Hβ式中,Y为输出矩阵;H为输入矩阵;β为权值矩阵。在训练过程中,连接权值和阈值可随机给定,加之输入、输出矩阵为常数矩阵,进而

    水力发电 2018年12期2018-03-25

  • 矩阵输入的多层前向神经网络学习算法
    入.又因为它是单隐层的,故称之为单隐层矩阵输入的神经网络.通过与向量形式输入的单隐层神经网络的实验对比,单隐层矩阵输入的神经网络取得了很好的效果.但是由于单隐层矩阵输入神经网络的客观局限性,它不能足够好地表达样本特征信息.基于多层神经网络具有更好的特征提取能力和泛化能力,本文在文献[18]的基础上提出了多层矩阵输入的神经网络算法,并将此算法应用于图像分类中.通过实验对比,本文算法取得了良好的效果.本文章节结构如下:第一节介绍向量输入和矩阵输入的单隐层神经网

    中国计量大学学报 2017年4期2018-01-23

  • 训练样本数量选择对图像特征提取的影响分析
    时,增加RBM的隐层神经元个数并不总是有价值的。图像特征提取;受限玻尔兹曼机;CD算法1 背景图像特征提取是图像处理过程中非常重要的环节,特征提取的质量直接影响后续工作的开展。图像特征提取方法包括Fourier变换法[1]、小波变换法[2]、最小二乘法[3]、直方图法[4]、信号处理法[5]和模型法[6]等。模型法是用模型参数作为图像特征,典型方法有卷积神经网络[6]、马尔科夫随机场[7]、受限玻尔兹曼机[8]等。其中,受限玻尔兹曼机作为特征提取器被广泛研

    重庆理工大学学报(自然科学) 2017年10期2017-11-04

  • 基于微分同胚优化极端学习机的人脸识别
    并没有充分考虑到隐层节点输出矩阵对极端学习机泛化能力的影响。通过实验发现激活函数选取不当及数据维数过高将导致隐层节点输出值趋于零,使得输出权值矩阵求解不准,降低ELM的分类性能。为此,提出一种微分同胚优化的极端学习机算法。该算法结合降维和微分同胚技术提高激活函数的鲁棒性,克服隐层节点输出值趋于零的问题。为验证所提算法的有效性使用人脸数据进行实验。实验结果表明所提算法具有良好的泛化性能。极端学习机 激活函数 微分同胚0 引 言近来Huang等人[1-3]基于

    计算机应用与软件 2017年4期2017-04-24

  • 深度自编码观测器飞机操纵面快速故障诊断
    于基础自编码器的隐层节点数选取经验公式,推导了两种深度自编码器的隐层节点数选取的递推公式。仿真结果表明,该方法无需精确的飞机模型,故障诊断速度快、精度高。飞机操纵面故障; 状态估计; 深度学习; 故障诊断0 引言操纵面是飞行控制系统中最重要的组成部分之一。飞机在飞行过程中会受到外界环境的影响,尤其是战斗机在战斗过程中将不可避免地产生各种操纵面故障,严重威胁飞行安全。因此,飞机操纵面故障诊断至关重要[1]。在能够获得系统精确数学模型的情况下,多模型自适应估计

    飞行力学 2016年6期2016-12-21

  • 基于改进仿电磁学ELM在相机标定中的应用
    习机(ELM)在隐层节点数少时逼近精度低的问题,提出了基于改进仿电磁学(EM)优化ELM的双目视觉相机标定方法。在标定过程中,采用极限学习机精确逼近图像坐标与世界坐标间的非线性关系,利用改进EM策略,包括使用自适应步长以及空间解收缩,优化ELM的输入权重和隐层偏置,提高ELM的收敛速度和泛化能力。实验结果表明,改进EM-ELM优化算法的收敛速度快于PSO的,且用更少的隐层节点数取得较高的标定精度。相机标定;仿电磁学;极限学习机0 引 言相机标定是机器视觉中

    广西大学学报(自然科学版) 2016年5期2016-11-12

  • 带后续迭代的双极S函数激励的WASD神经网络*
    moid)函数为隐层神经元激励函数的三层前向神经网络可以实现对任何连续函数的任意精度的逼近。学习能力和泛化能力是神经网络性能的重要反映,没有学习能力和泛化能力的神经网络是没有使用价值的[13]。值得指出的是,影响神经网络这两种能力的因素主要包括激励函数、网络结构和网络学习算法等。因此,如何选择较优的激励函数、网络结构以及网络学习算法来保证神经网络的优良性能显得非常重要[14-15]。针对前向神经网络,一些学者已进行了深入研究,并取得诸多成果[2,16-20

    中山大学学报(自然科学版)(中英文) 2016年4期2016-06-05

  • 基于BP神经网络的图像识别跟踪技术
    ;j 为第j 层隐层;k 为第k 层输出;输入节点为图像每个特征值所对应的特征向量;输出节点为经过分类器分类后所属于的类别。图3 BP神经网络Fig.3 BP neural network利用BP神经网络进行图像识别跟踪实质上是信号的传播,类似于人体神经的工作进程,信号的传递归纳如图4所示。图4 BP神经网络正反信号传播Fig.4 Positive and negative signal propagation of BP neural network设B

    舰船科学技术 2015年4期2015-12-04

  • 神经网络在自适应船舶操作系统中的应用
    神经网络输入层、隐层和输出层外,还有一个包含反馈联接层,RBF-Elman神经网络的输出是隐层的输出和,表示如下:式中:i=1,…,m;j=1,…,n;q=1,…,r;wij为隐层和输出层的连接权;Yi为输出层的输出值,xj为隐层的输出值;xCj为中间联结层输出;α 为联接层的自反馈增益;I 为隐层总的输入;k 为计算次数。实验表明,此种方式学习速度较慢,在自适应学习过程中目标函数的收敛有极值,且不稳定,难以达到预期的精确度。为了更好地进行自适应学习,本文

    舰船科学技术 2015年5期2015-12-04

  • 一种ELM神经网络结构设计方法及在卫星钟差预报中的应用1
    ELM)神经网络隐层结构难以确定的问题,基于自适应共振理论(adaptive resonance theory,ART)网络良好的自组织分类功能,提出一种基于ART网络思想的ELM网络结构设计方法。该方法将ART网络的自组织聚类特性用于ELM网络结构设计中,通过对输入向量与已存模式的相似度比较将输入向量进行分类,确定隐层节点规模。仿真实验表明,与其他网络相比,ART-ELM网络具有更精简的结构、更快的学习速度以及更好的映射能力。通过用于GPS卫星钟差预报的

    时间频率学报 2015年4期2015-09-07

  • 基于极限学习的深度学习算法
    习算法,特别是单隐层前馈神经网络 (singlehidden layer feedforward networks,SLFNs)。ELM 随机初始化SLFNs的输入权重和隐层的偏置,并能够得到对应的输出权重。ELM能保证输出权重的范数最小,而且输出权重是唯一的。随着ELM的发展,出现了一些对基本ELM的改进的算法[13-15],又进一步提高了基本ELM的性能。为了加快DBN的训练准确性,并提高分类的准确性,受到ELM思想的启发,本文提出来一种基于ELM改进

    计算机工程与设计 2015年4期2015-05-04

  • Linex损失下两种信用评分模型的比较
    网络,其输入层、隐层和输出层的神经元个数分别为 p,q和1,记 w0=(w01,w02,…,w0q)T∈Rq为隐层与输出层之间的权向量,wi=(wi1,wi2,…,wip)T∈Rp为输入层与隐层第i个节点之间的连接权向量,其中 i=1,2,…,q。记。隐层、输出层的激活函数为 g:R→ R。对任意x=(x1,x2,…,xq)∈Rq,记 G(x)=(g(x1),g(x2),…,g(xq))T:Rq→Rq。对输入样本ξ∈RP,隐层的输出为G(Vξ),网络输出层

    长春大学学报 2014年4期2014-12-05

  • 基宽灵敏度分析的径向基神经网络代理模型
    ,分别为输入层、隐层和输出层,输入层神经元的个数同输入样本点维数相同,即输入层对应着N维输入矢量x=[x1x2…xN],隐层由K个神经元组成,其与输入层神经元全相连,其是通过隐层的激活函数将线性输入空间映射到非线性隐层空间,每一个隐层神经元的激活函数有高斯型函数、多二次型函数、逆多二次型函数、薄板样条函数组成,常取高斯型基函数[9-12]。(1)(2)式中:h=[h1h2…hK]为隐层的输出矢量,wij为隐层的第j个神经元与输出层的第i个神经元的连接权。2

    智能系统学报 2014年2期2014-09-13

  • 基于近似结构风险的ELM隐层节点数优化
    结构风险的ELM隐层节点数优化黄重庆,徐哲壮,黄宴委,赖大虎(福州大学电气工程与自动化学院,福州350108)隐层节点数是影响极端学习机(ELM)泛化性能的关键参数,针对传统的ELM隐层节点数确定算法中优化过程复杂、容易过学习或陷入局部最优的问题,提出结构风险最小化-极端学习机(SRM-ELM)算法。通过分析VC维与隐层节点数量之间的关联,对VC信任函数进行近似改进,使其为凹函数,并结合经验风险重构近似的SRM。在此基础上,将粒子群优化的位置值直接作为EL

    计算机工程 2014年9期2014-06-06

  • 基于BP神经网络的非结构化道路识别
    和输出层中间的为隐层,有m个元素,传递函数选用非线性Sig moid函数。图1 BP神经网络结构示意图2 BP神经网络算法神经网络的输入量为x1,x2,…,xn,则隐层的输入量为:其中:wij为隐层的元素i与输入层的元素j的连接权值;θi为隐层各元素的阀值。我们取隐层的输入量与输出量之间的传递函数为Sig moid函数,即:其中:vki为输出层的元素k与隐层的元素i的连接权值;βk为输出层各元素的阀值;yk就是整个神经网络的输出量。3 隐层节点数的影响恰当

    机械工程与自动化 2014年3期2014-05-15

  • 最优隐层BP神经网络的滚动轴承故障诊断
    1-4],但是对隐层神经元个数的确定主要还是依靠经验公式,不容易得到最优个数。本文以某石油钻井的绞车及传动机组滚动轴承为例,设计了一种基于BP神经网络的故障自动识别方法,通过计算平均迭代次数和均方误差的近似值来确定最优隐层单元数。仿真结果表明,诊断效率和准确度都很高。1 滚动轴承特征参数的提取选取某型减速器的主动轴滚动轴承的4个特征参数:均方根植、峭度、谐波指标和SQ参数[5]组成BP神经网络的输入样本向量。轴承状态主要分为正常、保持架损坏、滚珠点蚀、内圈

    机械工程与自动化 2014年3期2014-05-07

  • 基于环形BP神经网络的指纹匹配算法
    呈n层环状结构,隐层中的第n个神经元接受输入层第n环所有神经元的数据,对于每个输入层的神经元,仅采用一个权值连接至对应的隐层神经元;输出层的唯一一个神经元接受隐层中所有神经元的数据,对于每个隐层神经元,仅采用一个权值连接至输出层神经元。试验结果表明,单权值连接方式提高了网络的收敛速度,环状结构的设计具有较好的抗旋转畸变的性能,使得匹配速度和匹配精度均有所提高。指纹匹配;图像处理;BP神经网络1 BP神经网络分析目前的基于神经网络的指纹匹配算法,主要的思想是

    长江大学学报(自科版) 2013年1期2013-10-26

  • 一种改进的神经网络相关性剪枝算法
    点(输入节点以及隐层节点)或连接权对网络误差的贡献(灵敏度),删除那些贡献最小的节点或权。3)相关性剪枝方法[5]:根据节点间相关性或相互作用进行剪枝,也是一种很重要的剪枝方法,最常见的做法是先判断隐节点输出之间的相关性,然后合并具有较大相关性的隐节点。文中主要是对相关性剪枝算法进行研究,首先介绍相关性剪枝算法的思想和计算方法,然后提出新的基于误差传递的改进方案,最后通过实验建立神经网络,并对网络进行剪枝。将新的剪枝算法获得的网络与标准算法剪枝得到的网络进

    电子设计工程 2013年8期2013-09-25

  • 权值直接确定的三角型模糊前向神经网络*
    从网络结构来讲,隐层神经元数过少将无法达到学习和逼近的效果,隐层神经元数过多又将使网络出现过拟合等不良现象,同时在硬件实现上也将难以完成。文献[5]利用逼近论对单一隐层前向神经网络进行了研究,在理论层面上阐述了神经网络的本质逼近阶既与隐层神经元个数有关,又与被逼近函数的光滑性有关;随后,曹飞龙等在文献 [6]中使用构造法得出了单隐层神经网络逼近定义在紧集上的任意连续函数的逼近速度不超过该网络的最佳多项式逼近的二倍的结论。最近几年关于神经网络的插值性问题研究

    中山大学学报(自然科学版)(中英文) 2013年2期2013-09-15

  • BP神经网络分步赋初值算法的研究
    。输入到最后一级隐层的权值矩阵对网络的影响不是很大,只要保证网络的抗干扰性和容错性,使网络处于一个很好的状态即可,本研究采用敏感区赋值,通过矩阵相乘来计算各级的权值。最后一层的输出权值直接作用于输出,对算法的影响最大,笔者进行单独赋值,利用期望值作为实际输出构成线性方程组,以方程组的解作为输出层的权矩阵的初始值,这样不仅可以避免陷入局部最小点,同时也可大大地缩短训练的时间。1 BP神经网络传统BP神经网络的思想是:学习过程由信号的正向传播与误差的反向传播两

    机电工程 2013年2期2013-03-29

  • 综合优化神经网络算法*
    v定理,含有一个隐层的3层BP神经网络在隐节点数足够多的情况下能以任意精度逼近有界区域上的任意连续函数[1]。由于网络参数随机性的影响,隐层神经元数的选择,至今还没有一个明确的方法。大量的实验表明,如果隐层神经元的数目偏少,网络的学习能力和处理信息的能力较差,学习误差下降缓慢,甚至出现达不到目标精度的现象;若隐层神经元数目过多,一些隐层神经元输出存在着线性相关性,就造成网络结构庞大、网络泛化能力低等问题。因此,不能完全按照kolmogorov公式或者经验公

    网络安全与数据管理 2012年5期2012-08-20

  • 基于ELM 学习算法的混沌时间序列预测
    一类性能优良的单隐层前向神经网络(single-hidden layer feed forward neural networks,SLFNs)学习算法,称为极端学习机(extreme learning machine,ELM)学习算法,与一般的BP 神经网络、RBF 神经网络相比,性能较好.该算法可以随机地选择网络中隐层神经元个数和类型,构造不同的学习算法,且在随机选择输入层权值和隐层神经元偏差(阈值)前提下,可以解析获得隐层输出权值,该方法具有许多优良

    天津大学学报(自然科学与工程技术版) 2011年8期2011-12-06

  • BP原理及其在林木胸径模拟中的实现
    函数作激活函数,隐层采用非线性激活函数才可以实现非线性映射功能。2 BP的拓扑结构BP拓扑结构由大量神经元连接构成的一个层次型网络(如图2),包括:①含节点的输入层:用来描述问题的自变量;②具有节点的输出层:描述因变量;③一个或多个包含节点的隐层:帮助捕获数据中的非线性特征。图2 BP类屋次型网络结构前一层的输出为下一层的输入,各神经元仅接受前一层的输入,无反馈;输入层节点不具有计算功能,单单接受外来信号,并传递给各隐层节点;隐层是神经网络的内部信息处理层

    东北林业大学学报 2011年8期2011-08-09

  • 改进的遗传算法在神经网络结构优化中的应用
    解决人工神经网络隐层节点数目难以确定的问题,针对三层BP神经网络提出了一种最大上限隐层节点数模型,并用改进的遗传算法对其优化。最后,将优化的神经网络对语音特征信号进行分类。仿真结果表明优化后的神经网络具有很好的泛化能力,验证了该方法的有效性。遗传算法;神经网络;结构优化人工神经网络[1](ANN)和遗传算法[2](GA)都是将生物学原理运用到智能计算研究中。人工神经网络是对人脑和动物神经的若干特点的人工模拟[3],具有一个隐含层的神经网络就能逼近任意复杂的

    网络安全与数据管理 2011年3期2011-01-22

  • 船舶阻力计算BP神经网络的研究*
    为1个神经元,设隐层神经元数为R,则其结构如图1所示.为选取合适的隐层神经元数R,传递函数g1(·),g2(·),性能函数E(·)和训练函数,分别对之进行试验.图1 船舶阻力计算3层BP神经网络结构图2.1 训练函数和性能函数的确定为确定该神经网络的训练函数,经初步试验决定采用15个神经元的隐层,隐层传递函数g1(·)采用 tansig,输出层传递函数g2(·)采用purelin,最大训练次数采用1 000,由于数据量较大,采用批处量训练方式,用网络输出数

    武汉理工大学学报(交通科学与工程版) 2010年1期2010-12-01

  • 基于BP神经网络的纸病分类器设计
    点、输出层节点和隐层节点。隐层节点与外界没有直接联系,但其状态的改变,能影响输入与输出的关系。图1 BP神经网络2 BP神经网络的结构设计2.1 输入层和输出层的设计BP网络的输入/输出层尾数完全根据使用者的要求来设计。本课题研究对象为纸病图像,输入为表征纸病图像特征的特征向量,在特征提取过程中,提取了纸病图像的10个特征量,如果把它们作为网络的输入,则网络输入层的神经元个数一般等于每个样本的特征量个数,因此输入层神经元个数为10个[2]。根据所达到的识别

    中国造纸学报 2010年2期2010-09-08

  • 重轨矫直参数控制模型的自学习功能研究*
    ,也是由输入层、隐层和输出层组成的前馈网络,其结构如图3所示。对于从X→Y的映射,RBFNN可写为:图3 RBFNN结构式中,qi为第 i个隐层节点的输出,X=(x1,x2,…,xn)为输入样本,ci为第 i个隐层节点的中心,m为隐层节点的个数 ,||·||为欧式范数,p为输出层的节点数,wki为第 i个隐层节点到第k个输出层节点的连接权,R为径向基函数。径向基函数通常采用高斯核函数:式中,σi为第 i个隐层节点的宽度。由式(4)可知,隐层节点对输入信号在

    网络安全与数据管理 2010年18期2010-05-18