面向大规模服务性能预测的在线学习方法*

2017-12-13 05:44谭文安蒋文明
计算机与生活 2017年12期
关键词:小批量批量梯度

孙 勇,谭文安,谢 娜,蒋文明

1.南京航空航天大学 计算机科学与技术学院,南京 211106

2.滁州学院 地理信息科学系,安徽 滁州 239000

3.上海第二工业大学 计算机与信息学院,上海 201029

面向大规模服务性能预测的在线学习方法*

孙 勇1,2+,谭文安1,3,谢 娜1,蒋文明2

1.南京航空航天大学 计算机科学与技术学院,南京 211106

2.滁州学院 地理信息科学系,安徽 滁州 239000

3.上海第二工业大学 计算机与信息学院,上海 201029

为提高服务运行质量,需要主动预防服务失效和服务性能波动,而不是在服务发生错误时触发处理程序。高效地预测与分析大规模服务的性能是有效可行的主动预防工具。然而传统的服务性能预测模型多采用完全批量训练模式,难以满足大规模服务计算的实时性要求。在综合权衡完全批量学习法和随机梯度下降法的基础上,建立了基于在线学习的大规模服务性能预测模型,提出了一种基于小批量在线学习的服务性能预测方法,通过合理地设置预测模型的批量参数,一次迭代仅需训练批量规模较小的样本数据,从而改善大规模服务性能预测的时间效率;详细分析了在线服务预测模型的收敛性。实验表明,提出的在线学习算法有效地解决了大规模服务预测算法的时效性问题。

大规模服务计算;在线学习;小批量在线学习;随机梯度下降法

1 引言

大规模服务的执行和交付环境复杂多变,服务性能存在着各种不确定性,导致服务质量难以达到预期的要求,甚至失败,极大地影响了面向服务计算的应用程序执行的可靠性[1],从而构建性能稳定的服务计算程序变得极具挑战性。基于服务质量的性能预测与分析模型减轻了服务执行程序的异常和风险[2]。典型的服务性能分析技术主要是实时监控服务响应时间、服务提供者声誉、服务可靠性等,通过收集、度量、预测和分析服务运行状态信息,及时发现服务执行中存在的问题[3-4],从而不断地改进和优化云平台中服务质量和性能。

基于服务质量性能预测与分析模型的研究已经取得不少的成果[5]。为及时发现服务质量存在的问题,Leitner等人对服务数据执行日志进行依赖性分析,查找影响组合服务运作的关键性服务,并监控关键服务的性能[6]。在服务执行过程中,文献[7]采用基于机器学习的回归方法,文献[8]提出基于自回归积分滑动平均模型(autoregressive integrated moving average model,ARIMA)的服务质量预测方法,对服务信息进行拟合。通过预测关键服务性能值,及时发现服务质量性能波动,从而保证了服务执行的质量。

然而,随着云平台中的发布服务呈现爆炸式增长,传统的基于完全批量学习的服务性能预测模型及其优化算法已难以适应海量服务数据的大规模特性[9-10]。在面向大规模服务数据处理时,基于完全批量预测的服务质量性能分析模型需要训练大量的历史性能数据,势必增加系统额外费用,降低运行效率。其中致命问题是难以满足大规模服务计算的实时性要求。因为完全批量学习方法通常只能离线计算预测模型函数的权重参数,不适用于大规模服务的实时计算问题[11-13],所以如何高效地监控大规模服务运行质量和完善性能评估方法,有待继续深入研究。

针对大规模服务性能预测算法的时间效率问题,提出了一种基于小批量在线学习的服务性能预测方法,通过综合权衡基于随机梯度下降法和基于完全批量学习(batch)的预测算法的优势,采用小批量学习法进行预测分析。小批量学习(mini-batch)方法一次仅需训练规模较小的样本数据。因此,基于小批量在线学习的服务性能预测方法既保证了在线预测实时性,也保证了一定的算法精度。基于小批量在线学习的大规模服务预测方法能够有效地提升工作流服务预测算法的时间效率,解决了大规模服务预测算法的时效性问题。

2 基于在线学习的服务性能预测

针对服务性能预测存在的效率问题,在综合权衡基于随机梯度下降学习和基于完全批量学习的预测算法各自优势的基础上,提出了基于小批量学习的服务性能预测分析方法,通过预测服务的响应时间、服务提供者声誉、服务可靠性等服务质量属性状态,及时发现服务质量性能的波动,从而保证服务执行的可靠性。

由于服务性能指标较多,本文以服务性能中响应时间为例进行预测模型分析和数学推导,其他服务性能指标可参考该方法进行,其中对所有性能特征值进行了归一化处理。假定预测服务响应时间性能的输入特征值序列为x=[x1,x2,…,xn],则服务性能预测的回归函数形式为:

服务性能预测优化目标是希望样本集上目标特征的预测误差尽可能小,服务性能预测模型的误差度量采用了误差平方和函数,误差函数定义如下:

其中,Jtrain(θ|X)表示在给定训练数据集合上预测模型参数向量θ的误差度量。基于完全批量学习的服务性能预测模型预先收集全部训练服务性能的数据集,并对所有的样本数据同时训练后,通过多次循环迭代,获得服务性能预测计算模型。

2.1 基于随机梯度下降的服务性能预测

传统基于完全批量学习的工作流服务性能预测优化模型通常采用完全批量学习过程,即在全部服务性能的数据样本上,对预测模型的权值空间进行最优化搜索。在进行大规模服务数据处理时,由于其计算开销过大,基于完全批量学习的服务性能预测方法只能离线计算预测模型的权重参数,不适用于大规模服务的实时计算问题[14-16]。

不同于基于完全批量学习的预测模型,基于随机梯度下降法的服务性能预测模型每次从全部服务性能训练样本中随机抽取单个样本,且仅对一个性能样本数据进行学习,然后调整预测模型权值参数以减少预测误差,适用于实时在线预测分析[17],其公式定义如下:

其中,θ为服务性能预测参数向量;ηt为预测模型学习率;是对每个预测参数权值求解偏微分。

为了提高基于随机梯度下降的服务性能预测算法的准确度,可增加预测模型的复杂度,使得训练误差不断地减小,最终趋向于0。然而,测试样本误差先会逐渐减小,当达到最小值后,又不断增大,导致复杂的预测模型产生过拟合现象。因此,预测模型须采用合理的模型复杂度,以实现最小化测试误差的优化目标。

本文采用了正则化的方法,通过在预测模型中加入正则化项(惩罚项),防止过拟合现象。基于随机梯度下降法的预测模型选用了误差平方和作为优化代价函数,因此将参数向量的L2范数作为正则化项,则有:

其中,J0(θ|X)表示原始的优化代价函数;式(3)中后一项则为L2正则化项,是所有参数θ的平方和除以训练样本集的数据数量m;λ表示正则项的权衡参数,是J0(θ|X)项与正则项的比率。

进一步对服务性能预测模型的优化目标函数进行求导,可得:

其中,参数θ0表示常数项,采用基于随机梯度下降的迭代计算方法寻找大规模服务性能预测模型误差最小值,则有:

基于随机梯度在线学习的服务性能预测模型每次只选择一个训练样本,进行迭代优化,直到收敛。

2.2 基于小批量学习的服务性能预测方法

基于小批量学习的服务性能预测方法是批量梯度学习法和随机梯度下降法的一种折衷方案,介于两种算法之间的优化算法。通过综合分析基于批量学习法的预测模型与基于随机梯度下降法的预测模型,小批量学习方法一次只需训练规模较小的样本数据,因此在基于随机梯度在线学习的预测模型的基础上,可将基于小批量学习的服务性能预测模型定义如下:

为了防止预测模型的过拟合,在原有的基于小批量学习的预测模型中加入正则化项,该正则化项采用了参数向量的L2范数。因此,基于小批量学习的服务性能预测模型的权值参数更新公式定义如式(12)和(13)。

其中,Jx(θ|X)表示原始的优化代价函数;λ表示正则项的权衡参数,是Jx(θ|X)项与正则项的比率。通过分析式(13)可知,权值参数θ的更新公式后一项是所有导数之和,乘以学习系数ηt,并除以b,b则表示小批量训练的样本数量。如果不采用L2范式正则化,迭代递推公式中θ系数为1;而采用正则化,θ系数是1-ηt·λ/b,缩减了θ的值。

基于小批量在线学习的服务性能预测模型每次选取适量的训练样本,进行迭代优化,直到收敛。在每次迭代时,只选择b个训练样本,其中b远小于样本数据数量m;选取b个样本进行迭代,并对b个梯度进行加权平均并求和,作为一次小批量训练的下降梯度,不断在训练集合中重复以上步骤。因此,基于小批量学习的大规模服务性能在线预测算法在速度上要优于基于完全批量学习的预测算法。

基于在线学习的服务性能预测模型采用随机抽样方法,减小了学习基数的规模,提高了服务性能预测效率,但是同时也降低了预测精度。在进行小批量预测函数训练时,批量设置太小,训练效果不明显;批量设置太大,权重更新则不频繁,导致优化过程太长。批量设置不是一成不变的,根据请求用户的数据集规模、预测平台的设备计算能力去合理设置。因此,合理设置批量参数应考虑两点:(1)预测用户对于服务性能预测精度和计算性能的要求;(2)预测系统所具备的内存和计算能力。

3 在线学习模型的收敛性分析

基于在线学习预测的服务性能评估模型采用小批量梯度下降法,实现了预测模型的最优化,如式(10),当小批量数量参数b=1时,小批量学习等同于随机梯度下降法。实质上,随机梯度下降法是小批量梯度下降法的一个特例,在此统一称之为在线学习算法。在线学习模型是收敛的,其收敛性详细分析过程如下。

假设存在常数A、B,满足E[||∇hb(θ|x)||2]≤A和E[||θ*-θ1||2]≤B,其中,t表示预测优化的迭代次数,。

如果在线学习算法收敛,则当t→∞时有:E[hmin(θ|x)]→h(θ*|x),即在线学习算法收敛到h(θ*|x)。设优化过程迭代到t+1次时,有:

根据数学条件期望的性质,则有:

同时将式(15)等号两边的参数θt取期望,由数学条件重期望性质可知:

利用式(14),重复计算可得:

根据式(17),且E[||θt+1-θ*||2]≥0 ,则:

因为E[||θt-θ*||2]≤B,可推导出:

综上分析,在线学习预测算法收敛。

4 在线学习预测算法分析与验证

在线学习预测验证实验主要从学习率对在线学习预测影响、批量规模参数设置以及在线预测模型算法的性能分析等三方面进行仿真实验。实验采用Python语言实现了服务性能预测,在预测实验过程中,收集了Planet-Lab实验室服务运行数据集[18],表1列出服务监控数据集合性能。

Table 1 Data example of service performance表1 服务性能的数据示例

基于在线学习的预测算法验证实验以服务响应时间为例,分析了服务性能预测算法的可行性。

4.1 学习率对在线预测算法的影响

本次实验对比分析了基于批量学习法(Batch)的服务性能预测模型和基于随机梯度下降法(Stochastic)的服务性能预测模型。通过选取很小的优化步伐,不断地循环迭代,逐步实现代价函数的平方误差最小化,直到收敛,优化过程如图1所示。

Fig.1 Learning rate of online prediction图1 预测算法的学习率分析

通过观察图1可知,Stochastic预测模型迭代40次后才趋向稳定,而Batch预测模型仅仅迭代3次后即趋向稳定。其原因是基于批量学习法的预测模型由完全批量样本数据集来确定梯度方向,每次优化循环都会训练所有的样本集数据,完全批量样本数据能够更好地代表样本总体,从而更准确地朝向优化模型极值位置。

服务性能预测模型的学习率对梯度下降算法影响的实验结果表明:当样本数据集中服务序列规模较小时,基于批量学习法的预测模型以更快速度收敛,而且更加准确快速地计算出模型函数的极值;而基于随机梯度下降法的预测模型则以较多次数收敛。然而,随着服务数据集的海量增长,更大数据规模的服务计算受限于内存限制,一次性载入所有的服务数据变得愈发不可行。为分析大规模服务预测问题,仿真实验进一步采用人工合成的服务数据集,随机生成了服务的时间序列数据,分析了预测模型中学习率设置,预测优化效果如图2所示。

其中,参数变量α表示小批量梯度下降法的学习率参数,α取值决定了梯度下降搜索中的步长,预测模型中参数变量α前的负号表示权向量将向梯度下降方向移动,将参数α值设置为α=[0.000 01,0.000 02,0.000 05,0.000 10],验证分析了基于小批量学习的服务性能预测优化效果。

在图2中,所有的预测模型都得到了收敛,当α=0.000 01时,优化模型的收敛速度最慢;当α=0.000 10时,优化模型的收敛速度最快。可见,增大α取值有助于加快预测模型的收敛速度。但学习率参数值α被设置为固定时,当学习率参数值被设置太小时,会导致预测模型收敛速度慢;而当学习速率参数值被设置过大时,又会使得预测模型代价函数不能收敛。因此,基于小批量学习的服务性能预测方法可采用动态可变的学习率,通过不断地尝试,寻找合适的学习率。在迭代开始时,将学习率参数值设置相对较大,加快全局收敛速度,在优化过程中,逐步减小学习率,直到收敛。

Fig.2 Influence of learning rate on optimization图2 学习率对优化效果的影响

4.2 批量规模选取分析

基于小批量学习的服务性能预测模型需要设置批量的规模,合理地设置批量参数有助于提升预测算法的性能效率。在进行小批量训练优化时,当批量规模参数设置为1时,小批量学习法就是随机梯度下降法;当批量规模参数值设置为所有训练集的数量时,则小批量学习法变成了批量梯度下降法。在训练大量数据时,需要对预测算法进行加速优化;而当训练数据批量规模较小时,则加速效果可能变得不明显,如图3所示。

Fig.3 Influence of batch setting on optimization图3 批量设置对优化效果的影响

批量数据训练量也不是越大越好,批量规模设置过大时,预测模型权重的更新又不频繁,导致优化过程比较长,可见批量训练数据量选取过大或过小都不合理。因此,基于小批量随机梯度下降的服务性能预测模型的批量规模参数设置,不是一成不变的,应根据收集的训练数据集规模以及拥有的设备计算能力,去选择合理的批量规模。根据学习率和批量设置实验分析可知,合理地设置学习率与批量规模等参数,将有助于提升服务性能预测模型的收敛速度和效果。

4.3 在线学习预测算法的性能分析

4.3.1 在线学习预测算法的精度分析

在线学习预测方法的性能分析主要包括算法的性能效率与准确率等两方面,本文实验对预测准确度进行分析,验证预测的性能值与真实性能值之间的差异。预测误差评定指标选取了平均绝对偏差(mean absolute error,MAE)、均方误差(mean squared error,RMSE)、平均绝对百分比误差(mean absolute percentage error,MAPE)以及均方百分比误差(mean squared percentage error,MSPE)等指标进行度量。仿真实验随机选取Planet-Lab实验室服务运行数据集的一个服务进行预测,依据4个预测误差评定指标分析3种预测算法的精度,实验结果如表2所示。

其中,传统批量预测模型的算法精度最好,小批量预测模型的算法精度稍好于采用随机梯度法的预测模型算法。在线学习预测算法的精度分析实验表明,基于在线学习的服务性能预测模型一定程度牺牲了预测精度,因此在进行预测时,通过设置合理的批量规模,以保证服务性能预测精度要求。

Table 2 Effect comparison of online prediction approaches表2 在线预测算法精度对比分析

4.3.2 在线学习预测算法的时间效率分析

算法时间效率优化是面向大规模服务计算的工作流服务性能预测方法迫切需要解决的重要问题。本次实验通过设置训练样本的批量规模,详细分析了基于小批量学习的服务性能预测算法的时间效率。

在预测算法性能分析过程中,将服务个数设置为SNum=[100,200,400,600,800,1 000],并为每个工作流任务的服务产生1 000个时间序列数据,将训练批量规模设置为minisize=[1,100,200,500,1 000],仿真实验结果如图4所示。实际上,本次实验也对比分析了基于小批量学习的服务性能预测算法、基于完全批量学习的服务性能预测算法以及基于随机梯度下降的服务性能预测算法的时间效率。当minisize=1时,基于小批量学习的预测算法是基于随机梯度的预测算法;当minisize=1 000时,即每次迭代循环都对全部的历史样本数据进行训练,此时,基于小批量学习的预测算法则为基于完全批量数据学习的预测算法。

Fig.4 Time evaluation of online prediction approaches图4 在线预测算法时间效率分析

通过观察图4实验结果可知,基于完全批量学习的服务性能预测算法的时间效率最差,而基于随机梯度下降的服务性能预测算法的时间效率则最优,基于小批量在线学习的服务性能预测算法的时间效率随着批量大小的变化而变化,批量规模越小,其时间效率则更优。因此,通过选取合适的批量规模,一定程度上保证了服务性能预测的精度要求,而且能够确保大规模服务预测的运行效率,从而满足大规模服务计算的实时预测需求。

5 结束语

针对大规模服务性能预测的时间效率问题,提出了面向大规模服务性能预测的在线习方法,主要贡献总结如下:(1)综合权衡了完全批量学习和随机梯度下降法的各自优势,提出了一种基于小批量在线学习的服务性能预测方法,有效地提高了大规模服务性能预测算法的时间效率;(2)理论分析了服务性能在线学习算法的收敛性;(3)进行了实验仿真,验证分析了面向大规模服务性能预测的在线学习方法。通过检验服务状态的不稳定时期,查找出原因,调整原定的策略和措施,对大规模服务性能进行持续改进和优化,从而有效地提高服务的运行质量。

面向大规模服务性能预测的在线学习方法提升了大规模服务性能评估的算法效率。其中批量设置是基于小批量在线学习的服务预测的重要研究问题,同时也是一个难点问题,值得人们深入地研究与探索。而且,随着云计算技术及其应用的不断推进,服务数量的大规模化和每个服务性能的训练数据爆炸性增长,为保证组合服务的可靠性,需要预测大规模服务的性能。针对大数据量的训练问题,结合MapReduce并行计算框架和小批量随机下降预测方法,设计出适用于大规模服务性能的监控与预测方法,仍然值得进一步探索。

[1]Xu Lida.Enterprise systems:state-of-the-art and future trends[J].IEEE Transactions on Industrial Informatics,2011,7(4):630-640.

[2]Blake M B,Cummings D J,Bansal A,et al.Workflow com-position of service level agreements for Web services[J].Decision Support Systems,2012,53(1):234-244.

[3]Dan A,Davis D,Kearney R,et al.Web services on demand:WSLA-driven automated management[J].IBM Systems Journal,2004,43(1):136-158.

[4]Emeakaroha V C,Netto M A S,Calheiros R N,et al.Towards autonomic detection of SLA violations in cloud infrastructures[J].Future Generation Computer Systems,2012,28(7):1017-1029.

[5]Wei Yi,Blake M B.Service-oriented computing and cloud computing:challenges and opportunities[J].IEEE Internet Computing,2010,14(6):72-75.

[6]Leitner P,MichlmayrA,Rosenberg F,et al.Monitoring,prediction and prevention of SLA violations in composite services[C]//Proceedings of the 17th International Conference on Web Service,Miami,USA,Jul 5-10,2010.Washington:IEEE Computer Society,2010:369-376.

[7]Rosenberg F,Leitner P,Dustdar S.End-to-end support for QoS-aware service selection,binding,and mediation in VRESCo[J].IEEE Transactions on Service Computing,2010,3(3):193-205.

[8]Hua Zhebang,Li Meng,Zhao Junfeng,et al.Web service QoS prediction method based on time series analysis[J].Journal of Frontiers of Computer Science and Technology,2013,7(3):218-226.

[9]He Qing,Li Ning,Luo Wenjuan,et al.A survey of machine learning algorithms for big data[J].Pattern Recognition and Artificial Intelligence,2014,27(4):327-336.

[10]Sun Dawei,Zhang Guangyan,Zheng Weimin.Big data stream computing:technologies and instances[J].Journal of Software,2014,25(4):839-862.

[11]Hashem I A T,Yaqoob I,Anuar N B,et al.The rise of“big data”on cloud computing:review and open research issues[J].Information Systems,2015,47:98-115.

[12]Moreno-Vozmediano R,Montero R S,Llorente I M.Key challenges in cloud computing:enabling the future Internet of services[J].IEEE Internet Computing,2013,17(4):18-25.

[13]Song L,Tekin C,Van der Schaar M.Online learning in large-scale contextual recommender systems[J].IEEE Transactions on Services Computing,2016,9(3):433-445.

[14]Yang H,Lyu M R,King I.Online learning algorithms for big data[J].Communication of the China Computer Federation,2014,10(11):36-40.

[15]Li Zhijie,Li Yuanxiang,Wang Feng,et al.Online learning algorithms for big data analytics:a survey[J].Journal of Computer Research and Development,2015,52(8):1707-1721.

[16]Walsh T J,Littman M L,Borgida A.Learning Web-service task descriptions from traces[J].Web Intelligence&Agent Systems,2012,10(4):397-421.

[17]Shalev-Shwartz S.Online learning and online convex optimization[J].Foundations and Trends in Machine Learning,2012,4(2):107-194.

[18]Zheng Zibin,Lyu M R.Personalized reliability prediction of Web services[J].ACM Transactions on Software Engineering and Methodology,2013,22(2):12.

附中文参考文献:

[8]华哲邦,李萌,赵俊峰,等.基于时间序列分析的Web Service QoS预测方法[J].计算机科学与探索,2013,7(3):218-226.

[9]何清,李宁,罗文娟,等.大数据下的机器学习算法综述[J].模式识别与人工智能,2014,27(4):327-336.

[10]孙大为,张广艳,郑纬民.大数据流式计算:关键技术及系统实例[J].软件学报,2014,25(4):839-862.

[14]杨海钦,吕荣聪,金国庆.面向大数据分析的在线学习算法[J].中国计算机协会通讯,2014,10(11):36-40.

[15]李志杰,李元香,王峰,等.面向大数据分析的在线学习算法综述[J].计算机研究与发展,2015,52(8):1707-1721.

Online Learning Approach for Performance Prediction in Large-Scale Service Computing*

SUN Yong1,2+,TAN Wen'an1,3,XIE Na1,JIANG Wenming2

1.College of Computer Science and Technology,Nanjing University of Aeronautics and Astronautics,Nanjing 211106,China
2.Department of Geographic Information Science,Chuzhou University,Chuzhou,Anhui 239000,China
3.College of Computer and Information,Shanghai Polytechnic University,Shanghai 201029,China

2016-08,Accepted 2016-12.

To improve the quality of cloud services,service performance violations need to be proactively prevented instead of recovery triggered by the occurrence of failures.The performance predicting model is a promising tool for evaluating the status of Web services in cloud computing.However,traditional batch machine learning techniques could not satisfy the requirement of real-time predicting in large-scale service-oriented applications.To deal with the challenges,this paper proposes a mini-batch online learning approach to predict the performance of largescale services.Through properly setting the batch parameters,the proposed approach uses a small fixed size of samples to train the prediction model in each iteration.This strategy efficiently reduces the computations per iteration.Furthermore,detailed theoretical analysis is conducted for online learning models and their algorithm convergence.The experimental results indicate that the proposed approach is feasible and effective.

large-scale service computing;online learning;mini-batch online learning;stochastic gradient descent

+Corresponding author:E-mail:syong@nuaa.edu.cn

10.3778/j.issn.1673-9418.1608012

*The National Natural Science Foundation of China under Grant Nos.61672022,61272036(国家自然科学基金);the Key Project of University Natural Science Foundation ofAnhui Province under Grant No.KJ2017A414(安徽省高等学校自然科学基金).

CNKI网络优先出版:2017-01-03,http://www.cnki.net/kcms/detail/11.5602.TP.20170103.1028.004.html

SUN Yong,TAN Wen'an,XIE Na,et al.Online learning approach for performance prediction in large-scale service computing.Journal of Frontiers of Computer Science and Technology,2017,11(12):1922-1930.

A

TP391

SUN Yong was born in 1977.He received the Ph.D.degree in computer science from Nanjing University of Aeronautics and Astronautics in 2016.Now he is a lecturer at Chuzhou University,and the member of CCF.His research interests include cooperative computing,social workflow,software engineering and intelligent information system,etc.

孙勇(1977—),男,湖北咸宁人,2016年于南京航空航天大学获得博士学位,现为滁州学院讲师,CCF会员,主要研究领域为协同计算,社会工作流,软件工程,智能信息系统等。

TAN Wen'an was born in 1965.He received the Ph.D.degree in computer science from Beihang University in 2001.Now he is a professor and Ph.D.supervisor at Nanjing University of Aeronautics and Astronautics,and the member of CCF.His research interests include software engineering,enterprise dynamic modeling,trusted service computation and intelligent information system,etc.

谭文安(1965—),男,湖北荆州人,2001年于北京航空航天大学获得博士学位,现为南京航空航天大学教授、博士生导师,CCF会员,主要研究领域为软件工程,企业动态建模与优化,可信计算,智能信息系统等。

XIE Na was born in 1982.She is a Ph.D.candidate at Nanjing University of Aeronautics and Astronautics.Her research interests include cooperative computing,process mining and service computing,etc.

谢娜(1982—),女,江苏徐州人,南京航空航天大学博士研究生,主要研究领域为协同计算,业务过程挖掘,服务计算等。

JIANG Wenming was born in 1976.He received the Ph.D.degree in geographic information system from Nanjing Normal University in 2010.Now he is a lecturer at Chuzhou University.His research interests include smart city and geographic information retrieval,etc.

蒋文明(1976—),男,江苏常州人,2010年于南京师范大学获得博士学位,现为滁州学院讲师,主要研究领域为智慧城市,地理信息检索等。

猜你喜欢
小批量批量梯度
基于多品种小批量中小型电机数字化冲压车间规划
一个带重启步的改进PRP型谱共轭梯度法
一个改进的WYL型三项共轭梯度法
打破多品种、小批量的行业魔咒——通往高质量发展的智能制造之路
随机加速梯度算法的回归学习收敛速度
批量提交在配置分发中的应用
采用经济数控车床批量车削孔类工件的再实践
多品种小批量智能制造产线关键技术及应用探讨
一个具梯度项的p-Laplace 方程弱解的存在性
在数控车床上批量钻铰孔类工件的实践