基于灰狼算法优化极限学习机的锂离子电池SOC估计

2021-03-19 06:21李嘉波徐信芯
储能科学与技术 2021年2期
关键词:学习机灰狼猎物

王 桥,魏 孟,叶 敏,李嘉波,徐信芯

(长安大学工程机械学院公路养护装备国家工程实验室,陕西 西安710064)

随着全球化石能源的枯竭,新能源技术受到了越来越多的关注,电动车辆被认为是未来车辆的趋势。锂离子电池作为电动车辆的核心“三电系统”之一,具有能量密度高、无记忆效应、循环寿命长、自放电率低等优点[1]。在现有的电动车辆技术中,可靠的电池管理系统(battery management system,BMS)仍然是一个设计难题。SOC(state of charge)作为BMS的基本组成之一,反映了可用容量与标准容量的比率,是有效管理电池能量利用和防止电池过度充电的前提[2]。动力电池内部复杂的化学反应导致其建模困难,同时由于车辆行驶过程中的紧急制动、温度突变以及外界干扰,使得电池的实际采集数据表现强耦合非线性特征,导致精确的SOC估计十分困难。因此,精确的SOC估计具有重要的意义。

目前,锂离子电池SOC 估计方法主要分为4类:安时积分法、开路电压法、物理模型法和数据驱动法[3]。安时积分法是迄今为止SOC估计中使用最广泛的方法,它简单集成了电池运行期间的充放电电流,其精度主要依赖于精确的电流测量,然而,在电流测量时存在由SOC 估计漂移产生的噪声误差,并会产生误差累计效应[3]。开路电压法简单、成本低、实时性好,但准确测量开路电压需要很长时间,因此一般在实验室条件下应用[4]。物理模型法主要包括一系列卡尔曼滤波的衍生方法,卡尔曼滤波法是一种最优化的数据处理算法,其衍生算法包括扩展卡尔曼滤波、无迹卡尔曼滤波、自适应卡尔曼滤波和粒子滤波等。卡尔曼滤波法的精度依赖于精确有效的电池模型,但精确的电池模型很难获得[5-9]。数据驱动法是基于机器学习策略的SOC 估计方法,包括神经网络法(NN)、深度学习法(DL)、支持向量机和模糊逻辑法。其中,神经网络法应用最为广泛,这种方法无需了解电池内部结构,可以直接基于大量的训练数据对电池进行建模[10]。目前,常见的机器学习法包括径向基神经网络(RBFNN)和前馈神经网络(BPNN),由于结构简单,避免了复杂的等效电路模型而得到了广泛的应用,但前馈神经网络采用梯度下降的方法,存在训练速度慢,容易陷入局部极小点,无法达到全局最小等缺点,且这些方法的参数选择通常采用试错法或二分法,效率低下,浪费了大量的时间和人力[11-14]。随着机器学习方法的进一步发展,极限学习机(ELM)可以解决电池系统难建模、训练速度慢的问题,ELM在训练过程中随机产生输入层与隐含层间的连接权值及隐含层神经元的阈值,与传统的训练方法相比,具有训练速度快、泛化性能较好等特点[15]。但ELM需要确定最优神经元参数才能达到最优估计效果[16]。因此,提出了一种基于灰狼算法(gray wolf optimizer,GWO)优化极限学习机的SOC 估计方法,通过选择合适的激活函数、训练算法和最优化隐含层神经元数量,实现了精确的SOC 估计。SOC 估计过程收敛速度快、估计精度高且鲁棒性能好。

1 极限学习机

极限学习机适用于复杂非线性系统的输出预测问题,具有学习速度快、泛化性能好、可扩展性好、计算复杂度低等优势。极限学习机采用三层结构,由输入层、隐含层和输出层组成,运行过程中随机产生输入层与隐含层之间的连接权值及隐含层神经元的阈值。其结构如图1所示,运行步骤如下。

图1 单隐含层ELM模型结构Fig.1 Single layer ELM model structure

首先,随机分配参数。设隐含层与输入层和输出层的连接权值分别为ωi=[ωi1ωi2…ωin]T和βi=[βi1βi2…βin]T,设隐含层神经元的阈值b=[b1,b2,…,bi]T。其中,i表示隐含层神经元的数量。

设具有Q个样本的训练集输入矩阵X和Y分别为X=[Xi1Xi2… XiQ]T、Y=[Yi1Yi2… YiQ]T。设隐含层神经元的激活函数为f(x),则根据ELM模型结构图可得,网络的输出T为T=[t1,t2,…,tQ]m×Q,其中

式中,ωj=[ωj1,ωj2,…,ωjm],xj=[x1j, x2j,…, xnj]T。式(1)可表示为

式中,T'为矩阵T 的转置,H 为神经网络的隐含层输出矩阵,具体形式如下

2 灰狼优化算法

灰狼优化算法是受大灰狼捕食策略的启发,于2014 年提出的一种元启发式算法,主要模拟了搜索猎物、包围猎物和攻击猎物[17]。

灰狼算法根据实际中灰狼种群的社会等级制,将解分为四类,分别是:最优解α,第二优解β,第三优解δ 和剩余其他解ω。在灰狼优化算法中,通过α、β和δ来优化,ω作为辅助参数。灰狼在捕食时会将猎物包围,这种行为使用下式来表达

式中,t 表示当前迭代次数;A 和C 为系数向量;Xp(t)是猎物的位置向量;X是灰狼的位置向量。其中A和C的计算如下

式中,a 的各个分量在迭代过程中线性地从2减少到0,r1和r2为[0,1]之间的随机向量。灰狼包围猎物之后,会开始狩猎。根据当前获得的范围,确定3个优解,并迫使其他搜索代理根据最佳搜索代理的位置更新其位置。对此,提出以下公式

根据α、β 和δ 的位置,对代理位置进行更新,如图2所示。

图2 灰狼算法中位置更新Fig.2 Location update diagram of gray wolf optimizer

为了对接近猎物进行数学变换,需要不断地降低a 的值,A 的波动范围也会随之降低。当A∈[-1,1]时,搜索代理的下一个位置可以是当前代理位置和猎物位置之间的任意位置。当|A|>1时,灰狼离开猎物,寻找更合适的猎物,C的取值范围为[0,2],为猎物提供的随机权重,利于算法探索和避免局部最优。灰狼优化算法的流程图如图3所示。

3 建模方法

首先从建立实验平台开始,随后收集数据。20 ℃时,在EVT500-500 仪器测试系统、Fluke 数据记录仪、恒温箱、上位机及相关设备下进行数据采集。在恒流恒压充放电循环(constant current &constant voltage,CCCV)工况下,数据采集采用单个18650 锂离子电池,在动态应力测试(dynamic stress test,DST)工况下采用12节18650锂离子电池串联组成的电池包,如图4、图5所示。

图3 灰狼算法流程Fig.3 Flow chart of grey wolf algorithm

选取4500 组数据作为模型训练样本,500 组用于模型测试。在模型训练之前,先对训练数据进行归一化处理。基于灰狼算法的极限学习机用于SOC的估计流程如6所示,主要分为3个阶段。阶段1进行了原始数据的采集工作并对其进行了归一化处理;阶段2 确定了优化基准,并实现了优化;第3阶段通过不同工况的测试数据对模型进行了验证,并通过与其他方法的对比证明了所提方法的优越性。

为了评价优化模型的估计性能,采用了均方根误差(RMSE)、平均绝对误差(MAE),其计算公式如下

图4 CCCV工况下的数据采集Fig.4 Data collection under CCCV conditions

图5 DST工况下的数据采集Fig.5 Data collection under DST conditions

图6 基于灰狼算法优化极限学习机用于SOC的估计流程Fig.6 Flowchart of extreme learning machine based on gray wolf algorithm used in SOC estimation

式中,Ie为SOC 估计值;Ia为SOC 实际值;n为测试次数。

4 结果和讨论

4.1 最优参数

利用灰狼算法,选择30个种群规模,200次迭代来实现神经元数量的优化。如图7所示,神经元数量小于25 时,误差较大且波动较大,神经元数量大于50 之后,误差曲线波动平缓且误差较小。基于灰狼算法优化极限学习机在SOC 估计中获得了较好的结果,得到的RMSE误差较小,证明了其优越性。

图7 CCCV与DST工况下的模型参数优化曲线Fig.7 Model parameter optimization curves under CCCV and DST conditions

4.2 基于最优参数的SOC估计结果

分别在CCCV 与DST 工况下,选取4500 组数据作为模型训练样本,500组用于模型测试。基于灰狼算法的极限学习机对SOC 进行估计,估计曲线和误差曲线如图8、图9所示。在CCCV工况下,RMSE 为1.49%,MAE 为1.06%,运行时间为4.054 s;在DST 工况下,RMSE 为1.14%,MAE为0.79%,运行时间为4.064 s,见表1。

4.3 ELM-GWO与现有方法对比分析

通过与常用方法BPNN-PSO 与ELM 分别从RMSE、MAE 和运行时间三个维度进行比较分析,进一步说明了所提方法的快速性与准确性。由于采集的锂离子实际数据存在非线性、不稳定性和外界干扰,实际的SOC 曲线并不是一条直线,而是存在斜率不断变化的一条曲线。当曲线斜率发生较大变化时,BPNN-PSO 与ELM 的SOC 估计误差较大。与传统的BPNN-PSO 和ELM 相比,ELMGWO 的估计精度高、鲁棒性好且训练时间较短,具有较好的实用价值。结果如图10~图13所示。

图8 CCCV工况下的SOC估计Fig.8 SOC estimation under CCCV condition

表1 ELM-GWO的误差结果Table 1 Prediction performance of ELM-GWO

图9 DST工况下的SOC估计Fig.9 SOC estimation under DST condition

图10 CCCV工况下的SOC估计结果Fig.10 Result of SOC estimation under CCCV condition

图11 CCCV工况下的SOC估计误差Fig.11 Error of SOC estimation under CCCV condition

为了进一步验证算法的有效性,分别对ELMGWO、BPNN-PSO和ELM进行了比较。由表2可知,在CCCV 工况下,ELM-GWO、BPNN-PSO和ELM 的RMSE 分别为1.49%、2.41%与4.74%,MAE分别是1.06%、1.44%与3.69%,运行时间分别为4.054 s、183.570 s 与0.584 s;在DST 工况下,ELM-GWO、BPNN-PSO 和ELM 的RMSE 分别 为1.14%、 2.48% 与2.14%, MAE 分 别 为0.79%、1.64%与1.36%,运行时间分别为4.064 s、165.138 s 与0.141 s。所提方法在CCCV 工况下,运行时间较BPNN-PSO减少179.524 s,RMSE较BPNN-PSO、ELM分别提高了0.92%、3.25%;在DST 工况下,运行时间较BPNN-PSO 减少了161.074 s,RMSE 较BPNN-PSO、ELM 分别提高了1.34%、1%。

图12 DST工况下的SOC估计结果Fig.12 Result of SOC estimation under DST condition

图13 DST工况下的SOC估计误差Fig.13 error of SOC estimation under DST condition

表2 各算法的估计性能对比Table.2 Comparison of estimated performance of each algorithm

5 结 论

本文提出了一种灰狼算法优化的极限学习机模型用来提高SOC 估计性能的方法。利用灰狼算法对神经网络的输入参数进行了优化,并选择了合适的激活函数,然后在不同工况下对所提方法进行了测试验证,RMSE和MAE的最大误差分别在1.5%和1.1%以下,且运行时间在4 s 左右波动。最后,将ELM-GWO 与BPNN-PSO 和ELM 的预测结果进行了对比,可以看出所提方法精度高、鲁棒性好且运行时间较短。

猜你喜欢
学习机灰狼猎物
蟒蛇为什么不会被猎物噎死
灰狼和山羊
可怕的杀手角鼻龙
谷谷鸡和小灰狼
极限学习机综述
灰狼的大大喷嚏
基于极限学习机参数迁移的域适应算法
分层极限学习机在滚动轴承故障诊断中的应用
灰狼照相
霸王龙的第一只大型猎物