人体着装围度松量图像的分类方法

2022-01-06 05:36刘晓音
毛纺科技 2021年12期
关键词:准确度分类器准确率

刘晓音,谢 红

(上海工程技术大学 服装学院,上海 201620)

近年来,服装电子商务迅速崛起,越来越多的人喜欢网上购买服装,远程在线服装定制随之发展[1]。服装定制首先要满足顾客对服装的合体性要求,但目前远程人体测量技术并不能得出准确的人体数据[2],尤其是胸围、臀围和腰围等较难获取的数据[3]。

深度学习方法被逐渐应用到了服装领域,为服装领域中目标分类的问题提供了很大帮助。深度学习是一种深层的机器学习模型,可以通过多层模型实现深层更复杂的关系[4],其只需要通过输入原始数据就可实现有效特征的提取,然后在此基础上,加上一层浅层网络,如Softmax分类器,可以更好地实现目标分类[5]。吴欢等[6]提出了一种基于卷积神经网络 CaffeNet 模型的服装廓形分类方法,结果表明,该方法的分类准确率达到 95%以上。陈双[7]提出基于深度学习的服装图像分类与检索研究,结果表明模型整体具有良好的分类准确率。但是深度学习对数据要求比较高,要保证数据量大而且数据标注也较准确,这就需要花费大量的时间,对于数据集收集较为困难的目标分类,深度学习分类的准确度相对较低。迁移学习是机器学习的一种,不需要太多数据进行训练,所得的目标分类准确度也很高,而且训练花费时间较短,可以解决数据集的问题。白美丽[8]提出基于迁移学习的卷积神经网络服装图像分类,分类准确度达到90%以上。魏玮等[9]提出基于迁移学习的人脸姿态分类方法,该方法最终准确率达98.7%。夏海浜等[10]提出基于迁移学习与支持向量机的服装舒适度评估,结果表明他们有较高的准确率和效率。

目前远程测体技术并不能测出精准的人体尺寸,尤其是大围度。为解决远程测体中胸围精准度的问题,本文采用迁移学习的方法对人体着装围度松量进行分类,通过本模型可得到着装时围度松量,通过该松量即可快速估计人体胸部尺寸。

1 迁移学习

迁移学习是指是将某个领域或任务上学到的知识或模型应用到不同但相关的领域或问题中[11]。当训练一个网络去完成目标分类任务时,发现目标数据很少或者很难获取时,可以采用迁移学习方法对少量数据进行学习,快速将已学习的特征迁移到目标任务中。与从头训练网络相比,通过迁移学习来微调网络的速度相对较快,迁移学习有3种实现方法:样本迁移、特征迁移和参数迁移[12-14]。目前国内外采用迁移学习方法进行目标分类的研究对象的特征都比较明显,所以分类精确度相对较高。厉溢成[15]采用迁移学习的方法对食品图像进行分类,由于食品特征差异较大,所以采用很少的数据目标分类准确度就达到了96.8%。廉小亲等[16]提出基于深度学习和迁移学习的水果图像分类方法,采用Inception-V3模型对水果图像进行特征提取,Softmax分类器对图像特征进行分类,测得分类准确率为97.7%。马俊等[17]提出基于迁移学习的VGG16网络芯片图像分类,采用VGG16模型进行预训练,将Softmax分类器改为logsoft-max分类器,以提高分类准确率,避免出现梯度下滑的现象,最后分类准确度为97%。YUN等[18]提出利用SOH网络的迁移学习方法预测锂电池健康状态,数据集只采用了原数据集的25%,测试结果表明,锂电池健康状态分类结果精确度很高。

从以上的研究可以看出,很多迁移模型都可以用于目标分类,但由于人体着装时围度松量特征差异很小,比较抽象,所以网络学习比较困难。VGG16模型对小目标特征学习效果相对较好,所以选取VGG16模型作为预训练网络。而且其已经基于大量图像数据学习了丰富的特征表示,所以选择参数迁移来完成对人体着装围度不同松量图片数据集的迁移学习,从而完成对人体着装围度松量图像的分类。

2 实验分析

2.1 数据集获取及预处理

本文实验需要男模穿着衬衫的图片,并且还要男模的净体尺寸和穿着衬衫的尺寸,所以数据收集很困难。唯品会网站上着装衬衫的男模图片符合本文实验研究,但是网站上可用图片数量不能满足本文实验要求,因此在实验室环境下拍摄了一部分照片,由于需要获取男模净体数据,涉及隐私,所以志愿者较少,获取的数据也较少,为满足本文实验需求,最后采用数据增强的方法增加数量。本文主要通过以下3种方式获取图片:①在唯品会网站上收集穿着衬衫的男模图片,共收集3 300 张;②在实验室条件下,拍摄穿着衬衫的男生正面图,共拍摄200张;③数据增强,通过随机翻转和亮度变换增加图片数量,共1 000 张,图片预处理效果见图1。

图1 图片预处理

根据“衬衫胸围放量=生理舒适量+内层衣物放松量+造型放松量”原则[19],合体男衬衫放松量一般在11~15 cm,松身男衬衫放松量在15~19 cm,宽松男衬衫放松量在19~23 cm,特别宽松的男衬衫放松量在23 cm以上。为了能够更加准确得出穿着衬衫时的胸围松量,确保胸围平均误差在国家标准范围内,本实验确定胸部松量以2 cm为一档分类,共分为12类。2.1节的3种方法共收集数据4 500张图片,训练集中每个类别300张图片,验证集中每个类别75张图片,为了不受标签影响,分别用字母A~L命名12类文件夹。

2.2 实验方案

本文的实验环境为Window10,PyCharm,Intel Core i7-8750H CPU(2.60 GHz)和16.0 GB RAM,编程语言为 Python3.6。

采用基于迁移学习的方法对VGG16模型进行微调,在VGG16源模型基础上对目标数据集进行训练,本文选择参数迁移来完成胸部松量分类的任务,根据VGG16网络模型结构,选择分类器、学习率、迭代次数和批量大小这4个可能对模型造成影响的参数进行修正,VGG16网络模型见图2。

图2 VGG16网络模型

2.2.1 替换最后的全连接层

全连接层(分类器)的任务就是分类,预训练网络的卷积层会提取最后一个学习层和全连接层对输入图像进行特征提取并分类,对预训练网络模型进行重新训练以及对新图像进行分类,本文要将全连接层替换为有12个分类的连接层,输出数量等于新数据集中12个类别的数量。常用的分类器有Softmax分类器和SVM分类器[20],Softmax分类器通过把多个神经元的输出,映射到(0,1)区间内,从而完成多分类的任务[21]。Softmax分类器的原理图见图3,由图示出通过Softmax分类器就能得到不同条件下的概率,即可得出所需要的不同类别,本文共12个类别,结果就是输出所需的12个类别。SVM分类器与Softmax分类器在实际应用中效果相当,区别就是SVM分类器中结果的绝对值大小没有特别明显的意义,而Softmax分类器中结果的绝对值大小表征属于该类别的概率。由于本文需要对差别较小的人体着装胸部松量图像进行分类,所以Softmax分类器更适合本文的模型,后续可以针对Softmax分类器中绝对值来区分本文的12个类别概率大小,对概率较小的类别进行相应的微调,以达到更好的分类效果。

图3 Softmax分类器的原理图

2.2.2 学习率

本文除全连接层和输出层的参数以外,VGG16模型的参数全部保留,目的是降低前面的学习率,减缓在迁移层中的速度,更好地学习所有特征。替换层为全连接层,本文将其学习率增大,以加快训练速度。所以本文将VGG16模型参数被保留的层学习率设置为0,从而冻结他们的权重,即把VGG16模型的权重当作预训练参数,加快了整个网络的训练速度,同时也防止了过拟合的现象发生。

2.2.3 训练周期

本文实验是学习人体穿着衬衫时胸部的松量的特征,相对比较抽象,网络中学习比较困难,所以设置的周期相对较长。根据实验经验设置周期,首先选择周期为100,训练结束后,模型损失率一直在下降,表明周期还不够,需要增加训练周期,所以设置周期为200,到191次时损失率不再变化,则停止迭代。

2.2.4 批量大小

批量指的是一次读取的图片的数量,其是根据电脑性能以及数据集的大小决定的,批量太小就会出现不收敛的问题,批量太大,需要占用大量计算机资源。根据实验经验首先设置batch为16,根据几轮实验花费时间和模型精确度,发现batch为16时,耗费时间较长,精准度提高很慢,所以将批量大小设置为32,很明显实验花费时间相比batch为16时要短,batch为64时,占用了计算机太大的计算资源,因此最终确定batch为32。

2.3 实验流程

首先根据实验经验确定模型初始参数,然后开始对模型训练,每次训练结束会有相应的准确度,每次对参数进行微调,经过几轮测试后,选择模型准确度最高的参数为本模型的参数。本模型通过移除顶层的3个全连接层,添加自定义的全连接层对着装下人体胸部松量图像数据集进行分类。实验流程图见图4,由图示出共包含3个部分:数据获取及预处理、迁移学习和胸部松量分类。本模型由预训练网络和自定义网络组成。

图4 实验流程图

3 实验对比与结果分析

本文基于迁移学习的方法对着装下人体胸部松量图片进行分类,构建数据集,并基于预训练VGG16模型网络与自定义的网络构建一个新的网络模型。本节将迁移InceptionV3模型与本模型进行对比,对模型微调后进行训练,记录VGG16模型和inceptionV3模型在微调时最佳的训练结果,证明本文模型的有效性。2个模型的实验数据集和参数设置相同,周期为100,批量大小为16,从表1可以看出原模型中VGG16模型准确度高出InceptionV3模型0.088。为进一步提高模型准确度,周期设置为200,批量大小为32,原模型与改进后模型结果对比分析见表1,由表示出改进后的模型中看出本文模型准确度高于迁移InceptionV3模型0.159。本文模型在迭代到191次时,损失率不再变化,但InceptionV3模型损失率还在下降,通过不断实验,最后设置其周期为5 000,批量大小为100,模型准确率为81.5%,迁移InceptionV3模型准确率见图5,由图示出与本文迁移VGG16模型相比准确度低0.006。迁移VGG16模型对胸部松量图像的分类准确率见表2,由表示出微调后的迁移VGG16模型分类效果更好,每类准确率都在80%以上,平均准确率为82.1%,可见迭代次数和批次大小对目标特征的提取有很大的影响。综上所述,本文模型相对准确度更高。

表1 原模型与改进后模型结果对比

图5 迁移InceptionV3模型准确率(Step=5 000,Bath size=100)

表2 迁移VGG16模型对胸部松量图像的分类准确率

4 结束语

本文通过对VGG16模型进行预训练,然后加上自定义网络模型的方法,构成一个新的适合人体着装胸部松量图像分类的模型,对人体着装围度松量进行研究。对VGG16模型进行微调后,得出VGG16模型与迁移InceptionV3模型网络相比,分类准确度更高,可以更好地识别出人体着装围度松量差别较小的松量图片,完成对着装下人体胸部松量图像的分类,基于此可快速估计人体胸围尺寸,更好地实现远程人体定制服务。本文方法模型同样适用于腰部和臀部的松量图像分类,并快速得出人体腰围和臀围尺寸。

猜你喜欢
准确度分类器准确率
影响重力式自动装料衡器准确度的因素分析
学贯中西(6):阐述ML分类器的工作流程
乳腺超声检查诊断乳腺肿瘤的特异度及准确率分析
不同序列磁共振成像诊断脊柱损伤的临床准确率比较探讨
2015—2017 年宁夏各天气预报参考产品质量检验分析
基于朴素Bayes组合的简易集成分类器①
颈椎病患者使用X线平片和CT影像诊断的临床准确率比照观察
一种自适应子融合集成多分类器方法
论提高装备故障预测准确度的方法途径
Word中“邮件合并”功能及应用