基于显著图加权视觉语言模型的图像分类方法

2015-02-20 08:15王挺进赵永威李弼程
计算机工程 2015年3期
关键词:语义权重单词

王挺进,赵永威,李弼程

(信息工程大学信息系统工程学院,郑州450002)

基于显著图加权视觉语言模型的图像分类方法

王挺进,赵永威,李弼程

(信息工程大学信息系统工程学院,郑州450002)

传统基于视觉语言模型(VLM)的图像分类方法在参数估计阶段,通常采用最大似然估计的方式统计视觉单词的分布,忽略了图像背景噪声对该模型参数估计的影响。为此,提出一种新的图像分类方法。利用基于视觉注意的显著性检测算法提取图像中的显著区域和背景区域,构建的图像带有显著图标识的视觉文档,训练视觉单词的显著度权重和条件概率,并使用显著图加权视觉语言模型进行图像分类。实验结果表明,与传统VLM等方法相比,该方法能有效克服图像背景噪声的影响,增强视觉单词的区分性,提高分类准确率。

图像信息;视觉语言模型;图像分类;背景区域;显著图

1 概述

随着计算机和网络技术的快速发展,图像信息呈爆炸式增长。面对大规模的图像数据,如何利用计算机进行高效、有序的组织并进行图像的分类和检索,已然成为当前计算机视觉领域的研究热点和难点之一。而图像分类结果的好坏直接影响着后续的高层次处理结果,比如物体定位和行为检测等。

传统的图像分类方法通常对图像进行整体描述,提取颜色、边缘、纹理等全局特征构成图像直方图进行表示。近年来,由于“词袋模型”在文本处理领域取得了巨大的成功,其思想被研究者们移植到计算机视觉领域,将图像表示成一系列视觉关键词的直方图。但是传统的“词袋模型”忽略了视觉单词之间的联系,为了获得更好的性能,研究者们开始对“词袋模型”进行改进:在特征提取方面,文献[1]提出一种改进的尺度不变特征变换(Scale Invariant Feature Transform, SIFT)特征用来构建视觉词袋进行图像分类,极大降低了特征维数和计算复杂度;在视觉词典生成方面,文献[2]提出一种基于上下文语义信息的图像块视觉

单词生成方法,在一定程度上提高了视觉单词的区分性;文献[3]提出一种基于随机化视觉词典组的方法,降低了视觉单词的同义性和歧义性,增强了目标的区分性;在语义表达方面,文献[4]提出了一种多方向上下文特征结合空间金字塔模型的场景分类,该方法将图像块在特征域的相似性同空间域的上下文关系有机地结合起来并加以类别区分;文献[5]提出一种基于视觉词组包模型的图像分类方法,将图像的局部特征聚成视觉词组,再通过词袋模型进行分类,取得了不错的效果;文献[6]提出一种随机化的视觉词组物体搜索方法,提高了复杂背景条件下的区分性。为了克服底层视觉特征与高层语义之间的语义鸿沟,还有的学者用概率潜在语义分析(Probabilistic Latent Semantic Analysis,PLSA)模型和潜在狄利克雷分配(Latent Dirichlet Allocation,LDA)模型等主题分析模型来找出图像最可能属于的主题或者潜在语义,从而完成图像分类。

然而,上述改进方法忽略了图像特征之间的分布规律,图像集合类内和类间的统计信息也无法获得。鉴于此,越来越多的人开始从概率统计的角度进行研究。比较有代表性的是文献[7]提出的视觉语言模型(Visual Language Model,VLM),该方法借鉴文本处理领域统计语言模型的思想,将其移植到计算机视觉领域,认为图像和文本类似,也是由某种视觉单元按照一定的视觉语法排列而成。文献[8]在视觉语言模型的基础上提出了尺度不变视觉语言模型,解决了图像分类过程中尺度匹配问题;同年,文献[9]将视觉语言模型用于场景识别,取得了比较好的结果;文献[10]在将视觉语言模型运用到物体姿态和结构估计上,又进一步扩大了该模型的运用范围;文献[11]在专利中进一步完善并详细的描述了视觉语言模型的整个训练和分类过程;文献[12]给出一种基于视觉语言模型的图像语义挖掘方法,该方法是在二元视觉语言模型的基础上通过视觉单词的权重进行选择,然后构建图像的视觉语言模型,最后进行图像分类,取得了不错的效果。由此可见,视觉语言模型在计算机图像处理领域已经逐渐开始发展起来,受到越来越多的研究者的青睐,并成为一个新的研究热点。

然而,传统的视觉语言模型完全借鉴了统计语言模型的方法,将整幅图像划分成同等重要的视觉单词集合,只是对视觉单词排列的视觉语法进行假设,简单地通过视觉单词或视觉单词组合出现的频次进行统计。但是,这样的处理并没有考虑到图像和文本的本质不同,图像的背景复杂多变,不同的物体可以有相同的背景,同一类物体背景往往不是单一的,分布在背景中的视觉单词对图像内容表达的贡献程度比在前景目标上的要小得多。针对上述问题,本文提出一种基于显著图加权视觉语言模型的图像分类方法。利用基于视觉注意的显著性检测技术实现图像前景和背景的划分,将不同区域的同一视觉单词赋予不同的显著度权重,增强视觉单词的区分性。

2 视觉语言模型

视觉语言模型的思想来源于文本处理中的统计语言模型,是一种通过统计视觉单词间的概率分布,以达到分析图像块之间空间相关信息的模型。文本处理中的最小单位是具有特定含义的单词,而图像中最小的单位为像素,无法表达具体的内容,因此,通常采用具有多个像素的图像块来进行描述。

给定一幅图像I,首先把图像分成m×n个大小相等、互不遮挡的图像块,每一个图像块都根据它的视觉特征用一个视觉单词表达。这样,图像I就可以表达成一个视觉文档I={w00,w01,…,wmn},其中,wij表示图像中第i行、第j列的视觉单词。然后,每一幅图像就可以利用文本处理领域中的概率分布估计方法获得图像块语义之间的相互依赖关系。比较常用的是一元视觉语言模型和二元视觉语言模型,其中,一元视觉语言模型假设图像中的视觉单词都是独立的,二元视觉语言模型假设图像中的视觉单词都是两两相关的,即每一个视觉单词只依赖于它的左最近邻,其条件概率估计方法如下:

其中,Ck表示图像集中的第k个类别;count(wij|Ck)表示在图像类别Ck中视觉单词wij出现的次数;count(wij,wi,j-1|Ck)表示在图像类别Ck中相邻视觉单词对(wij,wi,j-1)出现的次数。

然而,由于条件概率的计算方法采用了极大似然估计,可能会出现零概率的现象,即数据的稀疏性问题,因此训练过程中通常需要采用相应的平滑算法对统计结果进行平滑避免零概率事件的出现。

最后,每一个待分类图像按照训练过程一样将其转换成一个视觉文档表示,按照图像视觉单词和类别间的联合概率来估计待分类图像的类别。根据贝叶斯公式有:

其中,C∗为图像最终所属的类别。

3 显著图加权视觉语言模型

由于光照、尺度、物体遮挡以及复杂背景等各种因素的影响,使得图像分类一直是一个非常具有挑战性的难题。传统视觉语言模型通过分块的方法将图像转换成视觉文档,利用文档处理领域中统计语言模型的方法分析视觉单词间的空间位置信息。然而,文本中每一个单词都具有特定的含义,对于图像分类而言,同一个视觉单词可能在背景区域,也可能在前景区域,使得映射到同一个视觉单词上的图像块可能对图像语义的表达具有不同的重要性。而通常情况下人们只关心图像中最为显著的目标,通过分析该目标的内容进行类别判定,背景区域中的视觉单词属于类别判定依据的辅助信息,不当的利用该信息甚至可能会影响分类结果的准确率。为了克服图像背景噪声的影响,文献[13]利用图像背景噪声的随机性,通过EMD(Earth Mover Distance)[14]来计算图像局部特征和图像之间的相关性程度,并赋予一定的权重,然后滤除掉设定的权重阈值以下的局部特征,以达到降低图像背景噪声影响的目的,并取得了不错的效果。文献[15]指出了图像背景中的视觉词组(Visual Phrases,VP)对图像内容的识别具有负面影响,利用标注信息将背景中的视觉词组直接去除。文献[16]分析了同一类物体可能出现在不同的位置和不同的背景当中,复杂多变的背景信息会干扰图像相似度的计算,降低图像分类准确率。

因此,图像背景和前景中的视觉单词对于图像的描述应该具有不同的贡献程度,前景目标中的视觉单词应该被优先考虑,并且适当提高它的权重。图1为2幅不同类别,且视觉单词分布的区域也不相同的图像,但2幅图中的每一个视觉单词却具有相同的频次。其中,实心小矩形、三角和圆圈代表不同区域的特征;中间的空心圆形区域代表前景目标;其他区域代表背景。以一元视觉语言模型为例,传统视觉语言模型按式(1)会估计出圆点代表的视觉单词在2幅图像中的条件概率相同。然而,可以看出圆点代表的视觉单词在图1(a)中比在图1(b)中更能表达该类图像的语义,应该具有更高的权重。

图1 频次相同但显著位置不同的图像示例

综上所述,为了有效降低图像背景噪声的影响,提高视觉语言模型参数估计的准确性和视觉单词的区分性,进而提高该模型的语义表达能力和图像分类准确率,本文提出一种显著图加权视觉语言模型的图像分类方法,实现流程如图2所示,其中,虚框表示参数训练过程。该方法首先采用基于视觉注意的显著性检测算法提取图像中受人眼关注的显著区域,然后根据图像区域显著度的不同,赋予视觉单词一定的权重,并对视觉语言模型估计的参数进行加权处理。

图2 显著图加权视觉语言模型的图像分类实现流程

3.1 显著区域的提取

图像显著度表示的是图像特征的显著程度。基于视觉注意的显著性检测对于图像内容的表达和分析过程有着非常重要的意义,它能够模仿人类所具有的感知选择能力判断图像中哪些区域对于人眼来说是显著的,检测完以后用灰度进行量化,最终可以得到显著图,利用显著图不同的显著程度能够提高现有图像处理的分析能力。如2012年,文献[17]利用显著图提取和层次时间记忆(Hierarchical Temporal Memory,HTM)用来进行物体识别和分类,2013年,文献[18]提出一种显著性引导视觉匹配的近似重复图像检索,在词袋模型的基础上提高

了平均准确率。

1998年提出的Itti算法文献[19]是一种经典的显著性检测算法,大致分为高斯滤波、计算底层空间特征图和计算显著图3个阶段。而本文采用的基于图论的视觉显著(Graph Based Visual Saliency, GBVS)算法[20]是在Itti算法的基础上引入了图论的知识把图像转换为有向完全图,并用马尔科夫链生成显著图,提取的显著区域比Itti算法更加准确。GBVS算法的特征提取阶段和Itti算法类似,都是利用颜色、亮度、方向3个特征生成多个尺度的特征图,GBVS算法的显著图生成阶段按如下步骤进行:

(1)定义2个特征图M:[n]2→R,特征图中节点的距离定义如下:

(2)将特征图M中的所有节点两两相连得到有向完全图G,并且节点M(i,j)到节点M(p,q)所在的边按下式赋予一定的权重:

(3)将从同一个节点出发的边的权重归一化到区间[0,1]。在图G上定义马尔科夫链,从节点两两对比中得到显著值,并对显著值归一化后得到最终的显著图SM[21]。有了显著图SM以后,对原图像提取显著区域:

其中,SMp表示显著图SM中的第p百分位数(将一组n的观测值按数值大小进行排列,处于第p%位置的数值称为第p百分位数);R表示提取的显著区域。百分位数p的值越大,提取的显著区域越小,当p的值为0时,提取的显著区域就为整幅图像。图3是当p=75时,GBVS算法和Itti算法提取的显著区域结果对比。

图3 GBVS算法和Itti算法显著区域提取结果对比

3.2 显著图加权视觉语言模型的构建

对于图像库中的每一幅图像I,首先,根据视觉语言模型的假设,将其分成m×n个大小相等、互不遮挡的图像块,对每一个图像块按照文献[8]方法提取8维的纹理直方图特征,该特征不仅对旋转具有很好的鲁棒性,而且相比SIFT特征、RGB和HSV颜色特征而言维度更低,计算更为方便;再将所有的特征通过k-means聚类,生成视觉词典V;然后,将图像中每一个图像块对应的特征向量映射到视觉词典中具体的视觉单词上,这样,图像I就可以按式(1)表示成一个视觉文档;最后,将处在图像中不同区域的视觉单词进行显著度标识。不失一般性,每一个视觉文档可以表示成m×n个带有显著图标识的视觉单词的集合,即:

其中,wi对应视觉词典V中的视觉单词;yi表示该视觉单词所处的区域,y=1表示该视觉单词处在显著区域,y=-1表示该视觉单词处在背景区域。然后每一个视觉单词的条件概率根据所处的区域加上不同的显著度权重,其参数估计和显著度权重计算表达式如下:

此外,本文还考虑到另外2种情况:(1)当视觉单词wi的显著权重αi,k为1的时候,非显著权重βi,k就为0(或者非显著权重βi,k为1的时候,显著权重αi,k就为0),就会使得式(11)(或者式(12))中的乘积为0。为了避免这种情况的出现,本文也对显著度权重进行简单的平滑处理;(2)当视觉单词wi没有出现在类别Ck中时候,显著度权重就没法通过式(13)~式(15)获得。因此,本文假设这样的视觉单词在类别Ck中显著权重和非显著权重是相等的,都取值为0.5,在没

有先验知识或者训练数据不够充分的情况下这样的假设也是合理的。

4 显著图加权视觉语言模型的分类决策

对于一幅待分类图像,按照训练过程将其生成对应带有显著图标识的视觉文档,然后按照贝叶斯公式计算该图像属于各个类别的概率,以最大值所属类别判为该图像的最终分类结果。对应一元视觉语言模型和二元视觉语言模型的分类计算方法分别为:

其中,ωwi,k表示第k个类别中第i个视觉单词wi的显著度权重,处于显著区域时取值为显著权重αi,k,处于背景区域时取值为非显著权重βi,k。特别要说明的是,当图像的所有区域都定义为显著区域时,即默认所有的视觉单词都是显著的,这样每一个视觉单词的显著权重都为1,非显著权重都为0,则本文方法退化为传统的视觉语言模型,所以,可以说传统视觉语言模型是本文方法的一个特例。

5 实验结果和分析

本文实验数据采用构建的Callech-101图像库[22],共包含了101个物品分类共8 677幅图像。这里从图像库中选取6个类别进行实验,分别为飞机、汽车、人脸、钢琴、蝴蝶和消防车共6个类别,每一个类别的图像的数量在90~800不等,且每一个类别的图像都具有较大的类内差异和复杂的背景信息,更能验证本文改进方法的性能。图4给出了每一类图像的示例。

图4 6类实验图像示例

为了获取可靠的实验结果,将所选择的图像类别随机分为训练集和测试集2个部分,每一类的图像随机选择80幅图像进行实验,其中,50幅图像作为训练集,30幅图像作为测试集。此外,为了方便图像进行多种分块处理,将所有图像大小均统一重置成200×200像素。最后重复进行10次独立实验,并将所有类别的平均准确率(Mean Average Precision,MAP)作为最终的性能评价指标,其定义如下:

本文分析不同视觉词典大小对视觉语言模型分类结果的影响。分别采用4种不同的视觉单词数目,包括{50,100,200,300},图像的分块数量为20× 20块,其分类性能的比较情况如图5所示。

图5 不同词典大小对分类结果的影响

实验结果表明,选取合适的词典大小的确对分类性能有一定的影响:一方面,视觉单词数目太少时,不能有效地表达图像内容的复杂性,且容易造成同一视觉单词表示不同图像内容的情况,即视觉单词的歧义性问题;另一方面,增大视觉词典的规模的确能在一定程度上提高分类的性能,但是,当视觉词典规模达到一定程度时对分类效果的提升并不明显,并且随着视觉单词数目的增多,也容易造成视觉单词的同义性问题。此外,视觉语言模型参数估计的复杂度也将随之增大,更容易产生数据的稀疏问题。因此,本文在实验中采用分类性能较高的视觉单词数目200。

本文分析不同的图像分块规则对视觉语言模型分类结果的影响。实验结果如图6所示,其中,分块规则的条件为p=60。由图6可以看出,分块数目也是决定视觉语言模型分类性能的一个重要参数,分块数目较小时造成图像块描述图像比较粗糙,对图像语义的表达带来很多冗余的信息,影响了图像分类的结果,然而分块数目过多也容易造成生成的图

像块太小,描述过于精细对图像语义的表达又不准确。针对不同的图像库选择合适的分块数目能有效增强图像语义的表达能力,提高视觉语言模型的分类准确率。从实验结果可以看出,不同的分块数目条件下本文方法的分类准确率都要优于传统视觉语言模型。

图6 不同分块数目下2种方法的平均准确率对比

本文再分析不同的百分位数对视觉语言模型分类结果的影响。实验结果如图7所示。特别要说明的是当百分位数取值为0时,提取的显著区域为整幅图像,此时,本文方法退化为传统视觉语言模型。在图7的实验结果中,百分位数取值为0时表示取整幅图为显著区域,即传统的视觉语言模型。随着百分位数的增大,提取的显著区域就越小,然而不同图像类别的前景目标在图像中所占的显著比例是不一样的。一方面,提取的显著区域越精准,训练的权重就越可靠,分类的结果越好;另一方面,提取的显著区域太粗糙时,也有可能造成图像语义表达的冗余,降低了视觉语言模型的分类准确率。如百分位数取值为25时,提取的显著区域过大,百分位数取值为90时,提取的显著区域又过小,2种情况的分类结果反而比传统视觉语言模型要低。但是由图7的实验结果已经充分说明了在合适的百分位数条件下(如p取值为60时)本文提出的显著图加权视觉语言模型可以通过挖掘图像中视觉单词的显著性程度,有效地提高视觉单词的语义区分性,改善了视觉语言模型的分类性能。

图7 不同p下2种方法的平均准确率对比

将显著图加权视觉语言模型的图像分类和传统视觉语言模型的图像分类方法以及文献[10,14]中的视觉语言模型改进方法的实验结果做了对比,如表1所示。文献[10]方法采用多尺度视觉语言模型解决了分类目标的尺度匹配问题,文献[14]方法则利用视觉单词的频次和图像频数对视觉单词的权重进行了优化,两者从不同的角度在一定程度上弥补了传统视觉语言模型的不足,但在参数估计时仍然忽略了图像背景噪声的影响,在图像背景较为复杂的情况下减弱了参数估计的准确性,降低了图像分类的性能。而本文提出的显著图加权视觉语言模型针对视觉单词所区域的不同,增加了估计参数的显著度权重,有效降低了图像背景噪声的影响。从表1可以看出,本文方法的性能优于其他方法。

表1 4种方法平均准确率比较%

6 结束语

本文提出一种基于显著图加权视觉语言模型的图像分类方法。该方法将基于视觉注意的显著性检测算法与视觉语言模型相结合,采用显著图加权机制挖掘视觉单词的显著性。实验结果表明,该方法具有较好的分类性能,其分类准确率得到提高。然而,本文方法的性能依赖于显著图提取的准确性,提取显著区域的参数需要人为设定,在一定程度上降低了该方法的自适应性,因此,如何准确地分割前景目标和提高其自适应性是今后的研究重点。

[1]Gao Haolin,Dou Linhui,Chen Weijin.Image Classification with Bag-of-Words Model Based on Improved SIFT Algorithm[C]//Proceedings of the 9th Asian Control Conference.[S.l.]:IEEE Press,2013:1-6.

[2]刘硕研,须 德.一种基于上下文语义信息的图像块视觉单词生成算法[J].电子学报,2010,38(5):1156-1161.

[3]赵永威,郭志刚,李弼程,等.基于随机化视觉词典组和上下文语义信息的目标检索方法[J].电子学报, 2012,40(12):2472-2480.

[4]胡正平,涂潇蕾.多方向上下文特征结合空间金字塔模型的场景分类[J].信号处理,2011,27(10): 1536-1542.

[5]张琳波,王春恒,肖柏华,等.基于Bag-of-Phrases的图像表示方法[J].自动化学报,2012,38(1):46-54.

[6]Jiang Yang,Meng Ji,Yuan Jin.Randomized Visual Phrases for Object Search[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.New York,USA:IEEE Press,2012:3100-3107.

[7]Wu Lei,Li Meng,Li Zi,et al.Visual Language Modeling for Image Classification[C]//Proceedings of International WorkshoponWorkshoponMultimediaInformation Retrieval.Pairs,France:IEEE Press,2007:115-124.

[8]Wu Lei,Hu Yong,Li Meng,et al.Scale-invariant Visual Language Modeling for Object Categorization[J].IEEE Transactions on Multimedia,2009,11(2):286-294.

[9]Pham T T,MaisonnasseL,MulhemP,etal.Visual Language Model for Scene Recognition[C]//Proceedings of Singaporean-French Ipal Symposium.New York,USA: ACM Press,2009:76-85.

[10]Narayanaswamy S,BarbuA,SiskindJM.A Visual Language Model for Estimating Object Pose and Structure in a Generative Visual Domain[C]//Proceedings of IEEE International Conference on Robotics and Automation.Landon,UK:IEEE Press,2011:4854-4860.

[11]Li Minjin,MaWuyang.VisualLanguageModeling for Image Classification:USA,US008126274B2[P].2012-02-28.

[12]金 聪,刘金安,金枢炜.基于视觉语言模型的图像语义挖掘研究[J].图书情报工作,2013,57(5): 120-123.

[13]Liu Shi,Bai Xia.Discriminative Features for Image Classification and Retrieval[J].Pattern Recognition Letters,2012,33(6):744-751.

[14]Rubner Y,Tomasi C,Guibas L J.The Earth Mover’s Distance as a Metric for Image Retrieval[J].International Journal of Computer Vision,2000,40(2):99-121.

[15]Chen Tao,Kang Ya,Zhang Deng.Discriminative Soft Bagof-Visual Phrase for Mobile Landmark Recognition[J].IEEE Transactions on Multimedia,2013,16(3):612-622.

[16]Yan Yupeng,Tian Xinmei,Yang Linjun,et al.Semanticspatial Matching for Image Classification[C]//Proceedings of IEEE International Conference on Multimedia and Expo.New York,USA:IEEE Press,2013:1-6.

[17]Kostavelis I,Nalpantidis L,Gasteratos A.Object Recognition Using Saliency Maps and HTM Learning[C]//Proceedings of IEEE International Conference on Imaging Systems and Techniques.Paris,France:IEEE Press,2012:528-532.

[18]Li Lin,Jiang Shan,Zha Zheng,et al.Partial-duplicate Image Retrieval via Saliency-guided Visually Matching[J].IEEE Transactions on Multimedia,2013,20(3):13-23.

[19]Itti L,Koch C,Niebur E.A Model of Saliency-based Visual Attention for Rapid Scene Analysis[J].IEEE TransactionsonPatternAnalysisandMachine Intelligence,1998,20(11):1254-1259.

[20]Harel J,KochC,PeronaP.Graph-basedVisual Saliency[C]//ProceedingsofAdvancesinNeural Information Processing Systems.Washington D.C.,USA: IEEE Press,2006:545-552.

[21]马儒宁,涂小坡,丁军娣,等.视觉显著性凸显目标的评价[J].自动化学报,2012,38(5):870-876.

[22]Li Feifei,Fergus R,Perona P.Learning Generative Visual Models from Few Training Examples:An Incremental Bayesian Approach Tested on 101 Object Categories[J].Computer Vision and Image Understanding,2007,106(1): 59-70.

编辑 刘 冰

Image Classification Method Based on Weighted Visual Language Model for Saliency Map

WANG Tingjin,ZHAO Yongwei,LI Bicheng
(Institute of Information System Engineering,Information Engineering University,Zhengzhou 450002,China)

At the parameter estimation stage of the image classification method based on the traditional Visual Language Model(VLM),the distribution of visual words is usually analysed via maximum likelihood estimation,which ignores the adverse effect of image background noise.In view of the problem,an image classification method of weighted VLM for saliency map is put forward.The salient regions and background regions are extracted via saliency detection algorithm based on visual attention,the visual documents of images with salient labels are constructed,and the salient weights and conditional probability are estimated in the training phase.The images are classified with weighted VLM for saliency map.Experimental results show that,this method can effectively reduce the influence of image background noise,and enhances the discrimination performance of visual words,so as to improve the performance of image classification based on VLM.

image information;Visual Language Model(VLM);image classification;background region;saliency map

王挺进,赵永威,李弼程.基于显著图加权视觉语言模型的图像分类方法[J].计算机工程,2015, 41(3):204-210.

英文引用格式:Wang Tingjin,Zhao Yongwei,Li Bicheng.Image Classification Method Based on Weighted Visual Language Model for Saliency Map[J].Computer Engineering,2015,41(3):204-210.

1000-3428(2015)03-0204-07

:A

:TP391

10.3969/j.issn.1000-3428.2015.03.039

王挺进(1988-),男,硕士研究生,主研方向:图像分析与处理;赵永威,博士研究生;李弼程,教授、博士、博士生导师。

2014-03-21

:2014-04-28E-mail:363078125@qq.com

猜你喜欢
语义权重单词
权重常思“浮名轻”
语言与语义
单词连一连
为党督政勤履职 代民行权重担当
看图填单词
基于公约式权重的截短线性分组码盲识别方法
看完这些单词的翻译,整个人都不好了
“上”与“下”语义的不对称性及其认知阐释
认知范畴模糊与语义模糊
层次分析法权重的计算:基于Lingo的数学模型