首页 / 专利库 / 人工智能 / 计算幽默 / 一种基于视频资料进行群体社交关系挖掘的方法

一种基于视频资料进行群体社交关系挖掘的方法

阅读:50发布:2020-05-14

专利汇可以提供一种基于视频资料进行群体社交关系挖掘的方法专利检索,专利查询,专利分析的服务。并且本 发明 提供一种基于视频资料进行群体社交关系挖掘的方法,其步骤如下:一、对视频中人物图像进行预处理;二、两人之间的相关性计算,绘制社交关系图,挖掘特征子图对应的群体关系;三、群组关系的分析和预测;四、单人的动作表达与所处状态分析;通过以上步骤,本发明从内容更丰富的视频数据素材中挖掘数据,能够解决视频中多人人物复杂关系的实际问题,从而有效地对各种场景中的多人关系进行量化和评价;本发明支持未来对各个实际生活场景的实时分析,可以对多人复杂场景中的人物关系分析提供强有 力 的方法 支撑 。,下面是一种基于视频资料进行群体社交关系挖掘的方法专利的具体信息内容。

1.一种基于视频资料进行群体社交关系挖掘的方法,其特征在于:其步骤如下:
步骤一、对视频中人物图像进行预处理;
发明基于满足以下要求的各个视频素材数据:
(a)脸部信息:满足于人脸检测条件,不能是背影及全程处在检测不到的转动度,时断时续的面部能使用;
(b)时间信息:视频的长短、清晰度及数;其中清晰度满足基本的人脸检测分辨率即可;
首先,对视频中的每一帧进行人脸检测,对得到的正方形脸部轮廓进行扩容,增加头发部分,并分别在两部分中绘制小长方形,其大小和位置均由人脸检测的轮廓大小决定;
其次,对小长方形中的各个像素取平均值,分别得到三种颜色的平均值,作为像素比例模型的参考值cb、cg、cr;用以实现自动给定参考值的效果;其原因是,头部和面部的像素在很多场景中拥有特定的颜色数值比例,三种颜色存在一定的相对稳定的比例关系,能适用于不同场景,并在不同的光线下保持比例关系的稳定;但是比例关系基于参考值cb、cg、cr,而参考值cb、cg、cr在不同环境不同光线中差异性很强;因此,以往在测试中参考值通常要事先测定好,然后进行相同环境下的测试,以实现头发和面部的染色;染色是指把符合比例模型的点染成红色和紫色,分别代表头发和面部;因此,设置小长方形的自动检测机制,以确保在每一帧中,即使光线不同,出现场景变化,也能自动对目标像素进行染色;
第三,我们已经得到头发染成红色,面部染成紫色的人脸;我们对像素数量进行统计,对比每一帧的变化情况,即红色若先增大后减小,并且变化超过一定阙值m,则判定为完成一次基本动作;紫色若先增大后减小,并且变化超过一定阙值m,则判定为完成一次基本动作;
第四,我们为完成一次上述基本动作的人物的Hs参数给定变化值δh;同时增加另两个影响参数Hs的变量,一个是人脸检测框架即dete框的偏移量,用来检测大幅度的脸部位移,如果连续n帧坐标偏移量的变化情况符合给定的规律,并且变化量达到设定的阙值s,则判定人物完成了一次基本动作;另一影响参数Hs的变量是消失的dete框所持续的帧数,用于解决时断时续的人脸检测框带来干扰的问题;我们的解决方案是:m帧以内的框架消失保持其原有延续性,m帧以后若仍然持续消失,则其强度减小,给定Hs参数较小的变化值δh,呈现出递减趋势;
最后,我们将每一帧每个人物的活动系数Hs的总变化量Ar(d)存入二维数组,等待计算时调用;
步骤二、两人之间的相关性计算,绘制社交关系图,挖掘特征子图对应的群体关系;
1.单人的活跃值;
在视频中以每k帧作为一段时间间隔,d表示k帧间隔内的第d帧;
Ar(d)=Σn(δh)
其含义为第d帧中,人物完成了数量n次的基本动作后累计的变化值,δh代表每次完成不同基本动作对应的不同变化值,r为人物编号,d代表第d帧;
y k
Ararv={Σd=1(Ar(d))}/k
其含义为第y段时间间隔内Ar(d)参数的平均值;从d=1开始,到d=k结束,y表示第y段时间间隔;r为人物编号,d代表第d帧;
2.每两人之间的相关性计算;
每两个人物之间做一次相关性计算即Cross Correlation;
Fτy(l,r)={Σd=1(k-t)|(Aly(d)-Alyarv)(Ary(d+τ)-Aryarv)|}/(k-τ)(τ>0)时;
Fτy(l,r)={Σd=1(k+t)|(Aly(d-τ)-Alyarv)(Ary(d)-Aryarv)|}/(k+τ)(τ<0)时;
Fτy(l,r)(τ<0)≡Fτy(r,l)(τ>0)
Fτy(l,r)的含义为第y段时间间隔中,(l,r)两人在时间差为τ时的相关性数值总和的平均值;其中τ的正负用于判断指向性,τ>0和τ<0分别代表两个不同方向的箭头指向;
y y
Fmax(l,r)=max(Fτ(l,r)),(-k<τFmaxy(l,r)表示在第y时间段,时间差τ∈(-k,k)的范围内,不同τ值对应的不同Fτy(l,r)中,筛选出两人相关性数值总和平均值中的最大值,并保留其对应的τ值用于判断箭头指向;
3.绘制社交关系图(简称“社交图”);
y
对群组中所有的两人间的最大相关性系数Fmax (l,r)进行排序,设定选取条件,在符合条件的所有(l,r)两人之间进行画线,绘制成第y段时间间隔的社交图;社交图是群组关系挖掘的基础
4.挖掘特征子图对应的群组;
社交图能拆分为射线顶点、三角形、星型、四边形、五边形特征子图;特征子图介绍如下:
射线顶点结构,即两条射线有相同顶点;对应Tn参数;
三角形结构,即三人之间均有连线,形成三角形;对应Tr参数;
星形结构,即射线顶点结构的拓展,指多条射线交于一点;对应Tn参数;
直线结构,代表两人之间的连线,具有普遍性,出现在各个场景中;直线结构中包括顺势直线连接,指各个人物之间的连线最终只形成一条折线;对应Lt参数;
综合分析各特征子图对应的群组,为群组关系的分析和预测提供准备工作;
步骤三、群组关系的分析和预测;
1.定义相关变量:
我们定义了Te、Tr、Tn、Lt、Ct、Hs、R、Ji、Jt、9个变量用于接下来的计算;其中Ct是矩阵,其他参数均是一维数组,矩阵与数组中的排序号对应视频中各个人物编号l、r;
1)Te参数反映了讲话效率,初始为0,若每次出现星型后的有限帧内出现了不包含本人物的三角形,此时增加人物Te参数的变化量δn;另一种情况是,统计每次出现星型时此人物的外指向箭头数量,并增加相应Te值的变化量δn;
2)Tr参数反映了参与度,初始为0,每次出现三角形时,三角形内的出现人员的Tr值变化δn;
3)Tn参数对应讲话次数,初始为0,每次出现星型时,顶点处人物的Tn值变化δn;
4)Hs参数对应动作的频繁程度和幅度,与讲话次数Tn之间不完全独立;Hs=Σi=1fAr(d);其中f为视频总帧数;根据预处理的每一帧中完成各个基本动作情况进行赋值,若达到标准,则Hs参数增加Ar(d)变化量;
5)参数R=Te/Tn;直观意义是讲话有效的比率;其作用与Te类似但不完全相同;
6)Ji,Jt均为箭头指向性参数,根据每条线段的指向性,将各个人物的Ji、Jt值变化δn;
若箭头为外指向,则Jt参数变化δn,若箭头为内指向,则Ji参数变化δn;需要说明的是,Jt也决定Te参数,当人物满足出现在星型顶点的条件时,Te=Te+Jt(d);其中Jt(d)表示第d帧的Jt值;d代表帧数;
7)Ct和Lt参数反映了群组中两人之间交互作用程度;Lt参数代表两人的连线次数,若出现连线,则数值变化δn;Ct矩阵表示两人的讲话交互程度,其计算方法是提取出连续的星型序列,将序列中前后连续出现的两个人物视为一次交互,存入对应编号的矩阵位置,如(l,r),对矩阵数值进行排序,筛选出群体中交互程度强及弱的人物间关系;
综上,我们能将参数归纳为三个系列,分别用于判断群体交互度、主导性、动作频率和幅度;
2.群组关系挖掘的分析方法;
首先,分析Ji,Jt频率分布,挖掘出群组关系中主导强的人物与偏向被动的人物;其次,通过Tn,Hs频率分布,对各人物讲话次数与出现动作频率进行排序;第三,分析Te,Tr,R频率分布,对各个人物的讲话效力与参与程度进行排序;第四,通过Lt频率分布,对两人关系的强弱进行排序;最后,分析Ct矩阵数据,对人物之间讲话配合程度、交互度进行排序;
3.群组关系挖掘预测;
我们综合上文所有信息对实例中四人场景群组关系即从左至右顺序进行预测:
群体交互方面:1号与2号人物之间有少量谈话,有简单交谈,且效果良好,交互度高,配合程度高;2号人物相比于1号人物,与3号4号人物关系更密切;2号4号人物更可能处于讲话状态,其中2号更活跃,4号次之;3号人物参与度很高,讲话作用效果高,但讲话活跃度小,能推断为讲话内容吸引人,不无聊;另外,3号4号两人间的交互配合也非常良好,说明两人有交流过程,关系及话题上有潜在的默契;
主导性方面:2号4号明显偏高,4号人物最高;4号人物既健谈,讲话效力又高,参与度又好,因此预测主导性较2号更强;2号人物存在一定的矛盾,即既有主导性,有有一被动型;
动作方面:1号2号动作偏多,我们推测3号4号少有头部动作,也能推断1号虽参与度低,但不处于脱离群体状态;
我们尝试用语言还原实测的四人场景:1,2号人物,2,3号人物,3,4号人物之间分别有良好交流过程,存在更密切的交谈;整体四人关系密切,一种是朋友间情绪高昂的聊天场景,从亲密程度来讲,能判定大部分人为朋友关系,高于陌生人关系;另一种是1号2号与其他人是对立关系,但从地位与姿态角度分析,其威望很高,处于谈判场景,及开会场景;
综上所述,预测结果中大部分符合实际情况,真实场景中,1号为母亲,2号是女儿,3号是儿子,4号为父亲;四人处于在医院看望老人,在走廊聊天场景,其中谈话氛围幽默,人物之间的配合也符合前文推断假设;并给出最终显著性画线;
步骤四、单人的动作表达与所处状态分析:
从群组关系分析和预测中,我们能进一步提炼出单人的动作表达与性格特征;
1.单人动作表达;
首先,判断人物是否活跃,头部动作是否较多;其次,分析人物讲话的次数、是否健谈;
第三,判断人物讲话是否效力高,作用效果是否好,是否对他人产生影响,讲话起到作用;最后,判断人物的主导力高低,行为偏主动还是被动;
实例中,1号人物整体处于倾听状态,有少量讲话;2号人物讲话多,在语言和动作方面表现的更为活跃,语气诙谐,内容中肯及进行总结发言,总之能够引人入胜;3号人物也有少量时间参与进谈话,并发表看法,但相对安静,活跃度略低;4号人物讲话时间略少;
2.单人所处状态预测:
4号更是德高望重的人物及长辈,有权威,有力量,1号人物紧随其后,实力强但少于言表;2号3号人物是前两人下属,及威望略低,姿态更低的人物;其中2号更善于活跃气氛,讲话偏多,但不属于无用讲话,在发表观点及调节气氛;另外2号人物较3号人物性格体现更加矛盾的性格,更是个性强,及存在两极分化的内外情绪;
综上,预测结果中大部分符合实际情况;真实场景中,1号为母亲,2号是女儿,3号是儿子,4号为父亲;四人处于在医院看望老人,在走廊聊天场景,其中谈话氛围幽默,人物之间的配合也符合前文推断假设;并给出最终显著性画线;
其中,人脸检测,计算像素平均值,绘制图形,只保留计算所需要的信息;通过以上步骤,本发明从内容更丰富的视频数据素材中挖掘数据,能够对更广泛视频素材进行分析处理,如在朋友聊天、工作讨论、商务谈判不同场景中应用;支持实时计算,能转化为计算机能够识别和处理的数据;在更多维度上进行综合分析,记录群组关系变化,解决关系多变性的问题,得到颗粒化更小,更加深刻的人群交互关系;从而解决视频中多人人物复杂关系的实际问题,有效地对各种场景中的多人关系进行量化和评价;本发明支持未来对各个实际生活场景的实时分析,能对多人复杂场景中的人物关系分析提供强有力的方法支撑

说明书全文

一种基于视频资料进行群体社交关系挖掘的方法

技术领域:

[0001] 本发明提出了一种基于视频资料进行群体社交关系挖掘的方法。涉及到人脸检测,识别,网络结构分析,计算社交关系等,属于数据挖掘领域。背景技术:
[0002] 社会关系挖掘是一个快速发展的领域,是一交叉学科,深深融合了计算机科学与社会科学。一般人与人之间的关系较难通过直接的问卷等社会调查手段得到,需要借助现在的大数据手段,间接的进行社会关系挖掘。社会关系挖掘在科技管理、商务智能、应急管理、反恐防暴等多个方面都有非常广泛的应用。
[0003] “社会关系对于寻找生活中的意义至关重要”。通过建立和保持与他人的联系,个人可以获得各种幸福(Compton,2005;Lee&Robbins,1998)。例如,很多团体成员的身份认同与幸福感有关:包括宗教组织(Diener&Clifton,2002),高中同辈团体(Connolly,White,Stevens和Burnstein,1987),工作/就业(Haughey,1993)和少数群体(Branscombe,Schmitt,&Harvey,1999)。因此,我们的目的正是通过现有数据资源挖掘出更深层次的群体社交关系(Daniel L.Wann,Matthew Brasher,Paula J.Waddill,Sagan Ladd)。
[0004] 目前社会关系挖掘主要有以下方式:传统调查问卷,在线社交网络分析、手机网络、文本数据挖掘、邮件网络数据、旅行信息和轨迹信息等。
[0005] 手机数据通讯方面,已有文献指出(Nathan Eagle,Alex(Sandy)Pentland,and David Lazer,2009):通过手机通话记录,仅仅基于观测数据就可以准确推断95%的朋友关系,其中朋友们在他们的呼叫模式中展现出独特的时间和空间模式。反观结果,这些行为模式也可以预测出个人层面的特性,如对工作的满意度。通过收集通信信息,包括移动电话位置和邻近的数据(包括有关的通话记录、约五米附近的蓝牙设备、手机号码、应用程序使用情况和手机状态等),并将所得的行为社交网络与来自同一组的自我报告关系进行比较,甚至能分析出个体之间的友谊度和满意度等。
[0006] 旅行信息和轨迹方面,以GeoLife为例(Yu Zheng,Xing Xie and Wei-Ying Ma,2010),提供了三个关键的应用场景:1)基于GPS轨迹分享生活体验;2)通用旅游建议,例如,最有趣的地点,在特定地区的地点和旅行专家给出的的旅行顺序;3)个性化的朋友和位置推荐。在定位图中,节点是位置(有两种类型的节点,即用户和位置。),两个位置之间的有向边表示至少一些用户在旅程中连续遍历这两个位置。用户从开始位置到结束位置的边权表示用户已经访问过该位置的次数。进一步地讲,我们可以推断出两个用户已经访问了现实世界中相同位置的次数,进而推断两人的关系。
[0007] 在文本数据方面:随着Web 2.0应用的普及,越来越多的Web用户正在积极地在线发布文本信息(Qiaozhu Mei,Deng Cai,Duo Zhang,ChengXiang Zhai,2008)。这些用户也经常以各种方式形成社交网络,反映在文本信息和网络结构(如社交网络)的同时增长。以博客为例,可以在博客文章中找到广泛的主题和多元化的讨论,以及博主之间快速发展的友谊网络。研究人员定期发表论文,我们不仅能获得文本信息,而且自然也可获得合作作者的网络。例如,经常合作的两位研究人员可能正在研究同一主题,因此很可能在同一研究领域。地理上敏感的事件(例如卡特里娜飓)也可推测出更多信息,例如,居住在相邻地点的博客往往写出类似的话题。
[0008] 在线网络方面经常与上述文本信息的挖掘相结合,例如,通过论坛发言、评论获取更深层次信息等等。包括Email、Twitter、博客、微博、论坛等社交网络系统。举例说明,有文章探讨(Christopher P.Diehl,Jaime Montemayor,Mike Pekala,2009):登山爱好者如何能够使用目前可用的技术来寻找博主和读者之间的联系?我们希望从登山爱好者所关注的博主中,发现一些风格和个性与登山爱好者相似的博主。目前我们仅仅使用信息线索和结构线索来确定相似对象。因此,寻找其他登山爱好者博主的负担,依然在主动搜索者身上,主动搜索者还需要进一步去社交、参与相关活动。因此,文章中设想了一个社交搜索引擎,分析这些数字社会产物,并呈现出描述每个博客之间关系的时间线。这些时间线呈现出了相关关系特别活跃的时间段。审查这些结果,并调整建议的时间段,涵盖主动搜索者所寻求的关系的时间段。社交搜索引擎在博客的语言和交互风格中寻找并区分出不同的社交信号。这些特征信号被用来排序攀登博主,并确定其特定的职位,展现出类似于主动搜索者所期望的交互风格。
[0009] 另一个在线社交网络的例子是安然丑闻事件的调查(Christopher P.Diehl,Jaime Montemayor,Mike Pekala,2009)。电子发现行业已经出现,正处在提供技术支持的过程中。当大公司受到调查审查时,大量的文件,电子邮件和其他数字内容会被检索分析,用来完善法律案件。在美国政府的调查过程中,所涉及的文件也成为了公共记录的一部分。调查中涵盖了大约150个安然电子邮件帐户中大约250,000个不同的电子邮件,并绘制出特征图形进行判断。例如,将邮件的地址作为节点绘制在平面图中,将所有通讯进行连线,绘制以自我为中心的社会关系识别图等等,均涉及到了在线社交网络的数据挖掘。
[0010] 复杂网络与人群社交关系也可应用于应对恐怖主义,包括恐怖主义在内的许多人类集体活动已被证明具有普遍的模式(Juan Camilo Bohorquez,Sean Gourley,Alexander R.Dixon,Michael Spagat&Neil F.Johnson,2009)即:从1816年到1980年的各个战争中,伤亡人数以及恐怖袭击的规模大小分布被证明遵循与权、法律相关的分布相似的规律。且存在一个统一的人类叛乱模式,能够再现这些共同点,并从量化的度具体解释冲突的变化。另有研究(李本先,李孟军,方锦清,仰琎歆,2013)发现:在网络演化的过程中,恐怖组织的网络演化不仅兼具小世界、无标度特性的等级结构,还使用不同级别的中心节点将网络连为一体,并且存在促进恐怖网络不断演化的重要因素,即与恐怖分子信念的增加和环境资源的增长有关;因此,反恐方的选择性打击将对网络的增长具有抑制作用和一定的控制效果。
[0011] 综上所述,目前的研究和算法多是基于量化特性或语言分析等数据类型,进行间接的社交关系挖掘和分析,但这些数据所体现的社会连接层面较为表层,多是社会关系中长期的静态关系累积(如通讯录数据),或是生活模式相似性的体现(如轨迹数据),或是某一兴趣下的社交(如微博或博客),较难体现在一个由多类型、多兴趣和多行为模式的群体中社交关系的深层特征。比如具有不同兴趣、生活习惯的人,常常也会是很好的朋友,并且展现出丰富的群体活动和关系类型。如何挖掘这些活动中多人关系的动态组成和主导节点是我们挖掘社会关系深层内容中的一个关键问题。特别是群体谈话或讨论这一主要的社交活动,如何从中挖掘出社会关系是本发明的主要内容。
[0012] 本发明主要针对包含人群谈话过程的视频资料,进行基于人脸识别的人群关系挖掘,分析结果可以发现人群中的潜在社交子网络,以及其中的话语权掌握者。具体主要根据人物面部的各种动态参数,形成两人之间的相关性指标,在此基础上构建相关性网络,并进一步分析网络特征,综合分析各个社交图以及各个特征子图结构来进行多人之间关系的预测,得出视频中所出现人物的深层关系网络。例如,活跃互动的多人团体发现,话语权掌握者与其他人物的关系等等。所使用的视频图像数据相比于数字和文本等其他形式的数据,内涵更加丰富、即时,挖掘出的社会关系较为多维,体现了人群互动的深层结构。

发明内容

[0013] (一)发明的目的
[0014] 本发明的目的是:本发明提供了一种基于视频资料进行群体社交关系挖掘的方法,可以有效地对视频中多人间人物关系进行量化和评价。
[0015] 本发明的理论基础:人与人之间的社会关系强度表现为一定程度上的行为相关性。通过社交影响,人的行为可以引导他的朋友以类似的方式行事(Aris Anagnostopoulos,Ravi Kumar,Mohammad Mahdian,2008)。因此可以根据谈话过程中人脸与人脸之间的动态相关性,判断两人之间的社交关系强度和类型,进而形成多人之间的社交网络挖掘。在此基础上,根据各个网络中社交图的出现情况来发现人群中较为活跃的小群体,进而推演出多人之间的复杂配合关系。人物之间的线段具有指向性,可以判断人群讨论或谈话中的主导者,区分出人物间主动与被动关系。
[0016] (二)技术方案
[0017] 本发明的技术解决方案:建立基于视频资料的群体社交关系图的构建和分析。首先,进行人脸检测预处理,预处理区域分为上下两部分,即头发和面部。提取相关像素,进行染色,统计,分析。其次,对每两人之间的关系进行相关性的计算,相关性的结果用于画线、绘制社交图。两人之间的连线包含显著性,指向性等统计信息。第三,群组关系的挖掘、分析和预测,包括各个特征子图的挖掘和关键人物的挖掘。例如,群组关系可能为领导-从属关系、团体-对立关系、朋友关系、更亲近关系等等。最后,对于单个人物,根据群组关系社交图的不同,对给定的系列参数进行赋值并排序,进而可以判断出每个人物自己的特性,包含动作、语言、参与程度、和主导程度等等几个方面的特征。
[0018] 本发明一种基于视频资料进行群体社交关系挖掘的方法,其步骤如下:
[0019] 步骤一、对视频中人物图像进行预处理;
[0020] 本发明基于满足以下要求的各个视频素材数据:
[0021] (a)脸部信息:满足于人脸检测条件,不能是背影或全程处在检测不到的转动角度,时断时续的面部可以使用;
[0022] (b)时间信息:视频的长短、清晰度及数;其中清晰度满足基本的人脸检测分辨率即可;
[0023] 首先,对视频中的每一帧进行人脸检测,对得到的正方形脸部轮廓进行扩容,增加头发部分,并分别在两部分中绘制小长方形,其大小和位置均由人脸检测的轮廓大小决定;
[0024] 其次,对小长方形中的各个像素取平均值,分别得到三种颜色的平均值,作为像素比例模型的参考值cb、cg、cr;用以实现自动给定参考值的效果;其原因是,头部和面部的像素在很多场景中拥有特定的颜色数值比例,三种颜色存在一定的相对稳定的比例关系,可适用于不同场景,并在不同的光线下保持比例关系的稳定;但是比例关系基于参考值cb、cg、cr,而参考值cb、cg、cr在不同环境不同光线中差异性很强;因此,以往在测试中参考值通常要事先测定好,然后进行相同环境下的测试,以实现头发和面部的染色;染色是指把符合比例模型的点染成红色和紫色(可更换),分别代表头发和面部;因此,设置小长方形的自动检测机制,以确保在每一帧中,即使光线不同,出现场景变化,也可以自动对目标像素进行染色;
[0025] 第三,我们已经得到头发染成红色,面部染成紫色的人脸;我们对像素数量进行统计,对比每一帧的变化情况,即红色若先增大后减小,并且变化超过一定阙值m,则判定为完成一次基本动作;紫色若先增大后减小,并且变化超过一定阙值m,则判定为完成一次基本动作;
[0026] 第四,我们为完成一次上述基本动作的人物的Hs参数给定变化值δh;同时增加另两个影响参数Hs的变量,一个是人脸检测框架(dete框)的偏移量,用来检测大幅度的脸部位移,如果连续n帧坐标偏移量的变化情况符合给定的规律,并且变化量达到设定的阙值s,则判定人物完成了一次基本动作;另一影响参数Hs的变量是消失的dete框所持续的帧数,用于解决时断时续的人脸检测框带来干扰的问题;我们的解决方案是:m帧以内的框架消失保持其原有延续性,m帧以后若仍然持续消失,则其强度减小,给定Hs参数较小的变化值δh,呈现出递减趋势;
[0027] 最后,我们将每一帧每个人物的活动系数Hs的总变化量Ar(d)(在步骤二进行解释)存入二维数组,等待计算时调用;
[0028] 步骤二、两人之间的相关性计算,绘制社交关系图,挖掘特征子图对应的群体关系;
[0029] 1.单人的活跃值;
[0030] 在视频中以每k帧作为一段时间间隔,d表示k帧间隔内的第d帧;
[0031] Ar(d)=Σn(δh)
[0032] 其含义为第d帧中,人物完成了数量n次的基本动作后累计的变化值,δh代表每次完成不同基本动作对应的不同变化值,r为人物编号,d代表第d帧;
[0033] Aryarv={Σd=1k(Ar(d))}/k
[0034] 其含义为第y段时间间隔内Ar(d)参数的平均值;从d=1开始,到d=k结束,y表示第y段时间间隔;r为人物编号,d代表第d帧;
[0035] 2.每两人之间的相关性计算;
[0036] 每两个人物之间做一次相关性计算(Cross Correlation);
[0037] Fτy(l,r)={Σd=1(k-t)|(Aly(d)-Alyarv)(Ary(d+τ)-Aryarv)|}/(k-τ)[0038] (τ>0)时;
[0039] Fτy(l,r)={Σd=1(k+t)|(Aly(d-τ)-Alyarv)(Ary(d)-Aryarv)|}/(k+τ)[0040] (τ<0)时;
[0041] Fτy(l,r)(τ<0)≡Fτy(r,l)(τ>0)
[0042] Fτy(l,r)的含义为第y段时间间隔中,(l,r)两人在时间差为τ时的相关性数值总和的平均值;其中τ的正负用于判断指向性,τ>0和τ<0分别代表两个不同方向的箭头指向;
[0043] Fmaxy(l,r)=max(Fτy(l,r)),(-k<τ
[0044] Fmax y(l,r)表示在第y时间段,时间差τ∈(-k,k)的范围内,不同τ值对应的不同Fτy(l,r)中,筛选出两人相关性数值总和平均值中的最大值,并保留其对应的τ值用于判断箭头指向(如图2,图3);
[0045] 3.绘制社交关系图(简称“社交图”);
[0046] 对群组中所有的两人间的最大相关性系数Fmaxy(l,r)进行排序,设定选取条件,在符合条件的所有(l,r)两人之间进行画线,绘制成第y段时间间隔的社交图;社交图是群组关系挖掘的基础;
[0047] 4.挖掘特征子图对应的群组;
[0048] 社交图可以拆分为射线顶点、三角形、星型、四边形、五边形等特征子图;主要特征子图介绍如下:
[0049] 射线顶点结构,如图4,即两条射线有相同顶点;对应Tn参数;
[0050] 三角形结构,如图5,图6,即三人之间均有连线,形成三角形;对应Tr参数;
[0051] 星形结构,如图7,即射线顶点结构的拓展,指多条射线交于一点;对应Tn参数;
[0052] 直线结构,如图8,代表两人之间的连线,具有普遍性,出现在各个场景中;直线结构中包括顺势直线连接,如图9,指各个人物之间的连线最终只形成一条折线;对应Lt参数;
[0053] 综合分析各特征子图对应的群组,为群组关系的分析和预测提供准备工作。
[0054] 步骤三、群组关系的分析和预测;
[0055] 1.定义相关变量:
[0056] 我们定义了Te、Tr、Tn、Lt、Ct、Hs、R、Ji、Jt、9个变量用于接下来的计算;其中Ct是矩阵,其他参数均是一维数组,矩阵与数组中的排序号对应视频中各个人物编号l、r等;
[0057] 1)Te参数反映了讲话效率,初始为0,若每次出现星型后的有限帧内出现了不包含本人物的三角形,此时增加人物Te参数的变化量δn;另一种情况是,统计每次出现星型时此人物的外指向箭头数量,并增加相应Te值的变化量δn;
[0058] 2)Tr参数反映了参与度,初始为0,每次出现三角形时,三角形内的出现人员的Tr值变化δn;
[0059] 3)Tn参数对应讲话次数,初始为0,每次出现星型时,顶点处人物的Tn值变化δn;
[0060] 4)Hs参数对应动作的频繁程度和幅度,与讲话次数Tn之间不完全独立;Hs=Σi=1f Ar(d);其中f为视频总帧数;根据预处理的每一帧中完成各个基本动作情况进行赋值,若达到标准,则Hs参数增加Ar(d)变化量;
[0061] 5)参数R=Te/Tn;直观意义是讲话有效的比率;其作用与Te类似但不完全相同;
[0062] 6)Ji,Jt均为箭头指向性参数,根据每条线段的指向性,将各个人物的Ji、Jt值变化δn;若箭头为外指向,如图10,则Jt参数变化δn,若箭头为内指向,如图11,则Ji参数变化δn;需要说明的是,Jt也决定Te参数,当人物满足出现在星型顶点的条件时,Te=Te+Jt(d);其中Jt(d)表示第d帧的Jt值;d代表帧数;
[0063] 7)Ct和Lt参数反映了群组中两人之间交互作用程度;Lt参数代表两人的连线次数,若出现连线,则数值变化δn;Ct矩阵表示两人的讲话交互程度,其计算方法是提取出连续的星型序列,将序列中前后连续出现的两个人物视为一次交互,存入对应编号的矩阵位置,如(l,r),对矩阵数值进行排序,筛选出群体中交互程度强或弱的人物间关系;
[0064] 综上,我们可以将参数归纳为三个系列,分别用于判断群体交互度、主导性、动作频率和幅度;
[0065] 2.群组关系挖掘的分析方法;
[0066] 首先,分析Ji,Jt频率分布,挖掘出群组关系中主导力较强的人物与偏向被动的人物;其次,通过Tn,Hs频率分布,对各人物讲话次数与出现动作频率进行排序;第三,分析Te,Tr,R频率分布,对各个人物的讲话效力与参与程度进行排序;第四,通过Lt频率分布,对两人关系的强弱进行排序;最后,分析Ct矩阵数据,对人物之间讲话配合程度、交互度进行排序;
[0067] 3.群组关系挖掘预测;
[0068] 我们综合上文所有信息对实例中四人场景群组关系(从左至右顺序)进行预测:
[0069] 群体交互方面:1号与2号人物之间有少量谈话,有简单交谈,且效果良好,交互度高,配合程度高;2号人物相比于1号人物,与3号4号人物关系更密切;2号4号人物更可能处于讲话状态,其中2号更活跃,4号次之;3号人物参与度很高,讲话作用效果较高,但讲话活跃度小,可以推断为讲话内容吸引人,不无聊;另外,3号4号两人间的交互配合也非常良好,说明两人有交流过程,关系或话题上有潜在的默契;
[0070] 主导性方面:2号4号明显偏高,4号人物最高;4号人物既健谈,讲话效力又高,参与度又好,因此预测主导性较2号更强;2号人物存在一定的矛盾,即既有主导性,有有一定被动型;
[0071] 动作方面:1号2号动作偏多,我们推测3号4号少有头部动作,也可推断1号虽参与度低,但不处于脱离群体状态;
[0072] 我们尝试用语言还原实测的四人场景:1,2号人物,2,3号人物,3,4号人物之间分别有良好交流过程,存在更密切的交谈;整体四人关系密切,一种可能是朋友间情绪高昂的聊天场景,从亲密程度来讲,可判定大部分人为朋友关系,高于陌生人关系;另一可能是1号2号与其他人是对立关系,但从地位与姿态角度分析,其威望很高,可能处于谈判场景,或开会场景;
[0073] 综上所述,预测结果中大部分符合实际情况,真实场景中,1号为母亲,2号是女儿,3号是儿子,4号为父亲(从左至右顺序);四人处于在医院看望老人,在走廊聊天场景,其中谈话氛围幽默,人物之间的配合也符合前文推断假设;并给出最终显著性画线(如图12,图
13)。
[0074] 步骤四、单人的动作表达与所处状态分析:
[0075] 从群组关系分析和预测中,我们可以进一步提炼出单人的动作表达与性格特征;
[0076] 1.单人动作表达;
[0077] 首先,判断人物是否活跃,头部动作(如点头、或连带肢体动作)是否较多;其次,分析人物讲话的次数(数值不绝对代表具体次数)、是否健谈;第三,判断人物讲话是否效力高,作用效果是否较好,是否对他人产生影响,讲话起到作用;最后,判断人物的主导力高低,行为偏主动还是被动;
[0078] 实例中,1号人物整体处于倾听状态,有少量讲话;2号人物讲话较多,在语言和动作方面表现的更为活跃,可能语气诙谐,可能内容中肯,或者进行总结发言,总之能够引人入胜;3号人物也有少量时间参与进谈话,并发表看法,但相对安静,活跃度略低;4号人物讲话时间略少;
[0079] 2.单人所处状态预测:
[0080] 4号更有可能是德高望重的人物或长辈,有权威,有力量,1号人物紧随其后,可能实力较强但少于言表;2号3号人物可能是前两人下属,或威望略低,姿态更低的人物;其中2号更善于活跃气氛,讲话偏多,但不属于无用讲话,可能在发表观点或调节气氛;另外2号人物较3号人物性格体现更加矛盾的性格,更可能个性较强,或存在两极分化的内外情绪;
[0081] 综上,预测结果中大部分符合实际情况;真实场景中,1号为母亲,2号是女儿,3号是儿子,4号为父亲;四人处于在医院看望老人,在走廊聊天场景,其中谈话氛围幽默,人物之间的配合也符合前文推断假设;并给出最终显著性画线(如图12,图13)。
[0082] 其中,人脸检测,计算像素平均值,绘制图形等方法,只保留计算所需要的信息,其方法属公知技术,本发明不做赘述;
[0083] 通过以上步骤,本发明从内容更丰富的视频数据素材中挖掘数据,能够对更广泛视频素材进行分析处理,如在朋友聊天、工作讨论、商务谈判等不同场景中应用;支持实时计算,能转化为计算机能够识别和处理的数据;在更多维度上进行综合分析,记录群组关系变化,解决关系多变性的问题,得到颗粒化更小,更加深刻的人群交互关系;从而解决视频中多人人物复杂关系的实际问题,有效地对各种场景中的多人关系进行量化和评价;本发明支持未来对各个实际生活场景的实时分析,能对多人复杂场景中的人物关系分析提供强有力的方法支撑
[0084] (三)优点和功效
[0085] 相比较于传统方法,本发明所采用的分析方法具有如下优势:
[0086] (a)普遍性:突破了以往仅限于数字或文字资料等,针对内容更丰富的视频数据素材进行分析。使用中不限制视频素材中的场景,光线等变化,如摄像机镜头切换,更换场景后无需重新设定参数,可进行自动提取。
[0087] (b)功能性:挖掘出的社交关系能够反映不同群体活动类型中的社交关系(如朋友聊天、工作讨论、商务谈判等等),颗粒化更小,更加深刻地体现出人在不同环境中的交互关系。
[0088] (c)实时性:算法简单、可支持实时计算。将隐晦抽象的人物之间的复杂关系、需要靠人的思维去理解分析的关系,转化为计算机可识别的信号,计算机可以通过对各个特征子图的识别来判断视频中人物隐性的关系网。
[0089] (d)多维性:通过图像所得群组关系更全面,更丰富,在更多的维度上对群组关系进行综合分析,并记录群组间的关系变化,解决关系多变性的问题。
[0090] 综上,这种新方法的研究结果将对计算机图像处理时,机器视觉的分析提供强有力的方法支撑。附图说明:
[0091] 图1.本发明所述方法流程示意图;
[0092] 图2.本发明所述“社交图”之箭头指向性示意图;
[0093] 图3.本发明所述“社交图”之箭头指向性示意图;
[0094] 图4.本发明所述“社交图”之射线顶点结构;
[0095] 图5.本发明所述“社交图”之三角形结构;
[0096] 图6.本发明所述“社交图”之三角形结构;
[0097] 图7.本发明所述“社交图”之星形结构;
[0098] 图8.本发明所述“社交图”之直线结构;
[0099] 图9.本发明所述“社交图”之顺势直线结构;
[0100] 图10.本发明所述“社交图”之箭头均指向外部;
[0101] 图11.本发明所述“社交图”之箭头均指向内部;
[0102] 图12.本发明所述“社交图”之最终显著性效果图;
[0103] 图13.本发明所述“社交图”之最终显著性效果图;

具体实施方式

[0104] 为使本发明要解决的技术问题、技术方案更加清楚,下面将结合附图及具体实施案例进行详细描述。
[0105] 本发明一种基于视频资料进行人群社交关系挖掘的方法,如图1所示,其具体步骤如下:
[0106] 步骤一、对视频中人物图像进行预处理;
[0107] 本发明基于满足以下要求的各个视频素材数据:
[0108] (a)脸部信息:满足于人脸检测条件,不能是背影或全程处在检测不到的转动角度,时断时续的面部可以使用;
[0109] (b)时间信息:视频的长短,清晰度,帧数;其中清晰度满足基本的人脸检测分辨率即可;
[0110] 首先,对视频中的每一帧进行人脸检测,对得到的正方形脸部轮廓进行扩容,增加头发部分,并分别在两部分中绘制小长方形,其大小和位置均由人脸检测的轮廓大小决定;
[0111] 其次,对小长方形中的各个像素取平均值,分别得到三种颜色的平均值,作为像素比例模型的参考值cb、cg、cr;用以实现自动给定参考值的效果;其原因是,头部和面部的像素在很多场景中拥有特定的颜色数值比例,三种元色存在一定的相对稳定的比例关系,可适用于不同场景,并在不同的光线下保持比例关系的稳定;但是比例关系基于参考值cb、cg、cr,而参考值cb、cg、cr在不同环境不同光线中差异性很强;因此,以往在测试中参考值通常要事先测定好,然后进行相同环境下的测试,以实现头发和面部的染色;染色是指把符合比例模型的点染成红色和紫色(可更换),分别代表头发和面部;因此,设置小长方形的自动检测机制,以确保在每一帧中,即使光线不同,出现场景变化,也可以自动对目标像素进行染色;
[0112] 第三,我们已经得到头发染成红色,面部染成紫色的人脸;我们对像素数量进行统计,对比每一帧的变化情况,即红色若先增大后减小,并且变化超过一定阙值m,则判定为完成一次基本动作;紫色若先增大后减小,并且变化超过一定阙值m,则判定为完成一次基本动作;
[0113] 第四,我们为完成一次上述基本动作的人物的Hs参数给定变化值δh;同时增加另两个影响参数Hs的变量,一个是人脸检测框架(dete框)的偏移量,用来检测大幅度的脸部位移,如果连续n帧坐标偏移量的变化情况符合给定的规律,并且变化量达到设定的阙值s,则判定人物完成了一次基本动作;另一影响参数Hs的变量是消失的dete框所持续的帧数,用于解决时断时续的人脸检测框带来干扰的问题;我们的解决方案是:m帧以内的框架消失保持其原有延续性,m帧以后若仍然持续消失,则其强度减小,给定Hs参数较小的变化值δh,呈现出递减趋势;
[0114] 最后,我们将每一帧每个人物的活动系数Hs的总变化量Ar(d)(在步骤二进行解释)存入二维数组,等待计算时调用;
[0115] 步骤二、两人之间的相关性计算,绘制社交关系图,挖掘特征子图对应的群体关系;
[0116] 1.单人的活跃值;
[0117] 在视频中以每k帧作为一段时间间隔,d表示k帧间隔内的第d帧;
[0118] Ar(d)=Σn(δh)
[0119] 其含义为第d帧中,人物完成了数量n次的基本动作后累计的变化值,δh代表每次完成不同基本动作对应的不同变化值,r为人物编号,d代表第d帧;
[0120] Aryarv={Σd=1k(Ar(d))}/k
[0121] 其含义为第y段时间间隔内Ar(d)参数的平均值;从d=1开始,到d=k结束,y表示第y段时间间隔;r为人物编号,d代表第d帧;
[0122] 2.每两人之间的相关性计算;
[0123] 每两个人物之间做一次相关性计算(Cross Correlation);
[0124] Fτy(l,r)={Σd=1(k-t)|(Aly(d)-Alyarv)(Ary(d+τ)-Aryarv)|}/(k-τ)[0125] (τ>0)时;
[0126] Fτy(l,r)={Σd=1(k+t)|(Aly(d-τ)-Alyarv)(Ary(d)-Aryarv)|}/(k+τ)[0127] (τ<0)时;
[0128] Fτy(l,r)(τ<0)≡Fτy(r,l)(τ>0)
[0129] Fτy(l,r)的含义为第y段时间间隔中,(l,r)两人在时间差为τ时的相关性数值总和的平均值;其中τ的正负用于判断指向性,τ>0和τ<0分别代表两个不同方向的箭头指向;
[0130] Fmaxy(l,r)=max(Fτy(l,r)),(-k<τ
[0131] Fmaxy(l,r)表示在第y时间段,时间差τ∈(-k,k)的范围内,不同τ值对应的不同Fτy(l,r)中,筛选出两人相关性数值总和平均值中的最大值,并保留其对应的τ值用于判断箭头指向(如图2,图3);
[0132] 3.绘制社交关系图(简称“社交图”);
[0133] 对群组中所有的两人间的最大相关性系数Fmaxy(l,r)进行排序,设定选取条件,在符合条件的所有(l,r)两人之间进行画线,绘制成第y段时间间隔的社交图;社交图是群组关系挖掘的基础;
[0134] 4.挖掘特征子图对应的群组;
[0135] 社交图可以拆分为射线顶点、三角形、星型、四边形、五边形等特征子图;主要特征子图的介绍如下:
[0136] 射线顶点结构,如图4,即两条射线有相同顶点;对应Tn参数;
[0137] 三角形结构,如图5,图6,即三人之间均有连线,形成三角形;对应Tr参数;
[0138] 星形结构,如图7,即射线顶点结构的拓展,指多条射线交于一点;对应Tn参数;
[0139] 直线结构,如图8,代表两人之间的连线,具有普遍性,出现在各个场景中;直线结构中包括顺势直线连接,如图9,指各个人物之间的连线最终只形成一条折线;对应Lt参数;
[0140] 综合分析各特征子图对应的群组,为群组关系的分析和预测提供准备工作。
[0141] 步骤三、群组关系的分析和预测;
[0142] 1.定义相关变量:
[0143] 我们定义了Te、Tr、Tn、Lt、Ct、Hs、R、Ji、Jt、9个变量用于接下来的计算;其中Ct是矩阵,其他参数均是一维数组,矩阵与数组中的排序号对应视频中各个人物编号l、r等;
[0144] 7)Te参数反映了讲话效率,初始为0,若每次出现星型后的有限帧内出现了不包含本人物的三角形,此时增加人物Te参数的变化量δn;另一种情况是,统计每次出现星型时此人物的外指向箭头数量,并增加相应Te值的变化量δn;
[0145] 8)Tr参数反映了参与度,初始为0,每次出现三角形时,三角形内的出现人员的Tr值变化δn;
[0146] 9)Tn参数对应讲话次数,初始为0,每次出现星型时,顶点处人物的Tn值变化δn;
[0147] 10)Hs参数对应动作的频繁程度和幅度,与讲话次数Tn之间不完全独立;Hs=fΣi=1 Ar(d);其中f为视频总帧数;根据预处理的每一帧中完成各个基本动作情况进行赋值,若达到标准,则Hs参数增加Ar(d)变化量;
[0148] 11)参数R=Te/Tn;直观意义是讲话有效的比率;其作用与Te类似但不完全相同;
[0149] 12)Ji,Jt均为箭头指向性参数,根据每条线段的指向性,将各个人物的Ji、Jt值变化δn;若箭头为外指向,如图10,则Jt参数变化δn,若箭头为内指向,如图11,则Ji参数变化δn;需要说明的是,Jt也决定Te参数,当人物满足出现在星型顶点的条件时,Te=Te+Jt(d);其中Jt(d)表示第d帧的Jt值;d代表帧数;
[0150] 7)Ct和Lt参数反映了群组中两人之间交互作用程度;Lt参数代表两人的连线次数,若出现连线,则数值变化δn;Ct矩阵表示两人的讲话交互程度,其计算方法是提取出连续的星型序列,将序列中前后连续出现的两个人物视为一次交互,存入对应编号的矩阵位置,如(l,r),对矩阵数值进行排序,筛选出群体中交互程度强或弱的人物间关系;
[0151] 综上,我们可以将参数归纳为三个系列,分别用于判断群体交互度、主导性、动作频率和幅度;
[0152] 2.群组关系挖掘的分析方法;
[0153] 首先,分析Ji,Jt频率分布,挖掘出群组关系中主导力较强的人物与偏向被动的人物;其次,通过Tn,Hs频率分布,对各人物讲话次数与出现动作频率进行排序;第三,分析Te,Tr,R频率分布,对各个人物的讲话效力与参与程度进行排序;第四,通过Lt频率分布,对两人关系的强弱进行排序;最后,分析Ct矩阵数据,对人物之间讲话配合程度、交互度进行排序;
[0154] 3.群组关系挖掘预测;
[0155] 我们综合上文所有信息对实例中四人场景群组关系(从左至右顺序)进行预测:
[0156] 群体交互方面:1号与2号人物之间有少量谈话,有简单交谈,且效果良好,交互度高,配合程度高;2号人物相比于1号人物,与3号4号人物关系更密切;2号4号人物更可能处于讲话状态,其中2号更活跃,4号次之;3号人物参与度很高,讲话作用效果较高,但讲话活跃度小,可以推断为讲话内容吸引人,不无聊;另外,3号4号两人间的交互配合也非常良好,说明两人有交流过程,关系或话题上有潜在的默契;
[0157] 主导性方面:2号4号明显偏高,4号人物最高;4号人物既健谈,讲话效力又高,参与度又好,因此预测主导性较2号更强;2号人物存在一定的矛盾,即既有主导性,有有一定被动型;
[0158] 动作方面:1号2号动作偏多,我们推测3号4号少有头部动作,也可推断1号虽参与度低,但不处于脱离群体状态;
[0159] 我们尝试用语言还原实测的四人场景:1,2号人物,2,3号人物,3,4号人物之间分别有良好交流过程,存在更密切的交谈;整体四人关系密切,一种可能是朋友间情绪高昂的聊天场景,从亲密程度来讲,可判定大部分人为朋友关系,高于陌生人关系;另一可能是1号2号与其他人是对立关系,但从地位与姿态角度分析,其威望很高,可能处于谈判场景,或开会场景;
[0160] 综上所述,预测结果中大部分符合实际情况,真实场景中,1号为母亲,2号是女儿,3号是儿子,4号为父亲(从左至右顺序);四人处于在医院看望老人,在走廊聊天场景,其中谈话氛围幽默,人物之间的配合也符合前文推断假设;并给出最终显著性画线(如图12,图
13)。
[0161] 步骤四、单人的动作表达与所处状态分析:
[0162] 从群组关系分析和预测中,我们可以进一步提炼出单人的动作表达与性格特征;
[0163] 1.单人动作表达;
[0164] 首先,判断人物是否活跃,头部动作(如点头、或连带肢体动作)是否较多;其次,分析人物讲话的次数(数值不绝对代表具体次数)、是否健谈;第三,判断人物讲话是否效力高,作用效果是否较好,是否对他人产生影响,讲话起到作用;最后,判断人物的主导力高低,行为偏主动还是被动;
[0165] 实例中,1号人物整体处于倾听状态,有少量讲话;2号人物讲话较多,在语言和动作方面表现的更为活跃,可能语气诙谐,可能内容中肯,或者进行总结发言,总之能够引人入胜;3号人物也有少量时间参与进谈话,并发表看法,但相对安静,活跃度略低;4号人物讲话时间略少;
[0166] 2.单人所处状态预测:
[0167] 4号更有可能是德高望重的人物或长辈,有权威,有力量,1号人物紧随其后,可能实力较强但少于言表;2号3号人物可能是前两人下属,或威望略低,姿态更低的人物;其中2号更善于活跃气氛,讲话偏多,但不属于无用讲话,可能在发表观点或调节气氛;另外2号人物较3号人物性格体现更加矛盾的性格,更可能个性较强,或存在两极分化的内外情绪;
[0168] 综上,预测结果中大部分符合实际情况;真实场景中,1号为母亲,2号是女儿,3号是儿子,4号为父亲;四人处于在医院看望老人,在走廊聊天场景,其中谈话氛围幽默,人物之间的配合也符合前文推断假设;并给出最终显著性画线(如图12,图13)。
[0169] 本发明未详细阐述部分属于本领域公知技术。
[0170] 以上所述,仅为本发明部分具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本领域的人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈