首页 / 专利库 / 电脑编程 / 算法 / 期望最大化算法 / 一种基于多源信息融合分析的网络视频热点事件发现方法

一种基于多源信息融合分析的网络视频热点事件发现方法

阅读:1018发布:2020-05-25

专利汇可以提供一种基于多源信息融合分析的网络视频热点事件发现方法专利检索,专利查询,专利分析的服务。并且一种基于多源信息融合分析的网络视频热点事件发现方法。包括:1)采集有多源信息的网络视频;2)将网络视频的多源信息结构化为描述性关键字标签;3)根据步骤2)得到的网络视频语义结构化关键字标签与用户定义的敏感词字典的匹配度,得到网络视频的主观敏感度参数;4)根据网络视频中多源信息的点击率、时间字段,得到网络视频的客观热度参数;5)根据步骤3)得到的主观敏感度参数,建立网络视频敏感度 预测模型 ,预测新网络视频的主观敏感度;6)根据步骤4)得到的客观热度参数,建立网络视频热度预测模型,预测新网络视频的客观热度;7)选取主观敏感度和客观热度加权求和在网络视频集中排名靠前的视频作为热点视频。,下面是一种基于多源信息融合分析的网络视频热点事件发现方法专利的具体信息内容。

1.一种基于多源信息融合分析的网络视频热点事件发现方法,
包括如下步骤:
1)采集有多源信息的网络视频;
2)通过多源融合分析的视频语义结构化模,将网络视频的多源信息结构化为描述性关键字标签,实现网络视频语义结构化;
3)根据步骤2)得到的网络视频语义结构化关键字标签与用户定义的敏感词字典的匹配度,得到网络视频的主观敏感度参数;
4)根据网络视频中多源信息中的点击率、时间字段,得到网络视频的客观热度参数;
5)根据步骤3)得到的主观敏感度参数,建立网络视频敏感度预测模型,预测新网络视频的主观敏感度;
6)根据步骤4)得到的客观热度参数,建立网络视频热度预测模型,预测新网络视频的客观热度;
7)选取步骤5)得到的网络视频的主观敏感度和步骤6)得到的网络视频的客观热度都大于一定阈值,并且主观敏感度和客观热度加权求和在网络视频集中排名靠前的视频作为热点视频,即网络视频热点事件。
2.根据权利要求1所述的一种基于多源信息融合分析的网络视频热点事件发现方法,其特征在于:步骤1所述的多源信息包括网络视频的标签、名称、评论、时间和点击率。
3.根据权利要求1所述的一种基于多源信息融合分析的网络视频热点事件发现方法,其特征在于:步骤2所述的多源融合分析的视频语义结构化模块,用于视频摘要下载与多源文本信息摘要提取、视频概念检测与文本主题建模和视频语义结构化。
4.根据权利要求3所述的一种基于多源信息融合分析的网络视频热点事件发现方法,其特征在于:所述的视频摘要下载与多源文本信息摘要提取 一方面是指基于已有标注的训练数据,通过视频特征估计视频中前景物体,然后用Gibbs采样学习该前景在时间轴上的分布,从而计算前景在时域上对表现视频内容的似然分布;当给定新的网络视频时,通过前景检测获得前景的起始时间,然后基于学习得到的时域似然分布,在最大似然的同时最小化视频的数目,从而获得对该视频的摘要提取;另一方面,将非结构化的语义脚本进行信息摘要提取 ,用几句话概括原本冗长的文字脚本;对此,采用课题组研发的基于语义重建的文本摘要技术,通过训练文本的语义重建训练获得常用关键词字典;给定新的文本数据时,基于训练得到的关键词字典对该文本数据进行语义重建,从而实现原始多源文本的摘要提取 ;系统通过时刻保持对视频摘要数据和文本摘要数据的协同以获得多源数据流摘要提取 之后的一致性。
5.根据权利要求3所述的一种基于多源信息融合分析的网络视频热点事件发现方法,其特征在于:所述的视频概念检测与文本主题建模是指将摘要下载的网络视频和与之匹配的文字脚本建模为语义单元的集合描述,以便于后续步骤对视频和文本内容的结构化理解;具体包括首先构造视频低层特征与视频概念的支持向量机SVM判别式模型,基于大量的网络视频标注数据对各种视频概念检测SVM进行训练;通过视频概念检测,可以排除大部分无用的视频信息,关注于视频中语义概念集中的部分,实现视频的语义概念描述;然后,文本主题建模模块采用隐狄利克雷话题模型LDTM,利用期望最大化算法得到模型的参数;将每个文本脚本表示成混合话题的分布;给定新的摘要文本时,利用训练得到的话题分布进行文本主题建模,在此基础上将结构化的文本话题与视频语义概念检测结果进行交叉验证,确定网络视频最终的文本语义主题和视频概念。
6.根据权利要求3所述的一种基于多源信息融合分析的网络视频热点事件发现方法,其特征在于:所述的视频语义结构化是指在完成视频概念检测和文本主题建模之后,将网络视频相关联的多源数据结构化为描述性关键字标签,实现网络视频语义结构化。
7.根据权利要求1所述的一种基于多源信息融合分析的网络视频热点事件发现方法,其特征在于:步骤4所述的客观热度参数和包括网络视频的点击率、扩散速度。
8.根据权利要求1所述的一种基于多源信息融合分析的网络视频热点事件发现方法,其特征在于:步骤5所述的网络视频敏感度预测模型,是通过用户定义的敏感词字典构造敏感度图谱,再基于该图谱对匹配的敏感词进行协同过滤打分,分数越高敏感度越高,反之越低。

说明书全文

一种基于多源信息融合分析的网络视频热点事件发现方法

技术领域

[0001] 本发明属于计算机视觉领域,涉及网络视频热点事件发现方法。

背景技术

[0002] 网络视频是当今的信息社会重要的组成部分。网络视频规模庞大并且增长迅速。在给人们生活带来便利的同时,无论从国家安全还是存储便利的度考虑,从网络视频中检测、跟踪热点敏感事件都是亟待解决的问题。
[0003] 现有的网络视频热点事件发现方案通常是利用人工检测判断视频是否包含敏感或者热点信息,或者依赖于视频标签、评论等文本信息进行判断。然而,一方面随着视频数量的大规模增加,利用人工检测将消耗大量的人和时间,导致响应迟缓。另一方面,有大量的视频并不包含完整准确的标签及评论信息,基于文本的方法也就无法处理。因此,利用计算机技术,对网络视频本身的内容进行理解标注,再利用数据挖掘的手段处理才是解决热点敏感事件的自动检测的根本手段。
[0004] 本发明针对网络视频规模庞大,语义内容复杂等问题,研发基于摘要提取的网络视频下载技术,结合网络视频所具有的标签、评论等多源信息,通过概念检测技术,研发基于多源多维信息融合的网络视频的语义结构化技术,在此基础上,基于主题模型研发视频热点事件的自动发现和推荐技术,最终提出一种基于多源信息融合分析的网络视频热点事件发现方法,实现对热点及敏感事件检测功能,具有重大的科学研究和经济社会价值。

发明内容

[0005] 本发明要克服现有技术的上述缺点,针对带有标签、名称、评论等信息的网上视频,自动地发现网络视频中的热点及敏感事件,用以自动化检测大规模网络视频热点敏感事件,有效提高检测网络视频热点事件的召回率,降低网络视频热点事件检测的时间成本。
[0006] 本发明提出一种基于多源信息融合分析的网络视频热点事件发现方法,包括以下步骤:
[0007] 1)采集有多源信息的网络视频。
[0008] 2)通过多源融合分析的视频语义结构化模,将网络视频的多源信息(网络视频的标签、名称和评论)结构化为描述性关键字标签,实现网络视频语义结构化。
[0009] 3)根据步骤2)得到的网络视频语义结构化关键字标签与用户定义的敏感词字典的匹配度,得到网络视频的主观敏感度参数。
[0010] 4)根据网络视频中多源信息的点击率、时间字段,得到网络视频的客观热度参数。
[0011] 5)根据步骤3)得到的主观敏感度参数,建立网络视频敏感度预测模型,预测新网络视频的主观敏感度。
[0012] 6)根据步骤4)得到的客观热度参数,建立网络视频热度预测模型,预测新网络视频的客观热度。
[0013] 7)选取步骤5)得到的网络视频的主观敏感度和步骤6)得到的网络视频的客观热度都大于一定阈值,并且主观敏感度和客观热度加权求和在网络视频集中排名靠前的视频作为热点视频,即网络视频热点事件。
[0014] 所述的多源信息包括网络视频的标签、名称、评论、时间和点击率。
[0015] 所述的多源融合分析的视频语义结构化模块,包括视频摘要下载与多源文本信息摘要、视频概念检测与文本主题建模和视频语义结构化。
[0016] 其中,视频摘要下载与多源文本信息摘要,一方面是指基于已有标注的训练数据,通过视频特征估计视频中前景物体,然后用Gibbs采样学习该前景在时间轴上的分布,从而计算前景在时域上对表现视频内容的似然分布。当给定新的网络视频时,通过前景检测获得前景的起始时间,然后基于学习得到的时域似然分布,在最大似然的同时最小化视频的数目,从而获得对该视频的摘要提取;另一方面,将非结构化的语义脚本进行信息摘要,用几句话概括原本冗长的文字脚本。对此,拟采用课题组研发的基于语义重建的文本摘要技术,通过训练文本的语义重建训练获得常用关键词字典。给定新的文本数据时,基于训练得到的关键词字典对该文本数据进行语义重建,从而实现原始多源文本的摘要。系统通过时刻保持对视频摘要数据和文本摘要数据的协同以获得多源数据流摘要之后的一致性。
[0017] 其中,视频概念检测与文本主题建模,是指将摘要下载的网络视频和与之匹配的文字脚本建模为语义单元的集合描述,以便于后续步骤对视频和文本内容的结构化理解。具体包括首先构造视频低层特征与视频概念的支持向量机(Support Vector Machine,SVM)判别式模型,基于大量的网络视频标注数据对各种视频概念检测SVM进行训练。通过视频概念检测,我们可以排除大部分无用的视频信息,关注于视频中语义概念集中的部分,实现视频的语义概念描述。然后,文本主题建模模块拟采用隐狄利克雷话题模型(Latent Dirichlet Topic Model,LDTM),利用期望最大化算法得到模型的参数。将每个文本脚本表示成混合话题的分布。给定新的摘要文本时,利用训练得到的话题分布进行文本主题建模,在此基础上将结构化的文本话题与视频语义概念检测结果进行交叉验证,确定网络视频最终的文本语义主题和视频概念。
[0018] 其中,视频语义结构化,是指在完成视频概念检测和文本主题建模之后,将网络视频相关联的多源数据结构化为描述性关键字标签,实现网络视频语义结构化。
[0019] 步骤4所述的所述的客观热度参数,包括网络视频的点击率、扩散速度。
[0020] 步骤5所述的所述的网络视频敏感度预测模型,是通过用户定义的敏感词字典构造敏感度图谱,再基于该图谱对匹配的敏感词进行协同过滤打分,分数越高敏感度越高,反之越低。
[0021] 步骤6所述的所述的网络视频热度预测模型,是采取逻辑回归方法。
[0022] 本发明的优点是:本发明对非结构的大规模网络视频进行多元信息融合和语义结构化,提取视频与对应文本的关键信息,大大降低存储开销,与此同时本发明的多源多维信息融合技术能够处理缺少标签、描述、评论等信息的网络视频,对不同类型和来源的视频具有较好的适应性和鲁棒性,不仅如此,本发明的热点事件检测模型综合考虑了视频的主观敏感度和客观热度,保证了热点事件检测的准确性和可靠性。附图说明
[0023] 图1是本发明的流程图
[0024] 图2是视频摘要下载与多源文本信息摘要示意图。
[0025] 图3是视频概念检测与文本主题建模示意图。
[0026] 图4是视频语义结构化示意图。

具体实施方式

[0027] 下面结合本发明中的附图,对本发明的技术方案进行清晰、完整地描述。
[0028] 本发明提出一种基于多源信息融合分析的网络视频热点事件发现方法,图1展示了该方法的整体流程。基于多源信息融合分析的网络视频热点事件发现方法具体实施步骤如下:
[0029] 步骤1,采集有多源信息的网络视频。
[0030] 所述的多源信息包括网络视频的标签、名称、评论、时间和点击率。
[0031] 步骤2,通过多源融合分析的视频语义结构化模块,将网络视频的多源信息(网络视频的标签、名称和评论)结构化为描述性关键字标签,实现网络视频语义结构化。
[0032] 所述的多源融合分析的视频语义结构化模块,包括视频摘要下载与多源文本信息摘要、视频概念检测与文本主题建模和视频语义结构化。
[0033] 其中,视频摘要下载与多源文本信息摘要,一方面是指基于已有标注的训练数据,通过视频特征估计视频中前景物体,然后用Gibbs采样学习该前景在时间轴上的分布,从而计算前景在时域上对表现视频内容的似然分布。当给定新的网络视频时,通过前景检测获得前景的起始时间,然后基于学习得到的时域似然分布,在最大似然的同时最小化视频帧的数目,从而获得对该视频的摘要提取;另一方面,将非结构化的语义脚本进行信息摘要,用几句话概括原本冗长的文字脚本。对此,拟采用课题组研发的基于语义重建的文本摘要技术,通过训练文本的语义重建训练获得常用关键词字典。给定新的文本数据时,基于训练得到的关键词字典对该文本数据进行语义重建,从而实现原始多源文本的摘要。系统通过时刻保持对视频摘要数据和文本摘要数据的协同以获得多源数据流摘要之后的一致性。
[0034] 视频概念检测与文本主题建模,是指将摘要下载的网络视频和与之匹配的文字脚本建模为语义单元的集合描述,以便于后续步骤对视频和文本内容的结构化理解。具体包括首先构造视频低层特征与视频概念的支持向量机(Support Vector Machine,SVM)判别式模型,基于大量的网络视频标注数据对各种视频概念检测SVM进行训练。通过视频概念检测,我们可以排除大部分无用的视频信息,关注于视频中语义概念集中的部分,实现视频的语义概念描述。然后,文本主题建模模块拟采用隐狄利克雷话题模型(Latent Dirichlet Topic Model,LDTM),利用期望最大化算法得到模型的参数。将每个文本脚本表示成混合话题的分布。给定新的摘要文本时,利用训练得到的话题分布进行文本主题建模,在此基础上将结构化的文本话题与视频语义概念检测结果进行交叉验证,确定网络视频最终的文本语义主题和视频概念。
[0035] 视频语义结构化,是指在完成视频概念检测和文本主题建模之后,将网络视频相关联的多源数据结构化为描述性关键字标签,实现网络视频语义结构化。
[0036] 步骤3,根据步骤2得到的网络视频语义结构化关键字标签与用户定义的敏感词字典的匹配度,得到网络视频的主观敏感度参数。主观敏感度参数反映了网络视频的语义信息的敏感程度,通过计算视频结构化得到的关键字标签与用户定义的敏感词字典的匹配度,获得视频的主观敏感度参数。
[0037] 步骤4,根据网络视频中多源信息的点击率、时间字段,得到网络视频的客观热度参数。其中客观热度参数主要包括网络视频的点击率、扩散速度,这些参数通过多源数据中的相应字段计算得到。
[0038] 步骤5,根据步骤3得到的主观敏感度参数,建立网络视频敏感度预测模型,预测新网络视频的主观敏感度。
[0039] 所述的网络视频敏感度预测模型,是通过用户定义的敏感词字典构造敏感度图谱,再基于该图谱对匹配的敏感词进行协同过滤打分,分数越高敏感度越高,反之越低。
[0040] 步骤6,根据步骤4得到的客观热度参数,建立网络视频热度预测模型,预测新网络视频的客观热度。
[0041] 所述的网络视频热度预测模型,是采取逻辑回归方法。
[0042] 步骤7,选取步骤5得到的网络视频的主观敏感度和步骤6得到的网络视频的客观热度都大于一定阈值,并且主观敏感度和客观热度加权求和在网络视频集中排名靠前的视频作为热点视频,即网络视频热点事件。
[0043] 本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈