首页 / 专利库 / 人工智能 / 数据挖掘 / 一种基于内容画像的播单评分方法

一种基于内容画像的播单评分方法

阅读:107发布:2020-05-11

专利汇可以提供一种基于内容画像的播单评分方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于内容画像的播单评分方法,所述评分方法包括:根据音频的内容信息构建内容画像系统;根据所构建的内容画像系统构建播单画像系统,所述播单画像系统用于描述所述音频与所述播单之间的关系;基于所构建的所述内容画像系统和所述播单画像系统,通过 深度学习 算法 对所述音频的内容信息和所述播单的内容信息构建模型以完成所述播单内容的价值评估。其设计合理,可智能化的完成音频播单相关的价值评分。,下面是一种基于内容画像的播单评分方法专利的具体信息内容。

1.一种基于内容画像的播单评分方法,其特征在于,所述评分方法包括:
根据音频的内容信息构建内容画像系统;
根据所构建的内容画像系统构建播单画像系统,所述播单画像系统用于描述所述音频与所述播单之间的关系;
基于所构建的所述内容画像系统和所述播单画像系统,通过深度学习算法对所述音频的内容信息和所述播单的内容信息构建模型以完成所述播单内容的价值评估。
2.根据权利要求1所述的一种基于内容画像的播单评分方法,其特征在于,所述内容画像系统包括:
获取所述音频的历史信息;
根据所获取的音频信息,通过数据挖掘算法和数据统计算法构建所述内容画像系统。
3.根据权利要求2所述的一种基于内容画像的播单评分方法,其特征在于,所述音频的历史信息包括:
静态信息,所述静态信息包括所述音频的上传时间、所属类目和时长;
动态信息,所述动态信息包括所述音频的播放次数、播放总时长和评论数。
4.根据权利要求1所述的一种基于内容画像的播单评分方法,其特征在于,所述播单画像系统包括:
获取所述播单的历史信息;
根据所获取的播单信息,通过数据挖掘算法和数据统计算法构建所述播单画像系统。
5.根据权利要求4所述的一种基于内容画像的播单评分方法,其特征在于,其中所述播单的历史信息包括:
所述播单中的音频顺序;
所述播单中当前每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量、负面评论数量;
所述播单中音频内容的曝光率、点击率和完播放率;
距离当前时间的预设时间内,在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量。
6.根据权利要求5所述的一种基于内容画像的播单评分方法,其特征在于,通过所述模型对待预测播单生成统计特征和序列特征,并且将统计特征和序列特征输入模型,模型最终计算的结果是所述模型对所述待预测播单的评分。
7.根据权利要求6所述的一种基于内容画像的播单评分方法,其特征在于,所述模型的具体算法包括:
步骤S201,针对训练数据中的每个播单,使用n维向量表示每个音频在所述播单中的位置,每个音频的位置向量具体为:Flocation(n)=[x1,...,xk],其中0≦n≦k,n为每个音频在所述播单中的位置向量长度,k为位置向量长度;
步骤S202,根据所获取的每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、被点赞次数、正面评论数量和负面评论数量中每个特征分别与位置向量进行拼接,每个特征拼接位置向量后的向量作为一个field,每个field的拼接方式如下:
Ffield(n)=[Ffeature(n1),Fflocaton(n1),...,Ffeature(nk),Flocation(nk)],其中k为位置向量长度,通过计算以得到相对应的七个特征向量,每个特征向量分别为该播单针对每个原始特征的信息;
根据所获取的在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量中每个特征序列分别与位置向量进行拼接,每个特征拼接位置向量后的向量序列作为一个field,每个field的拼接方式如下:
Ffield_seq(n)=[Ffeature_seq(n1),Fflocaton(n1),...,Ffeature_seq(nk),Flocation(nk)]其中k为位置向量长度,通过计算以得到相对应的七个特征向量序列,每个特征向量序列分别为该播单针对每个原始特征序列的信息;
步骤S203,所述模型将步骤S202中计算所得的特征输入DNN(Deep Neural Networks深度神经网络),具体计算公式如下:
Dnn_k(Ffield(n))=[x1,x2...,xm]其中m为位置向量长度,Dnn_k为第k个feature训练的DNN模型,所述DNN模型的输入为固定维度的特征向量,维度为m,则输出为压缩后的特征向量,维度为s,s≦m,K个所述Dnn模型输出的embedding维度相同。
此外,所述模型将步骤S202中的序列特征输入Rnn(Recurrent Neural Networks循环神经网络),具体计算公式如下:
Rnn_k(Ffield_seq(n))=[x1,x2,...,xm],其中m为位置向量长度,Rnn_k为第k个feature序列训练的Rnn模型,所述Rnn模型的输入为固定维度的特征向量序列,维度为m,则输出为压缩后的特征向量,维度为s,s≦m,K个所述Rnn模型输出的embedding维度相同;
步骤S204,将步骤S203中七个DNN和七个Rnn的输出embedding按照固定顺序拼接,具体计算公式如下:
Fcombine(n)=[Dnn_0(Ffield(n)),Dnn_1(Ffield(n)),...,Dnn_k(Ffield(n)),Rnn_
0(Ffield_seq(n)),Rnn_1(Ffield_seq(n)),...,Rnn_k(Ffield_seq(n))],同时将拼接后的向量作为输入特征,输入新的DNN网络,新的DNN网络为DNN层连接sigmoid激活函数,且新DNN网络为Dnn_final(n)=sigmoid(w×Fcombine(n)+b);
步骤S205,按照步骤S204中的拼接方式进行拼接embedding向量,拼接后的向量输入fm模型,所述fm模型公式为:Yfm=+xj1×xj2(j1=(1,2,...,d),j2=(j1+1,j1+2,...,d)),其中d为embedding维度;
步骤S206,所述模型最终的输出计算公式为:y=sigmoid(Dnn_final(n)+Yfm),训练数据的真实标签是人工为该播单打的分数,损失函数为l2损失,参数更新使用批量下降。
8.根据权利要求1至7任一所述的一种基于内容画像的播单评分方法,其特征在于,在第一预设时间内实时动态收集所述音频的信息以再次生成所述播单中每个音频新的统计数据和序列数据,同时通过所述模型完成所述播单内容新的价值评估。
9.根据权利要求8所述的一种基于内容画像的播单评分方法,其特征在于,在第二预设时间内通过人工完成新播单内容的价值评估,并将所述新播单的评估数据添加到训练数据集以对所述模型进行微调训练。
10.根据权利要求1至7任一所述的一种基于内容画像的播单评分方法,其特征在于,所述模型采用Rnn与DeepFM的融合算法。

说明书全文

一种基于内容画像的播单评分方法

技术领域

[0001] 本发明涉及音频数据智能处理的技术领域,尤其涉及一种基于内容画像的播单评分方法。

背景技术

[0002] 随着互联网行业的飞速发展,人们越来越多的在互联网各大平台获取信息,各种信息通过文字、声音、视频等各种方式,搭载各种平台满足用户的各方面对于信息的需求。声音作为最主要的信息载体以及人们获取外界信息的最重要的渠道之一,扮演着越来越重要的色。由于声音不可见的特殊性,通过播单整合声音是人们获取各种声音信息最主要的方式,因此播单好坏的评价成为声音领域最重要的评价内容之一。
[0003] 现阶段,对于音频播单的评分方法,主要是采用人工的方式进行,采用人工的方式会有如下缺点:
[0004] (1)效率低,每个播单都通过人工的方式进行评价,占用的大量人
[0005] (2)不客观,声音播单承载的信息方方面面,人很难覆盖到所有维度的信息,并且给出很准确的价值评估。

发明内容

[0006] 本发明旨在至少在一定程度上解决现有相关技术中存在的问题之一,为此,本发明提出一种基于内容画像的播单评分方法,其设计合理,可智能化的完成音频播单相关的价值评分。
[0007] 上述目的是通过如下技术方案来实现的:
[0008] 一种基于内容画像的播单评分方法,所述评分方法包括:
[0009] 根据音频的内容信息构建内容画像系统;
[0010] 根据所构建的内容画像系统构建播单画像系统,所述播单画像系统用于描述所述音频与所述播单之间的关系;
[0011] 基于所构建的所述内容画像系统和所述播单画像系统,通过深度学习算法对所述音频的内容信息和所述播单的内容信息构建模型以完成所述播单内容的价值评估。
[0012] 在一些实施方式中,所述内容画像系统包括:
[0013] 获取所述音频的历史信息;
[0014] 根据所获取的音频信息,通过数据挖掘算法和数据统计算法构建所述内容画像系统。
[0015] 在一些实施方式中,所述音频的历史信息包括:
[0016] 静态信息,所述静态信息包括所述音频的上传时间、所属类目和时长;
[0017] 动态信息,所述动态信息包括所述音频的播放次数、播放总时长和评论数。
[0018] 在一些实施方式中,所述播单画像系统包括:
[0019] 获取所述播单的历史信息;
[0020] 根据所获取的播单信息,通过数据挖掘算法和数据统计算法构建所述播单画像系统。
[0021] 在一些实施方式中,其中所述播单的历史信息包括:
[0022] 所述播单中的音频顺序;
[0023] 所述播单中当前每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量、负面评论数量;
[0024] 所述播单中音频内容的曝光率、点击率和完播放率;
[0025] 距离当前时间的预设时间内,在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量。
[0026] 在一些实施方式中,通过所述模型对待预测播单生成统计特征和序列特征,并且将统计特征和序列特征输入模型,模型最终计算的结果是所述模型对所述待预测播单的评分。
[0027] 在一些实施方式中,所述模型的具体算法包括:
[0028] 步骤S201,针对训练数据中的每个播单,使用n维向量表示每个音频在所述播单中的位置,每个音频的位置向量具体为:Flocation(n)=[x1,...,xk],其中0≦n≦k,n为每个音频在所述播单中的位置向量长度,k为位置向量长度;
[0029] 步骤S202,根据所获取的每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、被点赞次数、正面评论数量和负面评论数量中每个特征据分别与位置向量进行拼接,每个特征拼接位置向量后的向量作为一个field,每个field的拼接方式如下:
[0030] Ffield(n)=[Ffeature(n1),Fflocaton(n1),...,Ffeature(nk),Flocation(nk)],其中k为位置向量长度,通过计算以得到相对应的七个特征向量,每个特征向量分别为该播单针对每个原始特征的信息;
[0031] 根据所获取的在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量中每个特征序列分别与位置向量进行拼接,每个特征拼接位置向量后的向量序列作为一个field,每个field的拼接方式如下:
[0032] Ffield_seq(n)=[Ffeature_seq(n1),Fflocaton(n1),...,Ffeature_seq(n k),Flocation(nk)]其中k为位置向量长度,通过计算以得到相对应的七个特征向量序列,每个特征向量序列分别为该播单针对每个原始特征序列的信息;
[0033] 步骤S203,所述模型将步骤S202中计算所得的特征输入dnn,具体计算公式如下:
[0034] Dnn_k(Ffield(n))=[x1,x2...,xm]其中m为位置向量长度,Dnn_k为第k个feature训练的DNN模型,所述DNN模型的输入为固定维度的特征向量,维度为m,则输出为压缩后的特征向量,维度为s,s≦m,K个所述Dnn模型输出的embedding维度相同。
[0035] 此外,所述模型将步骤S202中的序列特征输入Rnn,具体计算公式如下:
[0036] Rnn_k(Ffield_seq(n))=[x1,x2,...,xm],其中m为位置向量长度,Rnn_k为第k个feature序列训练的Rnn模型,所述Rnn模型的输入为固定维度的特征向量序列,维度为m,输出为压缩后的特征向量,维度为s,s≦m,K个所述Rnn模型输出的embedding维度相同;
[0037] 步骤S204,将步骤S203中七个DNN和七个Rnn的输出embedding按照固定顺序拼接,具体计算公式如下:
[0038] Fcombine(n)=[Dnn_0(Ffield(n)),Dnn_1(Ffield(n)),...,Dnn_k(Ffield(n)),Rnn_0(Ffield_seq(n)),Rnn_1(Ffield_seq(n)),...,Rnn_k(Ffield_seq(n))],同时将拼接后的向量作为输入特征,输入新的DNN网络,新的DNN网络为DNN层连接sigmoid激活函数,且新的DNN网络为Dnn_final(n)=sigmoid(w×
[0039] Fcombine(n)+b);
[0040] 步骤S205,按照步骤S204中的拼接方式进行拼接embedding向量,拼接后的向量输入FM模型,所FM模型公式为:Yfm=+xj 1×xj2
[0041] (j1=(1,2,...,d),j2=(j1+1,j1+2,...,d)),其中d为embedding维度;
[0042] 步骤S206,所述模型最终的输出计算公式为:y=sigmoid(Dnn_final(n)+Yfm),训练数据的真实标签是人工为该播单打的分数,损失函数为l2损失,参数更新使用批量下降。
[0043] 在一些实施方式中,在第一预设时间内实时动态收集所述音频的信息以再次生成所述播单中每个音频新的统计数据和序列数据,同时通过所述模型完成所述播单内容新的价值评估。
[0044] 在一些实施方式中,在第二预设时间内通过人工完成新播单内容的价值评估,并将所述新播单的评估数据添加到训练数据集以对所述模型进行微调训练。
[0045] 在一些实施方式中,所述模型采用Rnn与DeepFM的融合算法。
[0046] 与现有技术相比,本发明的至少包括以下有益效果:
[0047] 1.本发明基于内容画像的播单评分方法,其设计合理,可智能化的完成音频播单相关的价值评分。附图说明
[0048] 图1是本发明实施例中播单评分方法的流程示意图。

具体实施方式

[0049] 为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明请求保护的技术方案范围。
[0050] 如图1所示,本实施例提供一种基于内容画像的播单评分方法,基于所构建的内容画像系统和播单画像系统,通过使用大数据相关数据挖掘技术和人工智能算法以智能化的、客观的完成播单内容的价值评分。
[0051] 播单评分方法具体包括如下步骤:
[0052] 步骤S101,根据音频的内容信息构建内容画像系统。
[0053] 在本实施例中,获取音频的历史信息,根据所获取的音频信息,通过数据挖掘算法和数据统计算法构建内容画像系统,本实施例中音频的历史信息具体包括静态信息和动态信息,其中静态信息包括音频的上传时间、所属类目和时长;动态信息包括音频的播放次数、播放总时长和评论数。
[0054] 步骤S102,根据所构建的内容画像系统构建播单画像系统,播单画像系统用于描述音频与播单之间的关系。
[0055] 在本实施例中,获取播单的历史信息,根据所获取的播单信息,通过数据挖掘算法和数据统计算法构建播单画像系统,播单的历史信息具体包括播单中的音频顺序;播单中当前每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量、负面评论数量;
[0056] 播单中音频内容的曝光率、点击率和完播放率;距离当前时间的预设时间内,在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量。
[0057] 步骤S103,基于所构建的内容画像系统和播单画像系统,通过深度学习算法对音频的内容信息和播单的内容信息构建模型以完成播单内容的价值评估。
[0058] 在本实施例中,通过模型对待预测播单生成统计特征和序列特征,并且将统计特征和序列特征输入模型,模型最终计算的结果是模型对待预测播单的评分。
[0059] 在本实施例中,模型采用Rnn与DeepFM的融合算法,其中Rnn为循环神经网络,即根据播单中每个音频的历史信息提取播单中每个音频的热度发展趋势信息。
[0060] 步骤S104,在第一预设时间内实时动态收集音频的信息以再次生成播单中每个音频新的统计数据和序列数据,同时通过模型完成播单内容新的价值评估。
[0061] 在本实施例中,第一预设时间优选为一周,也可以为两周或者10天,当然还可以根据实际需要选择合适的预设时间,即每周重新生成播单内音频节目的统计数据和序列数据,重新通过模型为播单内容进行评分。
[0062] 在本实施例中,在第二预设时间内通过人工完成新播单的内容价值评估,并将新播单的评估数据添加到训练数据集以对模型进行微调训练,第二预设时间优选为一个月,也可以为半个月或者两个月,当然还可以根据实际需要选择合适的预设时间,即每个月人工为一批新播单打分,添加到训练数据集后微调训练模型。
[0063] 此外,步骤S103中模型的算法具体包括:
[0064] 步骤S201,针对训练数据中的每个播单,使用n维向量表示每个音频在播单中的位置,每个音频的位置向量具体为:Flocation(n)=[x1,...,xk],其中0≦n≦k,n为每个音频在所述播单中的位置向量长度,k为位置向量长度,此外,n为超参时可根据算法效果调整。
[0065] 在本实施例中,xk优选为1,当然还可以根据实际需要设置合适的数值,若xk=1时,其余的X数值均为0。
[0066] 步骤S202,根据所获取的每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、被点赞次数、正面评论数量和负面评论数量的7个特征分别与位置向量进行拼接,每个特征拼接位置向量后的向量作为一个field,每个field的拼接方式如下:
[0067] Ffield(n)=[Ffeature(n1),Fflocaton(n1),...,Ffeature(nk),Flocation(nk)],其中k为位置向量长度,通过计算以得到相对应的七个特征向量,每个特征向量分别为该播单针对每个原始特征的信息;
[0068] 根据所获取的在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量中每个特征序列的数据分别与位置向量进行拼接,每个特征拼接位置向量后的向量序列作为一个field,每个field的拼接方式如下:
[0069] Ffield_seq(n)=[Ffeature_seq(n1),Fflocaton(n1),...,Ffeature_seq(n k),Flocation(nk)]其中k为位置向量长度,通过计算以得到相对应的七个特征向量序列,每个特征向量序列分别为该播单针对每个原始特征序列的信息;
[0070] 步骤S203,模型将步骤S202中计算所得的特征输入dnn,dnn为深度神经网络,具体计算公式如下:
[0071] Dnn_k(Ffield(n))=[x1,x2…,xm]其中m为位置向量长度,若m为超参时可根据效果调整,Dnn_k为第k个feature训练的DNN模型,DNN模型的输入为固定维度的特征向量,维度为m,输出为压缩后的特征向量,维度为s,s≦m,DNN模型为一个DNN层叠加,DNN模型的深度及每个层的节点数根据效果调整,K个DNN模型输出的embedding维度相同。
[0072] 此外,模型将步骤S202中的序列特征输入Rnn,Rnn为循环神经网络,具体计算公式如下:
[0073] Rnn_k(Ffield_seq(n))=[x1,x2,…,xm],其中m为位置向量长度,若m为超参时可根据效果调整,Rnn_k为第k个feature序列训练的Rnn模型,Rnn模型的输入为固定维度的特征向量序列,维度为m,输出为压缩后的特征向量,维度为s,s≦m,Rnn模型为一个Rnn层叠加,Rnn模型的深度及每个层的节点数根据效果调整,K个Rnn模型输出的embedding维度相同;
[0074] 步骤S204,将步骤S203中七个DNN和七个Rnn的输出embedding按照固定顺序拼接,具体计算公式如下:
[0075] Fcombine(n)=[Dnn_0(Ffield(n)),Dnn_1(Ffield(n)),...,Dnn_k(Ffield(n)),Rnn_0(Ffield_seq(n)),Rnn_1(Ffield_seq(n)),...,Rnn_k(Ffield_seq(n))],同时将拼接后的向量作为输入特征,输入新的DNN网络,新的DNN网络为DNN层连接sigmoid激活函数,网络的深度和每层节点数作为超参根据效果优化,并且新的DNN网络为Dnn_final(n)=sigmoid(w×Fcombine(n)+b);
[0076] 步骤S205,按照步骤S204中的拼接方式进行拼接embedding向量,拼接后的向量输入FM模型,FM模型公式为:Yfm=+xj 1×xj2(j1=(1,2,…,d),j2=(j1+1,j1+2,…,d)),其中d为embedding维度;
[0077] 步骤S206,模型最终的输出计算公式为:y=sigmoid(Dnn_final(n)+Yfm),训练数据的真实标签是人工为该播单打的分数,损失函数为l2损失,参数更新使用批量下降。
[0078] 以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈