首页 / 专利库 / 企业组织 / 流程图 / 一种改进的密度文本聚类算法

一种改进的密度文本聚类算法

阅读:121发布:2020-08-31

专利汇可以提供一种改进的密度文本聚类算法专利检索,专利查询,专利分析的服务。并且一种改进的 密度 文本聚类 算法 ,利用分词技术对文本分词处理,匹配停用词表对词汇进行去停用词操作,根据调研统计,得出一系列词汇 位置 和词性权重值,根据词汇在文本中的权重和词汇在文本库中的权重 构造目标函数提取文本特征词汇向量,再利用改进的基于密度中心算法,对文本库进行聚类;本 发明 比传统文本特征词汇提取方法准确度更高,具有更好的应用价值, 数据处理 效果好,克服了信息增益方法的缺点,结果更符合经验值,解决了文本特征词汇高维稀疏的问题,大大降低噪声和孤立点对簇分类的影响,有利于发现任意形状的簇,同时计算了不同词汇对文本思想的贡献度。,下面是一种改进的密度文本聚类算法专利的具体信息内容。

1.一种改进的密度文本聚类算法,本发明涉及语义网络技术领域,具体涉及一种改进的密度文本聚类算法,其特征是,包括如下步骤:
步骤1:初始化文本库,对文本进行预处理过程,其具体预处理技术如下:
步骤1.1:分词是文本预处理的第一个步骤,在英文文本中,词语间由空格隔开,因此不需要这一步骤,而中文文本中,词之间是没有空格的,必须进行分词处理,具体分词技术如下:
步骤1.1.1:根据《分词词典》找到待分词句子中与词典中匹配的词,把待分词的汉字串完整的扫描一遍,在系统的词典里进行查找匹配,遇到字典里有的词就标识出来;如果词典中不存在相关匹配,就简单地分割出单字作为词;直到汉字串为空
步骤1.1.2:依据概率统计学,将待分词句子拆分为网状结构,即得n个可能组合的句子结构,把此结构每条顺序节点依次规定为 ,其结构图如图2所示
步骤1.3:基于信息论方法,给上述网状结构每条边赋予一定的权值,其具体计算过程如下:
根据《分词词典》匹配出的字典词与未匹配的单个词,第i条路径包含词的个数为 ,即n条路径词的个数集合为

在上述留下的剩下的(n-m)路径中,求解每条相邻路径的权重大小
在统计语料库中,计算每个词的信息量 ,再求解路径相邻词的共现信息量,既有下式:
上式 为文本语料库中词 的信息量, 为含词 的文本信息量
上式 为 在文本语料库中的概率,n为含词 的文本语料库的个数
上式 为含词 的文本数概率值,N为统计语料库中文本总数
同理
为在文本语料库中词 的共现信息量, 为相邻词
共现的文本信息量
同理
上式 为在文本语料库中词 的共现概率,m为在文本库中词
共现的文本数量
为文本库中相邻词 共现的文本数概率
综上可得每条相邻路径的权值为
步骤1.4:找到权值最大的一条路径,即为待分词句子的分词结果,其具体计算过程如下:
有n条路径,每条路径长度不一样,假设路径长度集合为
假设经过取路径中词的数量最少操作,排除了m条路径,m则每条路径权重为:
上式 分别为第1,2到 路径边
的权重值,根据步骤1.4可以一一计算得出, 为剩下(n-m)路径中第 条路径的长度
权值最大的一条路径:
步骤1.2:去停用词为中文文本预处理第二步骤,根据停用表对文本词汇进行去停用词处理,其具体描述如下:
停用词是指在文本中出现频率高,但对于文本标识却没有太大作用的单词,去停用词的过程就是将特征项与停用词表中的词进行比较,如果匹配就将该特
征项删除
综合分词和删除停用词技术,中文文本预处理过程流程图如图3
步骤2:根据词汇在文本中的位置得到一系列词汇位置权重值 ,其具体描述如下:
各个词在文本中的分布是不同的,而不同位置的词对于表示文本内容的能也是不同的,这个可以根据统计调查得出一系列的位置权重值
步骤3:根据词汇在文本中的词性得到一系列词汇词性权重值 、 、 、 ,其具体描述如下:
现代汉语语法中,一个句子主要由主语、谓语、宾语、定语和状语等成分构成,从词性的度看,名词一般担当主语和宾语的角色,动词一般担当谓语的角色,形容词和副词一般担当定语的角色,词性的不同,造成了它们对文本或者句子的表示内容的能力的不一样,根据调查统计得出名词、动词、形容词、副词的权重值依次为 、 、 和 ,且
步骤4:综合上述位置与词性,根据词汇在文本中信息量,得到词汇在文本中的权重和词汇在文本库中的权重 ,归一化处理上述因子,得到提取特征词汇的目标函数步骤5:利用改进的基于密度的中心算法,对文本库进行聚类。
2.根据权利要求1中所述的一种改进的密度文本聚类算法,其特征是,以上所述步骤4中的具体计算过程如下:
步骤4:综合上述位置与词性,根据词汇在文本中信息量,得到词汇在文本中的权重和词汇在文本库中的权重 ,归一化处理上述因子,得到提取特征词汇的目标函数 ,其具体计算过程如下:
上式h为特征词汇i在文本中出现的段落数, 为第j段的位置权重值,
, 为词汇i的词性权重值, , 为词汇
i在第j段出现的次数, 为词汇i所在文本中特征词汇集合的总个数
为文本库中文本的数量, 为词汇i在第w文本中概率, 为词汇i在文本库中的平均概率
词汇在文本中的权重 和词汇在文本库中的权重 进行归一化处理,得 :
r为文本中特征词汇的个数
设定一个合适的目标函数阈值y,提取文本的特征词汇向量,有下式:
满足上式,即为文本的特征词汇。
3.根据权利要求1中所述的一种改进的密度文本聚类算法,其特征是,以上所述步骤5中的具体计算过程如下:
步骤5:利用改进的基于密度中心算法,对文本库进行聚类,其具体子步骤如下:
步骤5.1:对于数据对象集合中的每一对象,即文本特征词汇向量 计算 领域内的对象数目;
步骤5.2:如果文本特征词汇向量 的 邻域包含的数据对象数目大于或等于设定好的阈值N ,则建一个以 为核心对象的簇M,簇中包含 的 邻域内所有对象步骤5.3:利用下式m函数寻找核心对象密度可达的对象,并将其包含到簇M中,其具体计算过程如下:
为当前文本特征词汇向量 到 中心点的距离, 为当前文本特征词汇
向量 到空间全局中心点的距离,相似度与距离成反比,所以取更小的N个向量归为一类分类
步骤5.4:转到步骤5.3,直到没有新的数据对象添加到簇中。

说明书全文

一种改进的密度文本聚类算法

技术领域

[0001] 本发明涉及语义网络技术领域,具体涉及一种改进的密度文本聚类算法

背景技术

[0002] 文本聚类是数据挖掘领域中的一个重要分支,尤其在信息量迅速增长的当今社会,文本聚类能够在人们日常的生产生活中起到重要作用。国内外围绕着文本聚类这一课题进行了大量的研究,并有了些初步的成果,但是从目前的研究状况来看,文本聚类仍有很多地方需要改进。在文本聚类数学模型方面,基于Markov过程的n-gram模型和Salton向量空间模型是比较常见和有效的文本数学模型。其中VSM模型理论简单,效果良好而在文本聚类中被广为应用,但其模型有着高维稀疏的缺点,随着硬件的飞速发展,文本聚类处理将研究重点相对的从过去的如何降低算法时间和空间复杂度转向追求聚类结果的精确度,这促使了文本中语义逻辑的研究。为了满足上述需求,本发明提供了一种改进的密度文本聚类算法。

发明内容

[0003] 针对于模型有着高维稀疏的缺点和聚类结果精度不足的问题,本发明提供了一种改进的密度文本聚类算法。
[0004] 为了解决上述问题,本发明是通过以下技术方案实现的:
[0005] 步骤1:初始化文本库,对文本进行预处理过程;
[0006] 步骤2:根据词汇在文本中的位置得到一系列词汇位置权重值(α1,α2,…,αn);
[0007] 步骤3:根据词汇在文本中的词性得到一系列词汇词性权重值β1、β2、β3、β4;
[0008] 步骤4:综合上述位置与词性,根据词汇在文本中信息量,得到词汇在文本中的权重wi和词汇在文本库中的权重Sw,归一化处理上述因子,得到提取特征词汇的目标函数f(w)。
[0009] 步骤5:利用改进的基于密度中心算法,对文本库进行聚类;
[0010] 本发明有益效果是:
[0011] 1、此方法比传统的词频-反文档频率方法得到的特征词汇集合的准确度更高。
[0012] 2、此方法克服了信息增益方法只适合用来提取一个类别的文本特征的缺点。
[0013] 3、此算法具有更大的利用价值。
[0014] 4、此方法计算了特征词汇中不同词汇对文本思想的贡献度。
[0015] 5、此方法大大降低噪声和孤立点对簇分类的影响。
[0016] 6、有利于发现任意形状的簇。
[0017] 7、文本聚类结果更符合经验值。附图说明
[0018] 图1一种改进的密度文本聚类算法的结构流程图
[0019] 图2 n元语法分词算法图解
[0020] 图3中文文本预处理过程流程图
[0021] 图4改进的基于密度中心算法的文本聚类结构流程图

具体实施方式

[0022] 为了解决模型有着高维稀疏和聚类结果精度不足的问题,结合图1-图4对本发明进行了详细说明,其具体实施步骤如下:
[0023] 步骤1:初始化文本库,对文本进行中文预处理过程,其具体预处理技术如下:
[0024] 步骤1.1:分词是文本预处理的第一个步骤。在英文文本中,词语间由空格隔开,因此不需要这一步骤,而中文文本中,词之间是没有空格的,必须进行分词处理,具体分词技术如下:
[0025] 步骤1.1.1:根据《分词词典》找到待分词句子中与词典中匹配的词,把待分词的汉字串完整的扫描一遍,在系统的词典里进行查找匹配,遇到字典里有的词就标识出来;如果词典中不存在相关匹配,就简单地分割出单字作为词;直到汉字串为空。
[0026] 步骤1.1.2:依据概率统计学,将待分词句子拆分为网状结构,即得n个可能组合的句子结构,把此结构每条顺序节点依次规定为SM1M2M3M4M5E,其结构图如图2所示。
[0027] 步骤1.1.3:基于信息论方法,给上述网状结构每条边赋予一定的权值,其具体计算过程如下:
[0028] 根据《分词词典》匹配出的字典词与未匹配的单个词,第i条路径包含词的个数为ni。即n条路径词的个数集合为(n1,n2,…,nn)。
[0029] 得 min()=min(n1,n2,…,nn)
[0030] 在上述留下的剩下的(n-m)路径中,求解每条相邻路径的权重大小。
[0031] 在统计语料库中,计算每个词的信息量X(Ci),再求解路径相邻词的共现信息量X(Ci,Ci+1)。既有下式:
[0032] X(Ci)=|x(Ci)1-x(Ci)2|
[0033] 上式x(Ci)1为文本语料库中词Ci的信息量,x(Ci)2为含词Ci的文本信息量。
[0034] X(Ci)1=-p(Ci)1lnp(Ci)1
[0035]
[0036] 上式p(Ci)1为Ci在文本语料库中的概率,n为含词Ci的文本语料库的个数。
[0037] X(Ci)2=-p(Ci)2lnp(Ci)2
[0038]
[0039] 上式p(Ci)2为含词Ci的文本数概率值,N为统计语料库中文本总数。
[0040] 同理 X(Ci,Ci+1)=|x(Ci,Ci+1)1-x(Ci,Ci+1)2|
[0041] x(Ci,Ci+1)1为在文本语料库中词(Ci,Ci+1)的共现信息量,x(Ci,Ci+1)2为相邻词(Ci,Ci+1)共现的文本信息量。
[0042] 同理 x(Ci,Ci+1)1=-p(Ci,Ci+1)1lnp(Ci,Ci+1)1
[0043]
[0044] 上式p(Ci,Ci+1)1为在文本语料库中词(Ci,Ci+1)的共现概率,m为在文本库中词(Ci,Ci+1)共现的文本数量。
[0045] x(Ci,Ci+1)2=-p(Ci,Ci+1)2lnp(Ci,Ci+1)2
[0046]
[0047] p(Ci,Ci+1)2为文本库中相邻词(Ci,Ci+1)共现的文本数概率。
[0048] 综上可得每条相邻路径的权值为
[0049] w(Ci,Ci+1)=X(Ci)+X(Ci+1)-2X(Ci,Ci+1)
[0050] 步骤1.1.4:找到权值最大的一条路径,即为待分词句子的分词结果,其具体计算过程如下:
[0051] 有n条路径,每条路径长度不一样,假设路径长度集合为(L1,L2,…,Ln)。
[0052] 假设经过取路径中词的数量最少操作,排除了m条路径,m
[0053] 则每条路径权重为:
[0054]
[0055] 上式 分别为第1,2到路径边的权重值,根据步骤1.4可以一一计算得出, 为剩下(n-m)路径中第Sj条
路径的长度。
[0056] 权值最大的一条路径:
[0057]
[0058] 步骤1.2:去停用词为中文文本预处理第二步骤,根据停用表对文本词汇进行去停用词处理,其具体描述如下:
[0059] 停用词是指在文本中出现频率高,但对于文本标识却没有太大作用的单词。去停用词的过程就是将特征项与停用词表中的词进行比较,如果匹配就将该特征项删除。
[0060] 综合分词和删除停用词技术,中文文本预处理过程流程图如图3。
[0061] 步骤3:根据词汇在文本中的位置得到一系列词汇位置权重值(α1,α2,…,αn),其具体描述如下:
[0062] 各个词在文本中的分布是不同的,而不同位置的词对于表示文本内容的能也是不同的。这个可以根据统计调查得出一系列的位置权重值(α1,α2,…,αn)。
[0063] 步骤4:根据词汇在文本中的词性得到一系列词汇词性权重值β1、β2、β3、β4,其具体描述如下:
[0064] 现代汉语语法中,一个句子主要由主语、谓语、宾语、定语和状语等成分构成。从词性的度看,名词一般担当主语和宾语的角色,动词一般担当谓语的角色,形容词和副词一般担当定语的角色。词性的不同,造成了它们对文本或者句子的表示内容的能力的不一样。根据调查统计得出名词、动词、形容词、副词的权重值依次为β1、β2、β3和β4,且β1>β2>β3>β4。
[0065] 步骤4:综合上述位置与词性,根据词汇在文本中信息量,得到词汇在文本中的权重wi和词汇在文本库中的权重Siw,归一化处理上述因子,得到提取特征词汇的目标函数f(w),其具体计算过程如下:
[0066]
[0067] 上式h为特征词汇i在文本中出现的段落数,αij为第j段的位置权重值,αij∈(α1,α2,…,αn),βiv为词汇i的词性权重值,βiv∈(β1,β2,β3,β4),nij为词汇i在第j段出现的次数,Niw为词汇i所在文本中特征词汇集合的总个数。
[0068]
[0069] nw为文本库中文本的数量,piw为词汇i在第w文本中概率, 为词汇i在文本库中的平均概率。
[0070]
[0071] 词汇在文本中的权重wi和词汇在文本库中的权重Siw进行归一化处理,得f(w):
[0072]
[0073] r为文本中特征词汇的个数。
[0074] 设定一个合适的目标函数阈值y,提取文本的特征词汇向量,有下式:
[0075] f(w)>y
[0076] 满足上式,即为文本的特征词汇。
[0077] 步骤5:利用改进的基于密度中心算法,对文本库进行聚类,其具体子步骤如下:
[0078] 步骤5.1:对于数据对象集合中的每一对象,即文本特征词汇向量 计算ε领域内的对象数目;
[0079] 步骤5.2:如果文本特征词汇向量 的ε邻域包含的数据对象数目大于或等于设定好的阈值N,则建一个以 为核心对象的簇M,簇中包含 的ε邻域内所有对象。
[0080] 步骤5.3:利用下式m函数寻找核心对象密度可达的对象,并将其包含到簇M中,其具体计算过程如下:
[0081]
[0082] 为当前文本特征词汇向量 到 中心点的距离, 为当前文本特征词汇向量 到空间全局中心点的距离。相似度与距离成反比,所以取更小的N个向量归为一
类分类。
[0083] 步骤5.4:转到步骤5.3,直到没有新的数据对象添加到簇中;
[0084] 一种改进的密度文本聚类算法,其伪代码计算过程如下:
[0085] 输入:初始化文本库
[0086] 输出:文本聚类的结果。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈