第一句子网 - 唯美句子、句子迷、好句子大全
第一句子网 > 概率潜在语义分析(pLSA) 相关知识

概率潜在语义分析(pLSA) 相关知识

时间:2019-06-14 14:52:35

相关推荐

概率潜在语义分析(pLSA) 相关知识

文章目录

生成模型共现模型模型性质共现模型表示PLSA算法

概率潜在语义分析(PLSA)是一种利用概率生成模型对文本集合进行话题分析的无监督方法。PLSA 模型假设每个文本由一个话题分布决定,每个话题由一个单词分布决定。该模型中的话题是不可直接观测到的,是潜在的隐变量。整个模型表示文本生成话题,话题生成单词,从而得到单词—文本共现数据的过程。

生成模型

假设有M个单词集合W={w1,w2.…,wM}W=\{w_1,w_2.\ldots,w_M\}W={w1​,w2​.…,wM​},N个文本集合D={d1,d2,…,dN}D=\{d_1,d_2,\ldots,d_N\}D={d1​,d2​,…,dN​},K个话题集合Z={z1,z2,…,zK}Z=\{z_1,z_2,\ldots,z_K\}Z={z1​,z2​,…,zK​}。假设用概率分布P(d)P(d)P(d)表示生成文本ddd 的概率,P(z∣d)P(z|d)P(z∣d) 表示文本ddd生成话题zzz 的概率,P(w∣z)P(w|z)P(w∣z) 表示话题zzz 生成单词www的概率。

生成模型步骤如下:

(1)依据概率分布P(d)P(d)P(d) ,从文本集合中随机选取一个文本ddd,共生成NNN个文本。对生成的N个文本都执行下面的操作:

(2)在给定文本 ddd 的条件下,依据条件概率分布P(z∣d)P(z|d)P(z∣d) ,从话题集合中随机选取一个话题zzz,共生成LLL个话题。对生成的LLL个话题都执行下面的操作:

(3)在给定话题zzz的条件下,依据条件概率分布P(w∣z)P(w|z)P(w∣z) ,从单词集合中随机选取一个单词www。

从数据生成的过程可以推出,单词—文本共现数据TTT的生成概率为所有的单词—文本对(w,d)(w,d)(w,d) 的生成概率的乘积:

P(T)=∏w,dP(w,d)n(w,d)P(T) = \prod_{w,d} P(w,d)^{n(w,d)} P(T)=w,d∏​P(w,d)n(w,d)

其中,n(w,d)n(w,d)n(w,d) 表示(w,d)(w,d)(w,d) 出现的次数,而(w,d)(w,d)(w,d) 的生成概率如下:

P(w,d)=P(d)P(w∣d)=P(d)∑zP(w,z∣d)=P(d)∑zP(z∣d)P(w∣z)\begin{aligned} P(w,d) & =P(d)P(w|d) \\ &= P(d)\sum_{z} P(w,z|d) \\ & = P(d)\sum_{z} P(z|d)P(w|z) \end{aligned} P(w,d)​=P(d)P(w∣d)=P(d)z∑​P(w,z∣d)=P(d)z∑​P(z∣d)P(w∣z)​

这就是生成模型的定义。生成模型属于概览有向图模型,可以用下图表示:

共现模型

除了生成模型,还可以定义与之等价的共现模型,共现模型假设在给定话题zzz的前提下,单词www和文本ddd 是条件独立的,即:

P(w,d∣z)=P(w∣z)P(d∣z)P(w,d|z) = P(w|z)P(d|z) P(w,d∣z)=P(w∣z)P(d∣z)

于是单词—文本对(w,d)(w,d)(w,d) 的生成概率为:

P(w,d)=∑z∈ZP(z)P(w∣z)P(d∣z)P(w,d) = \sum_{z\in Z} P(z)P(w|z)P(d|z) P(w,d)=z∈Z∑​P(z)P(w∣z)P(d∣z)

下图是共现模型示意图,其中zzz是隐变量:

生成模型与共现模型具有不同性质,生成模型描述了文本—单词共现数据的生成过程,共现模型描述文本—单词共现数据所拥有的模式。

模型性质

如果直接定义单词与文本的共现概率P(w,d)P(w,d)P(w,d) ,模型的参数个数是O(M⋅N)O(M\cdot N)O(M⋅N),其中M表示单词数,N表示文本数。而PLSA的生成模型或者共现模型的参数个数都是O(M⋅K+N⋅K)O(M\cdot K+ N\cdot K)O(M⋅K+N⋅K),其中K是话题数,远小于M,可以极大的减少参数个数。如下图所示:

共现模型表示

前面提到共现模型为:

P(w,d)=∑z∈ZP(z)P(w∣z)P(d∣z)P(w,d) = \sum_{z\in Z} P(z)P(w|z)P(d|z) P(w,d)=z∈Z∑​P(z)P(w∣z)P(d∣z)

也可以表示为三个矩阵的乘积的形式:

X′=U′Σ′V′TX′=[P(w,d)]M×NU′=[P(w∣z)]M×KΣ′=[P(z)]K×KV′=[P(d∣z)]N×K\begin{aligned} &X' = U'\Sigma' V'^T \\ & X' = [P(w,d)]_{M\times N} \\ & U' = [P(w|z)]_{M\times K}\\ & \Sigma' = [P(z)]_{K\times K}\\ & V' = [P(d|z)]_{N\times K}\\ \end{aligned} ​X′=U′Σ′V′TX′=[P(w,d)]M×N​U′=[P(w∣z)]M×K​Σ′=[P(z)]K×K​V′=[P(d∣z)]N×K​​

其中,矩阵U′,V′U',V'U′,V′是非负的、规范的,表示条件概率分布。

PLSA算法

PLSA是含有隐变量的模型,通常使用EM算法完成参数的优化。

假设单词集合W={w1,w2.…,wM}W=\{w_1,w_2.\ldots,w_M\}W={w1​,w2​.…,wM​},文本集合D={d1,d2,…,dN}D=\{d_1,d_2,\ldots,d_N\}D={d1​,d2​,…,dN​},话题集合Z={z1,z2,…,zK}Z=\{z_1,z_2,\ldots,z_K\}Z={z1​,z2​,…,zK​}。给定单词—文本共现数据T={n(wi,dj)},i=1,2,…,M;j=1,2,…,NT=\{n(w_i,d_j)\},i=1,2,\ldots,M; j=1,2,\ldots,NT={n(wi​,dj​)},i=1,2,…,M;j=1,2,…,N,目标是估计PLSA(生成模型)的参数,使用极大似然估计,对数似然函数是:

L(θ)=log⁡∏i=1M∏j=1NP(dj,wi)n(dj,wi)=∑iM∑jNn(dj,wi)log⁡P(dj,wi)=∑iM∑jNn(dj,wi)log⁡[∑k=1KP(wi∣zk)P(zk∣dj)]\begin{aligned}L(\theta)&=\log \prod_{i=1}^M\prod_{j=1}^N P(d_j,w_i)^{n(d_j,w_i)}\\ &=\sum_i^M\sum_j^N n(d_j,w_i)\log P(d_j,w_i)\\ &=\sum_i^M\sum_j^N n(d_j,w_i)\log[\sum_{k=1}^K P(w_i|z_k)P(z_k|d_j)]\\ \end{aligned} L(θ)​=logi=1∏M​j=1∏N​P(dj​,wi​)n(dj​,wi​)=i∑M​j∑N​n(dj​,wi​)logP(dj​,wi​)=i∑M​j∑N​n(dj​,wi​)log[k=1∑K​P(wi​∣zk​)P(zk​∣dj​)]​

模型含有隐变量,对数似然函数的优化方法无法用解析方法求解,使用EM算法进行求解。假设有M个单词集合W={w1,w2.…,wM}W=\{w_1,w_2.\ldots,w_M\}W={w1​,w2​.…,wM​},N个文本集合D={d1,d2,…,dN}D=\{d_1,d_2,\ldots,d_N\}D={d1​,d2​,…,dN​},K个话题集合Z={z1,z2,…,zK}Z=\{z_1,z_2,\ldots,z_K\}Z={z1​,z2​,…,zK​},则具体算法如下:

输入:单词—文本共现数据T={n(wi,dj)},i=1,2,…,M;j=1,2,…,NT=\{n(w_i,d_j)\},i=1,2,\ldots,M; j=1,2,\ldots,NT={n(wi​,dj​)},i=1,2,…,M;j=1,2,…,N

输出:P(wi∣zk),P(zk∣dj)P(w_i|z_k),P(z_k|d_j)P(wi​∣zk​),P(zk​∣dj​)

(1)设置参数P(wi∣zk),P(zk∣dj)P(w_i|z_k),P(z_k|d_j)P(wi​∣zk​),P(zk​∣dj​)的初始值。

(2)迭代执行E步,M步,直到收敛为止:

​ E步:

P(zk∣wi,dj)=P(wi∣zk)P(zk∣dj)∑k=1KP(wi∣zk)P(zk∣dj)P(z_k|w_i,d_j) = \frac{P(w_i|z_k)P(z_k|d_j)}{\sum_{k=1}^K P(w_i|z_k)P(z_k|d_j)} P(zk​∣wi​,dj​)=∑k=1K​P(wi​∣zk​)P(zk​∣dj​)P(wi​∣zk​)P(zk​∣dj​)​

​ M步:

P(wi∣zk)=∑j=1Nn(wi,dj)P(zk∣wi,dj)∑i=1M∑j=1Nn(wi,dj)P(zk∣wi,dj)P(w_i|z_k) = \frac{\sum_{j=1}^N n(w_i,d_j)P(z_k|w_i,d_j)}{\sum_{i=1}^M\sum_{j=1}^N n(w_i,d_j)P(z_k|w_i,d_j)} P(wi​∣zk​)=∑i=1M​∑j=1N​n(wi​,dj​)P(zk​∣wi​,dj​)∑j=1N​n(wi​,dj​)P(zk​∣wi​,dj​)​

P(zk∣dj)=∑i=1Mn(wi,dj)P(zk∣wi,dj)n(dj)P(z_k|d_j) = \frac{\sum_{i=1}^M n(w_i,d_j)P(z_k|w_i,d_j)}{n(d_j)} P(zk​∣dj​)=n(dj​)∑i=1M​n(wi​,dj​)P(zk​∣wi​,dj​)​

参考文章:

《统计学习方法 第二版》

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。