服从泊松分布的潜变量 z

详细推导期望值 (E(Z_i)) 的计算过程,并使用相关领域的专业术语来解释。

期望值 (E(Z_i)) 的推导

我们引入潜变量 (Z_i),使其服从泊松分布:

Z_i \sim \text{Poisson}\left(\lambda\right)

泊松分布的概率质量函数为:

P(Z_i = z_i) = \frac{\lambda_i^{z_i} e^{-\lambda_i}}{z_i!}

期望步骤(E步骤)

在E步骤中,我们计算潜变量的期望值,给定当前参数估计 (\Theta^{(k)}) 和观测数据:

泊松分布的期望值为其参数 (\lambda_i),即:

E(Z_i) = \lambda_i

由于我们有删失数据,我们需要考虑删失指示符 (\delta_i)。当 (\delta_i = 1) 时,表示事件发生;当 (\delta_i = 0) 时,表示事件未发生。

在给定删失指示符 (\delta_i) 的条件下,潜变量 (Z_i) 的期望值为:

E(Z_i \mid \delta_i) = \int_{0}^{\infty} z_i P(Z_i = z_i \mid \delta_i) dz_i

根据贝叶斯定理,我们有:

P(Z_i = z_i \mid \delta_i) = \frac{P(\delta_i \mid Z_i = z_i) P(Z_i = z_i)}{P(\delta_i)}

其中,(P(\delta_i \mid Z_i = z_i)) 是删失指示符的条件概率,(P(Z_i = z_i)) 是泊松分布的概率质量函数,(P(\delta_i)) 是删失指示符的边际概率。

对于泊松分布,我们有:

P(Z_i = z_i) = \frac{\lambda_i^{z_i} e^{-\lambda_i}}{z_i!}

对于删失指示符,我们有:

P(\delta_i = 1 \mid Z_i = z_i) = 1 \quad \text{if} \quad z_i > 0

P(\delta_i = 0 \mid Z_i = z_i) = 1 \quad \text{if} \quad z_i = 0

因此,条件概率可以写成:

P(Z_i = z_i \mid \delta_i = 1) = \frac{\lambda_i^{z_i} e^{-\lambda_i}}{z_i! (1 - e^{-\lambda_i})} \quad \text{for} \quad z_i > 0

P(Z_i = z_i \mid \delta_i = 0) = \frac{e^{-\lambda_i}}{1 - e^{-\lambda_i}} \quad \text{for} \quad z_i = 0

结合这些条件概率,我们可以计算期望值:

E(Z_i \mid \delta_i = 1) = \frac{\lambda_i}{1 - e^{-\lambda_i}}

将 (\lambda_i) 代入即可


好的,我们来推导一下在给定 (\delta_i = 1) 的条件下,(Z_i) 的期望值 (E(Z_i \mid \delta_i = 1))。

首先,我们知道 (Z_i) 在给定 (\delta_i = 1) 的条件下服从截断泊松分布,其概率质量函数为:

$$P(Z_i = z_i \mid \delta_i = 1) = \frac{\lambda_i^{z_i} e^{-\lambda_i}}{z_i! (1 - e^{-\lambda_i})} \quad \text{for} \quad z_i > 0$$

期望值的定义为:

$$E(Z_i \mid \delta_i = 1) = \sum_{z_i=1}^{\infty} z_i \cdot P(Z_i = z_i \mid \delta_i = 1)$$

将截断泊松分布的概率质量函数代入,我们得到:

$$E(Z_i \mid \delta_i = 1) = \sum_{z_i=1}^{\infty} z_i \cdot \frac{\lambda_i^{z_i} e^{-\lambda_i}}{z_i! (1 - e^{-\lambda_i})}$$

我们可以将常数因子 (\frac{e^{-\lambda_i}}{1 - e^{-\lambda_i}}) 提出求和符号外:

$$E(Z_i \mid \delta_i = 1) = \frac{e^{-\lambda_i}}{1 - e^{-\lambda_i}} \sum_{z_i=1}^{\infty} \frac{z_i \lambda_i^{z_i}}{z_i!}$$

注意到 (\frac{z_i \lambda_i^{z_i}}{z_i!}) 可以写成 (\lambda_i \cdot \frac{\lambda_i^{z_i-1}}{(z_i-1)!}),因此我们有:

$$E(Z_i \mid \delta_i = 1) = \frac{e^{-\lambda_i}}{1 - e^{-\lambda_i}} \cdot \lambda_i \sum_{z_i=1}^{\infty} \frac{\lambda_i^{z_i-1}}{(z_i-1)!}$$

将求和变量从 (z_i) 改为 (k = z_i - 1),我们得到:

$$E(Z_i \mid \delta_i = 1) = \frac{e^{-\lambda_i}}{1 - e^{-\lambda_i}} \cdot \lambda_i \sum_{k=0}^{\infty} \frac{\lambda_i^k}{k!}$$

注意到 (\sum_{k=0}^{\infty} \frac{\lambda_i^k}{k!}) 是泊松分布的归一化常数,即 (e^{\lambda_i}),因此我们有:

$$E(Z_i \mid \delta_i = 1) = \frac{e^{-\lambda_i}}{1 - e^{-\lambda_i}} \cdot \lambda_i \cdot e^{\lambda_i}$$

简化后得到:

$$E(Z_i \mid \delta_i = 1) = \frac{\lambda_i}{1 - e^{-\lambda_i}}$$

这就是在给定 (\delta_i = 1) 的条件下,(Z_i) 的期望值的推导过程。如果你有更多问题或需要进一步的解释,请随时告诉我!

这个公式描述了在给定 (\delta_i = 1) 的条件下,(Z_i) 等于 (z_i) 的概率。它看起来像是一个截断泊松分布的形式。让我们逐步解析一下:

1.

泊松分布:泊松分布的概率质量函数(PMF)为:

$$P(Z_i = z_i) = \frac{\lambda_i^{z_i} e^{-\lambda_i}}{z_i!} \quad \text{for} \quad z_i \geq 0$$

其中,(\lambda_i) 是泊松分布的参数,表示事件发生的平均次数。

2.

截断泊松分布:当我们只考虑 (z_i > 0) 的情况时,我们实际上是在处理一个截断泊松分布。截断泊松分布排除了 (z_i = 0) 的情况,因此需要重新归一化。

3.

归一化因子:为了确保概率总和为1,我们需要除以 (P(Z_i > 0)),即 (1 - P(Z_i = 0))。对于泊松分布,(P(Z_i = 0) = e^{-\lambda_i})。因此,归一化因子为 (1 - e^{-\lambda_i})。

结合这些因素,我们得到截断泊松分布的概率质量函数:P(Z_i = z_i \mid \delta_i = 1) = \frac{\lambda_i^{z_i} e^{-\lambda_i}}{z_i! (1 - e^{-\lambda_i})} \quad \text{for} \quad z_i > 0

这个公式表示在排除 (z_i = 0) 的情况下,(Z_i) 等于 (z_i) 的概率。


E(Z_{il})的推导

E(Z_{il})=\frac{E(Z_i)\alpha_l^{(k)}b_l(C_i)}{\Lambda_0^{(k)}(C_i)}

$Z_{il}$是$Z_i$的分解部分,服从参数为$\alpha_l^{(k)}b_l(C_i)$的泊松分布。


详细推导从公式(3)到公式(5)的过程,并在每一步中解释其原理。

完全似然函数(公式3)

引入泊松潜变量$Z_i$

为了简化计算,我们引入泊松潜变量$Z_i$,其定义为:

Z_i \sim \text{Poisson}\left(\lambda_i\right)

条件似然函数

我们将完全似然函数分解为条件似然函数和边际似然函数。首先,考虑条件似然函数:

P(\delta_i \mid Z_i) = \delta_i^{I(Z_i > 0)} (1 - \delta_i)^{I(Z_i = 0)}

(这里,$\delta_i = I(Z_i > 0)$表示是否观测到事件)

边际似然函数

接下来,考虑边际似然函数:

P(Z_i) = \frac{\left(\lambda_i\right)^{Z_i} \exp \left(-\lambda_i\right)}{Z_i!}

结合条件和边际似然函数

将条件似然函数和边际似然函数结合起来,我们得到:

P(\delta_i, Z_i) = P(\delta_i \mid Z_i) P(Z_i)

将所有个体的联合似然函数相乘,得到完整似然函数:(公式5)


完全似然函数可以分解为条件似然函数和边际似然函数?

这种分解方法在统计学和贝叶斯推断中非常常见。让我们详细解释一下这个过程。

完全似然函数

完全似然函数 ( L(\Theta) ) 表示在给定参数 (\Theta) 的情况下,观测数据的联合概率。对于一组独立同分布的数据 (X = (x_1, x_2, \ldots, x_n)),完全似然函数可以表示为:L(\Theta) = P(X \mid \Theta) = \prod_{i=1}^n P(x_i \mid \Theta)

条件似然函数和边际似然函数

假设我们引入一个潜变量 (Z),完全似然函数可以分解为条件似然函数和边际似然函数。具体来说,完全似然函数可以表示为:

L(\Theta) = P(X \mid \Theta) = \int P(X, Z \mid \Theta) , dZ

其中,(P(X, Z \mid \Theta)) 是联合似然函数。

分解过程

1.联合似然函数:

联合似然函数 (P(X, Z \mid \Theta)) 可以分解为条件似然函数 (P(X \mid Z, \Theta)) 和边际似然函数 (P(Z \mid \Theta))P(X, Z \mid \Theta) = P(X \mid Z, \Theta) P(Z \mid \Theta)

2.

边际化潜变量:

通过对潜变量 (Z) 进行边际化(积分或求和),我们可以得到完全似然函数:L(\Theta) = P(X \mid \Theta) = \int P(X \mid Z, \Theta) P(Z \mid \Theta) dZ


具体例子

在泊松潜变量模型中,假设我们有观测数据 (X) 和潜变量 (Z),完全似然函数可以表示为:L(\Theta) = \prod_{i=1}^n P(x_i \mid \Theta)

通过引入潜变量 (Z_i),我们可以将完全似然函数分解为:L(\Theta) = \prod_{i=1}^n \int P(x_i \mid Z_i, \Theta) P(Z_i \mid \Theta) , dZ_i

其中,P(x_i \mid Z_i, \Theta)是条件似然函数,表示在给定潜变量 (Z_i) 和参数 (\Theta) 的情况下,观测数据 (x_i) 的概率;P(Z_i \mid \Theta) 是边际似然函数,表示在给定参数\Theta的情况下,潜变量Z_i的概率。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容