概率估计详解

::: hljs-center <img src="https://cos.easydoc.net/17082933/files/keduxibz" style="zoom: 50%;" /> ::: # 1、引言 **贝叶斯估计、最大似然估计(MLE)、最大后验概率估计(MAP)** 这几个概念在机器学习和深度学习中经常碰到,读文章的时候还感觉挺明白,但独立思考时经常会傻傻分不清楚(😭),因此希望通过本文对其进行总结。 # 2、背景知识 **注**:由于概率与数理统计需要了解的背景知识很多,因此这里只列出了部分内容,且写的较简略,许多概念的学习需要根据标题自己查找答案。 ## 2.1 概率与统计 概率统计是很多人都学过的内容,但概率论与统计学的关系是什么?先看一下概率论与统计学在维基百科中的定义: > **概率论**是集中研究概率及随机现象的数学分支,是研究随机性或不确定性等现象的数学。 **统计学**是在数据分析的基础上,研究如何测定、收集、整理、归纳和分析反映数据数据,以便给出正确消息的科学。 概率论是在给定条件(已知模型和参数)下,对要发生的事件(新输入数据)的预测。统计推断是在给定数据(训练数据)下,对数据生成方式(模型和参数)的归纳总结。概率论是统计学的数学基础,统计学是对概率论的应用。 ## 2.2 描述统计和推断统计 统计学分为描述统计学和推断统计学。描述统计,是统计学中描绘或总结观察量基本情况的统计总称。推断统计指统计学中研究如何根据样本数据去推断总体数量特征的方法。 描述统计是对数据的一种概括。描述统计是罗列所有数据,然后选择一些特征量(例如均值、方差、中位数、四分中位数等)对总体数据进行描述。推断统计是一种对数据的推测。推断统计无法获取所有数据,只能得到部分数据,然后根据得到的数据推测总体数据的情况。 ## 2.3 联合概率和边缘概率 假设有随机变量$A$和$B$,此时 $P(A=a,B=b)$ 用于表示$A=a$且$B=b$同时发生的概率。这类包含多个条件且<font color="blue">**所有条件同时成立**</font>的概率称为**联合概率**。请注意,联合概率并不是其中某个条件成立的概率,而是所有条件同时成立的概率。与之对应地,$P(A=a)$或$P(B=b)$这类<font color="blue">**仅与单个随机变量有关**</font>的概率称为**边缘概率**。 联合概率与边缘概率的关系如下: ::: hljs-center $P(A=a)=\sum_{b} P(A=a, B=b)$ $P(A=b)=\sum_{a} P(A=a, B=b)$ ::: ## 2.4 条件概率 条件概率表示在<font color="blue">条件$B=b$成立</font>的情况下$A=a$,的概率,记作 $P(A=a \mid B=b)$ ,或者说条件概率是指事件$A=a$在另外一个事件$B=b$已经发生条件下的发生概率。为了简洁表示,后面省略a,b。 联合概率、边缘概率、条件概率的关系如下: ::: hljs-center $P(A \mid B)=\frac{P(A, B)}{P(B)}$ ::: 转换为乘法形式: ::: hljs-center $P(A, B)=P(B) * P(A \mid B)=P(A) * P(B \mid A)$ ::: ## 2.5 全概率公式 如果事件 $A_{1}, A_{2}, A_{3}, \ldots, A_{n}$ 构成一个完备事件组,即它们**两两互不相容(互斥),其和为全集**;并且 $P(A_i)$ 大于0,则对任意事件$B$有 ::: hljs-center $P(B)=P\left(B \mid A_{1}\right) P\left(A_{1}\right)+P\left(B \mid A_{2}\right) P\left(A_{2}\right)+\ldots+P\left(B \mid A_{n}\right) P\left(A_{n}\right)=\sum_{i=1}^{n} P\left(B \mid A_{i}\right) P\left(A_{i}\right)$ ::: 上面的公式称为**全概率公式**。全概率公式是对复杂事件$A$的概率求解问题转化为了在不同情况下发生的简单事件的概率的求和问题。 ## 2.6 贝叶斯公式 由条件概率的乘法形式可得: ::: hljs-center <font size=4> $P(A \mid B)=\frac{P(B \mid A)}{P(B)} * P(A)$ </font> ::: 上面的式子称为**贝叶斯公式**,也叫做贝叶斯定理或贝叶斯法则。在贝叶斯定理中,每个名词都有约定俗成的名称: - $P(A \mid B)$是已知发生后的条件概率,也由于得自的取值而被称作的后验概率,表示<font color="blue">事件发生后,事件发生的置信度</font>。 - $P(A)$是$A$的先验概率或边缘概率,表示<font color="blue">事件发生的置信度</font>。 - $P(B\mid A)$是已知$A$发生后的条件$B$概率,也由于得自$A$的取值而被称作$B$的后验概率,也被称作似然函数。 - $P(B)$是$B$ 的先验概率或边缘概率,称为标准化常量。 - $\frac{P(B \mid A)}{P(B)}$ 称为标准似然比(这个叫法很多,没找到标准统一的叫法),表示<font color="blue">事件$B$为事件$A$发生提供的支持程度</font>。 因此贝叶斯公式可表示为:**后验概率=似然函数先验概率/标准化常量=标准似然比先验概率**。根据标准似然比的大小,可分为下面三种情况: 如果标准似然比 $>1$ ,则先验概率$P(A)$得到增强,事件$B$的发生会增大事件$A$发生的可能性; 如果标准似然比 $=1$ ,则先验概率$P(A)$保持不变,事件$B$的发生不影响事件$A$发生的可能性; 如果标准似然比 $<1$ ,则先验概率$P(A)$得到削弱,事件$B$的发生会降低事件$A$发生的可能性。 由全概率公式、贝叶斯法则可得: ::: hljs-center <font size=4>$P\left(A_{i} \mid B\right)=\frac{P\left(B \mid A_{i}\right) P\left(A_{i}\right)}{P(B)}=\frac{P\left(B \mid A_{i}\right) P\left(A_{i}\right)}{\sum_{i=1}^{n} P\left(B \mid A_{i}\right) P\left(A_{i}\right)}$</font> ::: ## 2.7 似然与概率 在英文中,似然(likelihood)和概率(probability)是同义词,都指事件发生的可能性。但在统计中,似然与概率是不同的东西。概率是已知参数,对结果可能性的预测。**似然是已知结果,对参数是某个值的可能性预测。** ## 2.8 似然函数与概率函数 对于函数 $P(x \mid \theta)$ ,从不同的观测角度来看可以分为以下两种情况: - 如果$\theta$已知且保持不变,$x$是变量,$x$则称为概率函数,表示不同$x$出现的概率。 - 如果$x$已知且保持不变,$\theta$是变量,$x$则称为似然函数,表示不同$\theta$下,$x$出现的概率,也记作$L(\theta \mid x)$ 或 $L(x ; \theta)$ 或 $f(x ; \theta)$ **注**:注意似然函数的不同写法。 ## 2.9 推断统计中需要了解的一些概念 - 假设实际观测值与真实分布相关,试图根据观测值来推测真实分布 - 由于观测值取值随机,因此由它们计算得到的估计值也是随机值 - 估计方式多种多样,且不同估计方式得到的估计值也有所不同 样本、样本容量、参数统计、非参数统计、估计量、真实分布、经验分布。 ## 2.10 频率学派与贝叶斯学派 **注**:频率学派与贝叶斯学派只是解决问题的角度不同。 频率学派与贝叶斯学派探讨「**不确定性**」这件事时的出发点与立足点不同。频率学派从「**自然**」角度出发,试图直接为「**事件**」本身建模,即事件$A$在独立重复试验中发生的频率趋于极限 $p$,那么这个极限就是该事件的概率。 贝叶斯学派并不从试图刻画「**事件**」本身,而从「**观察者**」角度出发。贝叶斯学派并不试图说「**事件本身是随机的**」,或者「**世界的本体带有某种随机性**」,这套理论根本不言说关于「**世界本体**」的东西,而只是从「**观察者知识不完备**」这一出发点开始,构造一套在贝叶斯概率论的框架下可以对不确定知识做出推断的方法。 频率学派的代表是最大似然估计;贝叶斯学派的代表是最大后验概率估计。 ### 2.11 共轭先验 在贝叶斯统计中,如果后验分布与先验分布属于同类,则先验分布与后验分布被称为共轭分布,而先验分布被称为似然函数的共轭先验。 ### 2.12 Beta分布 在概率论中,Beta分布也称$\beta$分布,是指一组定义在(0,1)区间的连续概率分布,有两个参数$\alpha$,$\beta>0$。Beta分布的概率密度为: ::: hljs-center <font size=4>$\begin{aligned} f(x ; \alpha, \beta) &=\frac{x^{\alpha-1}(1-x)^{\beta-1}}{\int_{0}^{1} \mu^{\alpha-1}(1-\mu)^{\beta-1} d \mu} \\ &=\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha) \Gamma(\beta)} x^{\alpha-1}(1-x)^{\beta-1} \\ &=\frac{1}{B(\alpha, \beta)} x^{\alpha-1}(1-x)^{\beta-1} \end{aligned}$</font> ::: 其中,$\Gamma(z)$ 是 $\Gamma$ 函数。随机变量 $X$ 服从Beta分布写作 $X \sim {Beta}(\alpha, \beta)$ # 3、问题定义 以抛硬币为例,假设我们有一枚硬币,现在要估计其正面朝上的概率$\theta$。为了对$\theta$进行估计,我们进行了10次实验(独立同分布),这组实验记为 $X=x_{1}, x_{2}, \ldots, x_{10}$ ,其中正面朝上的次数为6次,反面朝上的次数为4次,结果为$(1,0,1,1,0,0,0,1,1,1)$。 # 4、最大似然估计(MLE) 最大似然估计,英文为Maximum Likelihood Estimation,简写为MLE,也叫极大似然估计,是用来估计概率模型参数的一种方法。++最大似然估计的思想++是**使得观测数据(样本)发生概率最大的参数就是最好的参数。** 对一个**独立同分布**的样本集来说,总体的似然就是每个样本似然的乘积。针对抛硬币的问题,似然函数可写作: ::: hljs-center $L(X ; \theta)=\prod_{i=0}^{n} P\left(x_{i} \mid \theta\right)=\theta^{6}(1-\theta)^{4}$ ::: 根据最大似然估计,使$L(X;\theta)$取得最大值的$\theta$即为估计结果,令$L(X;\theta)\prime =0$可得$\hat{\theta}=0.6$。似然函数图如下: ::: hljs-center <img src="https://cos.easydoc.net/17082933/files/kedw3wb3.png" style="zoom: 70%;" /> ::: 由于总体的似然就是每个样本似然的乘积,为了求解方便,我们通常会将似然函数转成对数似然函数,然后再求解。可以转成对数似然函数的主要原因是对数函数并不影响函数的凹凸性。因此上式可变为: ::: hljs-center $\ln L(X ; \theta)=\ln \prod_{i=0}^{n} P\left(x_{i} \mid \theta\right)=\sum_{i=0}^{n} \ln \left(P\left(x_{i} \mid \theta\right)\right)=6 \ln (\theta)+4 \ln (1-\theta)$ ::: 令 $\ln (L(X ; \theta) \prime)=0$ 可得 $\hat{\theta}=0.6$。 **正态分布的最大似然估计** 假设样本服从正态分布$N\sim(\mu,\sigma^2)$,则其似然函数为 ::: hljs-center <font size=4>$L\left(\mu, \sigma^{2}\right)=\prod_{i=0}^{n} \frac{1}{\sqrt{2 \pi} \sigma} e^{-\frac{\left(x_{i}-\mu\right)^{2}}{2 \sigma^{2}}}$</font> ::: 对其取对数得: ::: hljs-center $\ln L\left(\mu, \sigma^{2}\right)=-\frac{n}{2} \ln (2 \pi)-\frac{n}{2} \ln \left(\sigma^{2}\right)-\frac{1}{2 \sigma^{2}} \sum_{i=0}^{n}\left(x_{i}-\mu\right)^{2}$ ::: 分别对 $\mu$,$\sigma^2$ 求偏导,并令偏导数为0,得: ::: hljs-center <font size=4>$\left\{\begin{array}{l}\frac{\partial \ln L\left(\mu, \sigma^{2}\right)}{\partial \mu}=\frac{1}{\sigma^{2}} \sum_{i=0}^{n}\left(x_{i}-\mu\right)=0 \\ \frac{\partial \ln L\left(\mu, \sigma^{2}\right)}{\partial \sigma^{2}}=-\frac{n}{2 \sigma^{2}}+\frac{1}{2 \sigma^{4}} \sum_{i=0}^{n}\left(x_{i}-\mu\right)^{2}=0\end{array}\right.$</font> ::: 解得: ::: hljs-center <font size=4>$\left\{\begin{array}{l}\hat{\mu}=\frac{1}{n} \sum_{i=0}^{n} x_{i}=x^{2} \\ \hat{\sigma}^{2}=\frac{1}{n} \sum_{i=0}^{n}\left(x_{i}-x^{2}\right)^{2}\end{array}\right.$</font> ::: $\hat{\mu}$,$\hat{\sigma^2}$就是正态分布中$\mu$,$\sigma^2$的最大似然估计。 **最大似然估计的求解步骤:** - 确定似然函数 - 将似然函数转换为对数似然函数 - 求对数似然函数的最大值(求导,解似然方程) # 5、最大后验概率估计(MAP) 最大后验概率估计,英文为Maximum A Posteriori Estimation,简写为MAP。回到抛硬币的问题,最大似然估计认为使似然函数$P(X \mid \theta)$最大的参数$\theta$即为最好的$\theta$,此时最大似然估计是将$\theta$看作固定的值,只是其值未知;最大后验概率分布认为$\theta$是一个随机变量,即$\theta$具有某种概率分布,称为先验分布,求解时除了要考虑似然函数$P(X \mid \theta)$之外,还要考虑$\theta$的先验分布$P( \theta)$,因此其认为使$P(X \mid \theta)P( \theta)$取最大值的$\theta$就是最好的$\theta$。此时要最大化的函数变为$P(X \mid \theta)P( \theta)$,由于$X$的先验分布$P(X)$是固定的(可通过分析数据获得,其实我们也不关心$X$的分布,我们关心的是$\theta$),因此最大化函数可变为 $\frac{P(X \mid \theta) P(\theta)}{P(X)}$ ,根据贝叶斯法则,要最大化的函数$\frac{P(X \mid \theta) P(\theta)}{P(X)}=P(\theta \mid X)$,因此要最大化的函数是$P(\theta \mid X)$,而$P(\theta \mid X)$是$\theta$的后验概率。最大后验概率估计可以看作是正则化的最大似然估计,当然机器学习或深度学习中的正则项通常是加法,而在最大后验概率估计中采用的是乘法,是正则项。在最大似然估计中,由于认为是固定的,因此$P( \theta)=1$。 最大后验概率估计的公式表示: ::: hljs-center <font size=4>$\underset{\theta}{{argmax}} P(\theta \mid X)=\underset{\theta}{{argmax}} \frac{P(X \mid \theta) P(\theta)}{P(X)} \underset{\theta} {\propto{argmax}} P(X \mid \theta) P(\theta)$</font> ::: 在抛硬币的例子中,通常认为$\theta=0.5$的可能性最大,因此我们用均值为0.5,方差为0.1的高斯分布来描述$\theta$的先验分布,当然也可以使用其它的分布来描述$\theta$的先验分布。$\theta$的先验分布为: ::: hljs-center <font size=4>$\frac{1}{\sqrt{2 \pi} \sigma} e^{-\frac{(\theta-\mu)^{2}}{2 \sigma^{2}}}=\frac{1}{10 \sqrt{2 \pi}} e^{-50(\theta-0.5)^{2}}$</font> ::: 先验分布的函数图如下: ::: hljs-center <img src="https://cos.easydoc.net/17082933/files/kedwrudk.png" style="zoom: 70%;" /> ::: 在最大似然估计中,已知似然函数为$P(X|\theta)=\theta^6(1-\theta)^4$,因此: ::: hljs-center $P(X \mid \theta) P(\theta)=\theta^{6} \times(1-\theta)^{4} \times \frac{1}{10 \sqrt{2 \pi}} \times e^{-50(\theta-0.5)^{2}}$ ::: 转换为对数函数: ::: hljs-center $\ln (P(X \mid \theta) P(\theta))=\ln \left(\theta^{6} \times(1-\theta)^{4} \times \frac{1}{10 \sqrt{2 \pi}} \times e^{-50(\theta-0.5)^{2}}\right)=6 \ln (\theta)+4 \ln (1-\theta)+\ln \left(\frac{1}{10 \sqrt{2 \pi}}\right)-50(\theta-0.5)^{2}$ ::: 令 $\ln (P(X \mid \theta) P(\theta)) \prime=0$, 可得: $$ 100 \theta^{3}-150 \theta^{2}+40 \theta+6=0 $$ 由于 $0 \leq \theta \leq 1,$ 解得: $\hat{\theta} \approx 0.529$。 $P(X \mid \theta) P(\theta)$ 的函数图像如下, 基本符合 $\theta$ 的估计值 $\hat{\theta}:$ ::: hljs-center <img src="https://cos.easydoc.net/17082933/files/kedwujin.png" style="zoom: 60%;" /> ::: 如果我们用均值为,方差为的高斯分布来描述$\theta$的先验分布,则 $\hat{\theta} = 0.6$ 。由此可见,在最大后验概率估计中,$\theta$的估计值与$\theta$的先验分布有很大的关系。这也说明一个合理的先验概率假设是非常重要的。如果先验分布假设错误,则会导致估计的参数值偏离实际的参数值。 **先验分布为Beta分布** 如果用 $\alpha=3, \beta=3$ 的Beta分布来描述 $\theta$ 的先验分布, 则 $$ P(X \mid \theta) P(\theta)=\theta^{6} \times(1-\theta)^{4} \times \frac{1}{B(\alpha, \beta)} \times \theta^{\alpha-1}(1-\theta)^{\beta-1} $$ 令 $P(X \mid \theta) P(\theta) \prime=0$ 求解可得: $$ \hat{\theta}=\frac{\alpha+5}{\alpha+\beta+8}=\frac{8}{3+3+8} \approx 0.57 $$ $\ Beta(3,3)$ 的概率密度图像如下图: ::: hljs-center <img src="https://cos.easydoc.net/17082933/files/kedwybib.png" style="zoom: 40%;" /> ::: **最大后验概率估计的求解步骤:** - 确定参数的先验分布以及似然函数 - 确定参数的后验分布函数 - 将后验分布函数转换为对数函数 - 求对数函数的最大值(求导,解方程) # 6、贝叶斯估计 贝叶斯估计是最大后验估计的进一步扩展,贝叶斯估计同样假定$\theta$是一个随机变量,但贝叶斯估计并不是直接估计出$\theta$的某个特定值,而是估计$\theta$的分布,这是贝叶斯估计与最大后验概率估计不同的地方。在贝叶斯估计中,先验分布$P(X)$是不可忽略的。回到抛硬币的例子中,在已知$X$的情况下,描述$\theta$的分布即描述$P(\theta \mid X), P(\theta \mid X)$是一种后验分布。如果后验分布的范围较窄,则估计值的准确度相对较高,反之,如果后验分布的范围较广,则估计值的准确度就较低。 **贝叶斯公式:** ::: hljs-center <font size=4>$P(\theta \mid X)=\frac{P(X \mid \theta) P(\theta)}{P(X)}$</font> ::: 在连续型随机变量中, 由于 $P(X)=\int_{\Theta} P(X \mid \theta) P(\theta) d \theta,$ 因此贝叶斯公式变为: $$ P(\theta \mid X)=\frac{P(X \mid \theta) P(\theta)}{\int_{\Theta} P(X \mid \theta) P(\theta) d \theta} $$ 从上面的公式中可以看出,贝叶斯估计的求解非常复杂, 因此选择合适的先验分布就非常重 要。一般来说, 计算积分 $\int_{\theta} P(X \mid \theta) P(\theta) d \theta$ 是不可能的。对于这个拋硬币的例子来说, 如果使用共厄先验分布,就可以更好的解决这个问题。二项分布参数的共厄先验是Beta分布, 由于 $\theta$ 的似然函数服从二项分布, 因此在贝叶斯估计中, 假设 $\theta$ 的先验分布服从 $P(\theta) \sim {Beta}(\alpha, \beta),$ Beta分布的概率密度公式为 ::: hljs-center <font size=4>$f(x ; \alpha, \beta)=\frac{1}{B(\alpha, \beta)} x^{\alpha-1}(1-x)^{\beta-1}$</font> ::: 因此,贝叶斯公式可写作: ::: hljs-center <font size=4>$\begin{aligned} P(\theta \mid X)=& \frac{P(X \mid \theta) P(\theta)}{\int_{\Theta} P(X \mid \theta) P(\theta) d \theta} \\=& \frac{\theta^{6}(1-\theta)^{4} \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{B(\alpha, \beta)}}{\int_{\Theta} \theta^{6}(1-\theta)^{4} \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{B(\alpha, \beta)} d \theta} \\=& \frac{\theta^{\alpha+6-1}(1-\theta)^{\beta+4-1}}{\int_{\Theta} \theta^{\alpha+6-1}(1-\theta)^{\beta+4-1} d \theta} \\=& \frac{\theta^{\alpha+6-1}(1-\theta)^{\beta+4-1}}{B(\alpha+6-1, \beta+4-1)} \\=& {Beta}(\theta \mid \alpha+6-1, \beta+4-1) \\=& {Beta}(\theta \mid \alpha+6, \beta+4) \end{aligned}$</font> ::: 从上面的公式可以看出, $P(\theta \mid X) \sim {Beta}(\theta \mid \alpha+6, \beta+4)$ 。其中 $B$ 函数, 也称 ${Beta}$函数,是一个标准化常量, 用来使整个概率的积分为1。${Beta}(\theta \mid \alpha+6, \beta+4)$ 就是贝叶斯估计的结果。 如果使用贝叶斯估计得到的 $\theta$ 分布存在一个有限均值,则可以用后验分布的期望作为 $\theta$ 的估计值。假设 $\alpha=3, \beta=3,$ 在这种情况下, 先验分布会在 0.5 处取得最大值, 则 $P(\theta \mid X) \sim {Beta}(\theta \mid 9,7), \quad {Beta}(\theta \mid 9,7)$ 的曲线如下图: ::: hljs-center <img src="https://cos.easydoc.net/17082933/files/kedx71x7.png" style="zoom: 40%;" /> ::: 从上图可以看出, 在 $\alpha=3, \beta=3$ 的情况下, $\quad \theta$ 的估计值 $\hat{\theta}$ 应该在 0.6 附近。根据Beta分布的数学期望公式 $E(\theta)=\frac{\alpha}{\alpha+\beta}$ 可得: $$ \hat{\theta}=\int_{\Theta} \theta P(\theta \mid X) d \theta=E(\theta)=\frac{\alpha}{\alpha+\beta}=\frac{9}{9+7}=0.5625 $$ **注**:二项分布参数的共斩先验是Beta分布,多项式分布参数的共轭先验是Dirichlet分布,指数分布参数的共轭先验是Gamma分布,高斯分布均值的共轭先验是另一个高斯分布,泊松分布的共轭先验是Gamma分布。 贝叶斯估计要解决的不是如何估计参数, 而是用来估计新测量数据出现的概率,对于新出现的数据 $\tilde{x}$ : $$ P(\tilde{x} \mid X)=\int_{\Theta} P(\tilde{x} \mid \theta) P(\theta \mid X) d \theta=\int_{\Theta} P(\tilde{x} \mid \theta) \frac{P(X \mid \theta) P(\theta)}{P(X)} d \theta $$ **贝叶斯估计的求解步骤:** - 确定参数的似然函数 - 确定参数的先验分布,应是后验分布的共轭先验 - 确定参数的后验分布函数 - 根据贝叶斯公式求解参数的后验分布 # 7、总结 从最大似然估计、最大后验概率估计到贝早斯估计,从下表可以看出 $\theta$ 的估计值 $\hat{\theta}$ 是逐渐接近 0.5的。从公式的变化可以看出,使用的信息是逐渐增多的。最大似然估计、最大后验概率估 计中都是假设 $\theta$ 未知,但是确定的值,都将使函数取得最大值的 $\theta$ 作为估计值, 区别在于最大化的函数不同,最大后验概率估计使用了 $\theta$ 的先验概率。而在贝叶斯估计中,假设参数 $\theta$ 是未知的随机变量,不是确定值,求解的是参数 $\theta$ 在样本 $X$ 上的后验分布。 **注**:最大后验概率估计和贝叶斯估计都采用Beta分布作为先验分布。 |Type|MLE|MAP|BE| |-|-|-|-| |$\hat{\theta}$|0.6|0.57| 0.5625| |$f$|$P(X \mid \theta)$|$P(X \mid \theta) P(\theta)$|$\frac{P(X \mid \theta) P(\theta)}{P(X)}$| --- 转载:[贝叶斯估计、最大似然估计、最大后验概率估计](https://www.jianshu.com/p/9c153d82ba2d)