fbpx
维基百科

最大似然估计

统计学中,最大似然估计(英語:maximum likelihood estimation,簡作MLE),也称极大似然估计,是用来估計一个概率模型的参数的一种方法。

预备知识 编辑

下边的讨论要求读者熟悉概率论中的基本定义,如概率分布概率密度函数随机变量数学期望等。读者還須先熟悉连续实函数的基本技巧,比如使用微分来求一个函数的极值(即极大值极小值)。
同時,讀者須先擁有似然函數的背景知識,以了解最大似然估計的出發點及應用目的。

最大似然估计的原理 编辑

给定一个概率分布 ,已知其概率密度函数(连续分布)或概率质量函数(离散分佈)为 ,以及一个分佈参数 ,我们可以从这个分布中抽出一个具有 个值的采样 ,利用 计算出其似然函数

 

 是离散分布, 即是在参数为 时观测到这一采样的概率;若其是连续分布, 则为 联合分布的概率密度函数在观测值处的取值。一旦我们获得 ,我们就能求得一个关于 的估计。最大似然估计会寻找关于 的最可能的值(即,在所有可能的 取值中,寻找一个值使这个采样的“可能性”最大化)。从数学上来说,我们可以在 的所有可能取值中寻找一个值使得似然函数取到最大值。这个使可能性最大的 值即称为 最大似然估计。由定义,最大似然估计是样本的函数。

注意 编辑

  • 这裡的似然函数是指 不变时,关于 的一个函数。
  • 最大似然估计不一定存在,也不一定唯一。

例子 编辑

离散分布,离散有限参数空间 编辑

考虑一个抛硬币的例子。假设这个硬币正面跟反面轻重不同。我们把这个硬币抛80次(即,我们获取一个采样 并把正面的次数记下来,正面记为H,反面记为T)。并把抛出一个正面的概率记为 ,抛出一个反面的概率记为 (因此,这裡的 即相当于上边的 )。假设我们抛出了49个正面,31个反面,即49次H,31次T。假设这个硬币是我们从一个装了三个硬币的盒子里头取出的。这三个硬币抛出正面的概率分别为 ,  ,  ,这些硬币没有标记,所以我们无法知道哪个是哪个。使用最大似然估计,基于二项分布中的概率质量函数公式,通过这些试验数据(即采样数据),我们可以计算出哪个硬币的可能性最大。这个似然函数取以下三个值中的一个:

 

我们可以看到当 时,似然函数取得最大值。
顯然地,這硬幣的公平性和那種拋出後正面的機率是2/3的硬幣是最接近的。这就是 的最大似然估计。

离散分布,连续参数空间 编辑

现在假设例子1中的盒子中有无数个硬币,对于 中的任何一个 , 都有一个抛出正面概率为 的硬币对应,我们来求其似然函数的最大值:

 

其中 . 我们可以使用微分法来求極值。方程两边同时对 微分,并使其为零。

 
 
在不同比例参数值下一个二项式过程的可能性曲线t = 3, n = 10;其最大似然估计值发生在其众数并在曲线的最大值处。

其解为 ,  ,以及 .使可能性最大的解显然是 (因为  这两个解会使可能性为零)。因此我们说最大似然估计值 .

这个结果很容易一般化。只需要用一个字母 代替49用以表达伯努利试验中的被观察数据(即样本)的“成功”次数,用另一个字母 代表伯努利试验的次数即可。使用完全同样的方法即可以得到最大似然估计值:

 

对于任何成功次数为 ,试验总数为 的伯努利试验。

连续分布,连续参数空间 编辑

最常见的连续概率分布正态分布,其概率密度函数如下:

 

现在有 个正态随机变量的采样点,要求的是一个这样的正态分布,这些采样点分布到这个正态分布可能性最大(也就是概率密度积最大,每个点更靠近中心点),其 个正态随机变量的采样的对应密度函数(假设其独立并服从同一分布)为:

 

也可以写为:

 ,

这个分布有两个参数: .有人可能会担心两个参数与上边的讨论的例子不同,上边的例子都只是在一个参数上对可能性进行最大化。实际上,在两个参数上的求最大值的方法也差不多:只需要分别把可能性 在两个参数上最大化即可。当然这比一个参数麻烦一些,但是一点也不复杂。使用上边例子同样的符号,我们有 .

最大化一个似然函数同最大化它的自然对数是等价的。因为自然对数log是一个连续且在似然函数的值域严格递增的上凹函数。[注意:可能性函数(似然函数)的自然对数跟信息熵以及Fisher信息联系紧密。]求对数通常能够一定程度上简化运算,比如在这个例子中可以看到:

 

这个方程的解是 .这的确是这个函数的最大值,因为它是 里头惟一的一阶导数等于零的点并且二阶导数严格小于零。

同理,我们对 求导,并使其为零。

 

这个方程的解是 .

因此,其关于 最大似然估计为:

 .

性质 编辑

泛函不变性(Functional invariance) 编辑

如果  的一个最大似然估计,那么 的最大似然估计是 。函数g无需是一个双射[1]

渐近线行为 编辑

最大似然估计函数在采样样本总数趋于无穷的时候达到最小方差,其证明可见于克拉馬-羅下限英语Cramér–Rao bound。当最大似然估计非偏时,等价的,在极限的情况下我们可以称其有最小的均方差。 对于独立的观察来说,最大似然估计函数经常趋于正态分布

偏差 编辑

最大似然估计的偏差是非常重要的。考虑这样一个例子,标有   张票放在一个盒子中。从盒子中随机抽取票。如果 是未知的话,那么 的最大似然估计值就是抽出的票上标有的 ,尽管其期望值的只有 .为了估计出最高的 值,我们能确定的只能是 值不小于抽出来的票上的值。

历史 编辑

最大似然估计最早是由羅納德·費雪在1912年至1922年间推荐、分析并大范围推广的。[2](虽然以前高斯拉普拉斯、托瓦爾·尼古拉·蒂勒和F. Y. 埃奇沃思也使用过)。[3] 许多作者都提供了最大似然估计发展的回顾。[4]

大部分的最大似然估计理论都在贝叶斯统计中第一次得到发展,并被后来的作者简化。[2]

参见 编辑

  • 关于Rao-Blackwell定理(Rao-Blackwell theorem)的文章中讨论到如何利用Rao-Blackwellisation过程寻找最佳不偏估计(即使均方差最小)的方法。而最大似然估计通常是一个好的起点。
  • 读者可能会对最大似然估计(如果存在)总是一个关于参数的充分统计(sufficient statistic)的函数感兴趣。
  • 最大似然估计跟一般化矩方法(generalized method of moments)有关。

参考文献 编辑

  1. ^ 请参见George Casella与Roger L. Berger所著的Statistical Inference定理Theorem 7.2.10的证明。(中国大陆出版的大部分教材上也可以找到这个证明。)
  2. ^ 2.0 2.1 Pfanzagl (1994)
  3. ^ Edgeworth (September 1908) and Edgeworth (December 1908)
  4. ^ Savage (1976), Pratt (1976), Stigler (1978, 1986, 1999, Hald (1998, 1999, and Aldrich (1997)

外部链接 编辑

    最大似然估计, 在统计学中, 英語, maximum, likelihood, estimation, 簡作mle, 也称极大似然估计, 是用来估計一个概率模型的参数的一种方法, 目录, 预备知识, 的原理, 注意, 例子, 离散分布, 离散有限参数空间, 离散分布, 连续参数空间, 连续分布, 连续参数空间, 性质, 泛函不变性, functional, invariance, 渐近线行为, 偏差, 历史, 参见, 参考文献, 外部链接预备知识, 编辑下边的讨论要求读者熟悉概率论中的基本定义, 如概率分布, 概率. 在统计学中 最大似然估计 英語 maximum likelihood estimation 簡作MLE 也称极大似然估计 是用来估計一个概率模型的参数的一种方法 目录 1 预备知识 2 最大似然估计的原理 2 1 注意 3 例子 3 1 离散分布 离散有限参数空间 3 2 离散分布 连续参数空间 3 3 连续分布 连续参数空间 4 性质 4 1 泛函不变性 Functional invariance 4 2 渐近线行为 4 3 偏差 5 历史 6 参见 7 参考文献 8 外部链接预备知识 编辑下边的讨论要求读者熟悉概率论中的基本定义 如概率分布 概率密度函数 随机变量 数学期望等 读者還須先熟悉连续实函数的基本技巧 比如使用微分来求一个函数的极值 即极大值或极小值 同時 讀者須先擁有似然函數的背景知識 以了解最大似然估計的出發點及應用目的 最大似然估计的原理 编辑给定一个概率分布D displaystyle D nbsp 已知其概率密度函数 连续分布 或概率质量函数 离散分佈 为f D displaystyle f D nbsp 以及一个分佈参数8 displaystyle theta nbsp 我们可以从这个分布中抽出一个具有n displaystyle n nbsp 个值的采样X 1 X 2 X n displaystyle X 1 X 2 ldots X n nbsp 利用f D displaystyle f D nbsp 计算出其似然函数 L 8 x 1 x n f 8 x 1 x n displaystyle mbox L theta mid x 1 dots x n f theta x 1 dots x n nbsp 若D displaystyle D nbsp 是离散分布 f 8 displaystyle f theta nbsp 即是在参数为8 displaystyle theta nbsp 时观测到这一采样的概率 若其是连续分布 f 8 displaystyle f theta nbsp 则为X 1 X 2 X n displaystyle X 1 X 2 ldots X n nbsp 联合分布的概率密度函数在观测值处的取值 一旦我们获得X 1 X 2 X n displaystyle X 1 X 2 ldots X n nbsp 我们就能求得一个关于8 displaystyle theta nbsp 的估计 最大似然估计会寻找关于8 displaystyle theta nbsp 的最可能的值 即 在所有可能的8 displaystyle theta nbsp 取值中 寻找一个值使这个采样的 可能性 最大化 从数学上来说 我们可以在8 displaystyle theta nbsp 的所有可能取值中寻找一个值使得似然函数取到最大值 这个使可能性最大的8 displaystyle widehat theta nbsp 值即称为8 displaystyle theta nbsp 的最大似然估计 由定义 最大似然估计是样本的函数 注意 编辑 这裡的似然函数是指x 1 x 2 x n displaystyle x 1 x 2 ldots x n nbsp 不变时 关于8 displaystyle theta nbsp 的一个函数 最大似然估计不一定存在 也不一定唯一 例子 编辑离散分布 离散有限参数空间 编辑 考虑一个抛硬币的例子 假设这个硬币正面跟反面轻重不同 我们把这个硬币抛80次 即 我们获取一个采样x 1 H x 2 T x 80 T displaystyle x 1 mbox H x 2 mbox T ldots x 80 mbox T nbsp 并把正面的次数记下来 正面记为H 反面记为T 并把抛出一个正面的概率记为p displaystyle p nbsp 抛出一个反面的概率记为1 p displaystyle 1 p nbsp 因此 这裡的p displaystyle p nbsp 即相当于上边的8 displaystyle theta nbsp 假设我们抛出了49个正面 31个反面 即49次H 31次T 假设这个硬币是我们从一个装了三个硬币的盒子里头取出的 这三个硬币抛出正面的概率分别为p 1 3 displaystyle p 1 3 nbsp p 1 2 displaystyle p 1 2 nbsp p 2 3 displaystyle p 2 3 nbsp 这些硬币没有标记 所以我们无法知道哪个是哪个 使用最大似然估计 基于二项分布中的概率质量函数公式 通过这些试验数据 即采样数据 我们可以计算出哪个硬币的可能性最大 这个似然函数取以下三个值中的一个 L p 1 3 H 49 T 31 P H 49 T 31 p 1 3 80 49 1 3 49 1 1 3 31 0 000 L p 1 2 H 49 T 31 P H 49 T 31 p 1 2 80 49 1 2 49 1 1 2 31 0 012 L p 2 3 H 49 T 31 P H 49 T 31 p 2 3 80 49 2 3 49 1 2 3 31 0 054 displaystyle begin matrix mathbb L p 1 3 mid mbox H 49 T 31 amp amp mathbb P mbox H 49 T 31 mid p 1 3 amp amp 80 choose 49 1 3 49 1 1 3 31 approx 0 000 amp amp mathbb L p 1 2 mid mbox H 49 T 31 amp amp mathbb P mbox H 49 T 31 mid p 1 2 amp amp 80 choose 49 1 2 49 1 1 2 31 approx 0 012 amp amp mathbb L p 2 3 mid mbox H 49 T 31 amp amp mathbb P mbox H 49 T 31 mid p 2 3 amp amp 80 choose 49 2 3 49 1 2 3 31 approx 0 054 end matrix nbsp dd 我们可以看到当p 2 3 displaystyle widehat p 2 3 nbsp 时 似然函数取得最大值 顯然地 這硬幣的公平性和那種拋出後正面的機率是2 3的硬幣是最接近的 这就是p displaystyle p nbsp 的最大似然估计 离散分布 连续参数空间 编辑 现在假设例子1中的盒子中有无数个硬币 对于0 p 1 displaystyle 0 leq p leq 1 nbsp 中的任何一个p displaystyle p nbsp 都有一个抛出正面概率为p displaystyle p nbsp 的硬币对应 我们来求其似然函数的最大值 L 8 f D H 49 T 80 49 p 80 49 p 49 1 p 31 displaystyle begin matrix mbox L theta amp amp f D mbox H 49 T 80 49 mid p 80 choose 49 p 49 1 p 31 end matrix nbsp 其中0 p 1 displaystyle 0 leq p leq 1 nbsp 我们可以使用微分法来求極值 方程两边同时对p displaystyle p nbsp 取微分 并使其为零 0 80 49 d d p p 49 1 p 31 49 p 48 1 p 31 31 p 49 1 p 30 p 48 1 p 30 49 1 p 31 p displaystyle begin matrix 0 amp amp 80 choose 49 frac d dp left p 49 1 p 31 right amp amp amp propto amp 49p 48 1 p 31 31p 49 1 p 30 amp amp amp amp p 48 1 p 30 left 49 1 p 31p right end matrix nbsp nbsp 在不同比例参数值下一个二项式过程的可能性曲线t 3 n 10 其最大似然估计值发生在其众数并在曲线的最大值处 其解为p 0 displaystyle p 0 nbsp p 1 displaystyle p 1 nbsp 以及p 49 80 displaystyle p 49 80 nbsp 使可能性最大的解显然是p 49 80 displaystyle p 49 80 nbsp 因为p 0 displaystyle p 0 nbsp 和p 1 displaystyle p 1 nbsp 这两个解会使可能性为零 因此我们说最大似然估计值为p 49 80 displaystyle widehat p 49 80 nbsp 这个结果很容易一般化 只需要用一个字母t displaystyle t nbsp 代替49用以表达伯努利试验中的被观察数据 即样本 的 成功 次数 用另一个字母n displaystyle n nbsp 代表伯努利试验的次数即可 使用完全同样的方法即可以得到最大似然估计值 p t n displaystyle widehat p frac t n nbsp 对于任何成功次数为t displaystyle t nbsp 试验总数为n displaystyle n nbsp 的伯努利试验 连续分布 连续参数空间 编辑 最常见的连续概率分布是正态分布 其概率密度函数如下 f x m s 2 1 2 p s 2 e x m 2 2 s 2 displaystyle f x mid mu sigma 2 frac 1 sqrt 2 pi sigma 2 e frac x mu 2 2 sigma 2 nbsp 现在有n displaystyle n nbsp 个正态随机变量的采样点 要求的是一个这样的正态分布 这些采样点分布到这个正态分布可能性最大 也就是概率密度积最大 每个点更靠近中心点 其n displaystyle n nbsp 个正态随机变量的采样的对应密度函数 假设其独立并服从同一分布 为 f x 1 x n m s 2 1 2 p s 2 n 2 e i 1 n x i m 2 2 s 2 displaystyle f x 1 ldots x n mid mu sigma 2 left frac 1 2 pi sigma 2 right frac n 2 e frac sum i 1 n x i mu 2 2 sigma 2 nbsp 也可以写为 f x 1 x n m s 2 1 2 p s 2 n 2 exp i 1 n x i x 2 n x m 2 2 s 2 displaystyle f x 1 ldots x n mid mu sigma 2 left frac 1 2 pi sigma 2 right n 2 exp left frac sum i 1 n x i bar x 2 n bar x mu 2 2 sigma 2 right nbsp 这个分布有两个参数 m s 2 displaystyle mu sigma 2 nbsp 有人可能会担心两个参数与上边的讨论的例子不同 上边的例子都只是在一个参数上对可能性进行最大化 实际上 在两个参数上的求最大值的方法也差不多 只需要分别把可能性L m s f x 1 x n m s 2 displaystyle mbox L mu sigma f x 1 ldots x n mid mu sigma 2 nbsp 在两个参数上最大化即可 当然这比一个参数麻烦一些 但是一点也不复杂 使用上边例子同样的符号 我们有8 m s 2 displaystyle theta mu sigma 2 nbsp 最大化一个似然函数同最大化它的自然对数是等价的 因为自然对数log是一个连续且在似然函数的值域内严格递增的上凹函数 注意 可能性函数 似然函数 的自然对数跟信息熵以及Fisher信息联系紧密 求对数通常能够一定程度上简化运算 比如在这个例子中可以看到 0 m log 1 2 p s 2 n 2 e i 1 n x i x 2 n x m 2 2 s 2 m log 1 2 p s 2 n 2 i 1 n x i x 2 n x m 2 2 s 2 0 2 n x m 2 s 2 displaystyle begin matrix 0 amp amp cfrac partial partial mu log left left cfrac 1 2 pi sigma 2 right frac n 2 e frac sum i 1 n x i bar x 2 n bar x mu 2 2 sigma 2 right amp amp cfrac partial partial mu left log left cfrac 1 2 pi sigma 2 right frac n 2 cfrac sum i 1 n x i bar x 2 n bar x mu 2 2 sigma 2 right amp amp 0 cfrac 2n bar x mu 2 sigma 2 end matrix nbsp 这个方程的解是m x i 1 n x i n displaystyle widehat mu bar x sum i 1 n x i n nbsp 这的确是这个函数的最大值 因为它是m displaystyle mu nbsp 里头惟一的一阶导数等于零的点并且二阶导数严格小于零 同理 我们对s displaystyle sigma nbsp 求导 并使其为零 0 s log 1 2 p s 2 n 2 e i 1 n x i x 2 n x m 2 2 s 2 s n 2 log 1 2 p s 2 i 1 n x i x 2 n x m 2 2 s 2 n s i 1 n x i x 2 n x m 2 s 3 displaystyle begin matrix 0 amp amp cfrac partial partial sigma log left left cfrac 1 2 pi sigma 2 right frac n 2 e frac sum i 1 n x i bar x 2 n bar x mu 2 2 sigma 2 right amp amp cfrac partial partial sigma left cfrac n 2 log left cfrac 1 2 pi sigma 2 right cfrac sum i 1 n x i bar x 2 n bar x mu 2 2 sigma 2 right amp amp cfrac n sigma cfrac sum i 1 n x i bar x 2 n bar x mu 2 sigma 3 end matrix nbsp 这个方程的解是s 2 i 1 n x i m 2 n displaystyle widehat sigma 2 sum i 1 n x i widehat mu 2 n nbsp 因此 其关于8 m s 2 displaystyle theta mu sigma 2 nbsp 的最大似然估计为 8 m s 2 x i 1 n x i x 2 n displaystyle widehat theta widehat mu widehat sigma 2 bar x sum i 1 n x i bar x 2 n nbsp 性质 编辑泛函不变性 Functional invariance 编辑 如果8 displaystyle hat theta nbsp 是8 displaystyle theta nbsp 的一个最大似然估计 那么a g 8 displaystyle alpha g theta nbsp 的最大似然估计是a g 8 displaystyle hat alpha g hat theta nbsp 函数g无需是一个双射 1 渐近线行为 编辑 最大似然估计函数在采样样本总数趋于无穷的时候达到最小方差 其证明可见于克拉馬 羅下限 英语 Cramer Rao bound 当最大似然估计非偏时 等价的 在极限的情况下我们可以称其有最小的均方差 对于独立的观察来说 最大似然估计函数经常趋于正态分布 偏差 编辑 最大似然估计的偏差是非常重要的 考虑这样一个例子 标有1 displaystyle 1 nbsp 到n displaystyle n nbsp 的n displaystyle n nbsp 张票放在一个盒子中 从盒子中随机抽取票 如果n displaystyle n nbsp 是未知的话 那么n displaystyle n nbsp 的最大似然估计值就是抽出的票上标有的n displaystyle n nbsp 尽管其期望值的只有 n 1 2 displaystyle n 1 2 nbsp 为了估计出最高的n displaystyle n nbsp 值 我们能确定的只能是n displaystyle n nbsp 值不小于抽出来的票上的值 历史 编辑最大似然估计最早是由羅納德 費雪在1912年至1922年间推荐 分析并大范围推广的 2 虽然以前高斯 拉普拉斯 托瓦爾 尼古拉 蒂勒和F Y 埃奇沃思也使用过 3 许多作者都提供了最大似然估计发展的回顾 4 大部分的最大似然估计理论都在贝叶斯统计中第一次得到发展 并被后来的作者简化 2 参见 编辑均方差是衡量一个估计函数的好坏的一个量 关于Rao Blackwell定理 Rao Blackwell theorem 的文章中讨论到如何利用Rao Blackwellisation过程寻找最佳不偏估计 即使均方差最小 的方法 而最大似然估计通常是一个好的起点 读者可能会对最大似然估计 如果存在 总是一个关于参数的充分统计 sufficient statistic 的函数感兴趣 最大似然估计跟一般化矩方法 generalized method of moments 有关 参考文献 编辑 请参见George Casella与Roger L Berger所著的Statistical Inference定理Theorem 7 2 10的证明 中国大陆出版的大部分教材上也可以找到这个证明 2 0 2 1 Pfanzagl 1994 Edgeworth September 1908 and Edgeworth December 1908 Savage 1976 Pratt 1976 Stigler 1978 1986 1999 Hald 1998 1999 and Aldrich 1997 外部链接 编辑关于最大似然估计的历史的一篇论文 作者John Aldrich 取自 https zh wikipedia org w index php title 最大似然估计 amp oldid 76704828, 维基百科,wiki,书籍,书籍,图书馆,

    文章

    ,阅读,下载,免费,免费下载,mp3,视频,mp4,3gp, jpg,jpeg,gif,png,图片,音乐,歌曲,电影,书籍,游戏,游戏。