首页 > 文章中心 > 条件概率

条件概率

条件概率

条件概率范文第1篇

【关键词】条件概率;概率;随机试验;事件;抽签

一、课本上思考问题的另一种解法

思考问题(见数学选修2―3第二章2.2节):3张奖券中只有1张能中奖,现分别由3名同学无放回地抽取,如果已经知道第一名同学没有抽到中奖奖券,那么最后一名同学抽到中奖奖券的概率是多少?

课本解法:用A表示第一名同学没有抽到中奖奖券的事件,B表示最后一名同学抽到中奖奖券的事件,Y表示抽到中奖奖券,N表示没抽到中奖奖券,则B={NNY},A={N NY,N Y N},由古典概型可知,最后一名同学抽到中奖奖券的概率是n(B)[]n(A)=1[]2,由此引出条件概率定义:P(B|A)=n(AB)[]n(A)

另一解法:用A表示第一名同学没有抽到中奖奖券的事件,B表示最后一名同学抽到中奖奖券的事件,所有的基本事件为两张不中奖奖券和1张能中奖奖券,一名同学抽奖后,剩余的基本事件全体为Ω={1张中奖奖券,1张不能中奖奖券},含B的基本事件是{1张中奖奖券},由古典概型可知,最后一名同学抽到中奖奖券的概率是1[]2,由此启发我们给出条件概率的另一定义:P(B|A)=A发生后剩余的含B的基本事件个数/A发生后剩余的基本事件总数.

本文称之为条件概率的第三定义.本定义较之课本给出的条件概率定义,学生比较容易理解和掌握.

二、条件概率第三定义应用举例

例1 (见数学选修2―3第二章2.2节P60页)在5道题中有3道理科题和2道文科题,如果不放回地依次抽取2道题,求在第1次抽到理科题的条件下,第2次抽到理科题的概率.

解 设第1次抽到理科题为事件A,第2次抽到理科题为事件B,第1次抽到理科题后剩余的题数是4道,其中2道理科题,

由条件概率第三定义可知,

P(B|A)=2[]4,即P(B|A)=1[]2.

例2 (见数学选修2―3第二章2.2节P61页)从一副不含大小王的52张扑克牌中不放回地抽取2次,每次抽1张,已知第1次抽到A,求第2次也抽到A的概率.

解 设第1次抽到A为事件B,第2次也抽到A为事件C,第1次抽到A后剩余的基本事件总数是51,第1次抽到A后剩余的A扑克牌有3张,

所以,依据条件概率第三定义得,P(C|B)=3[]51

例3 (见数学选修2―3第二章2.2节P61页)100件产品中有5件次品,不放回地抽取2次,每次抽1件,已知第1件抽出的是次品,求第2次抽出正品的概率.

解 设第1件抽出的是次品为事件A,第2次抽出正品为事件B,第1件抽出次品后剩余的基本事件总数是99,第1件抽出次品后剩余的含正品的基本事件个数为95,

所以,依据条件概率第三定义得,P(B|A)=95[]99.

例4 (见数学选修2―3第二章2.2节P63页)一个口袋内装有2个白球和2个黑球,那么(1)先摸出1个白球不放回,再摸出1个白球的概率是多少?

(2)先摸出1个白球放回,再摸出1个白球的概率是多少?

解 记先摸出1个白球为事件A,再摸出1个白球为事件B,

(1)先摸出1个白球后剩余的基本事件总数为3,先摸出1个白球后剩余的白球个数是1,故依据条件概率第三定义得,P(B|A)=1[]3.

(2)先摸出1个白球后剩余的基本事件总数为4,先摸出1个白球后剩余的白球个数是2,

故,依据条件概率第三定义得,P(B|A)=2/4,即P(B|A)=1[]2.

运用条件概率第三定义解决以上例题,较之课本给出的定义,更简捷、更能抓住题目的本质.

三、条件概率的两种情形

条件概率P(B|A)为在事件A发生的条件下,事件B发生的概率.在事件A发生的条件下,事件B发生包括两种情形.第一种情形:事件A发生后,事件B才发生;第二种情形:事件A发生的同时,事件B也可能发生.这两种情形的共同点是事件A、B都发生.本文给出的条件概率第三定义适用范围是第一种情形.如果是第二种情形,必须运用课本的条件概率定义.

例如,一个箱子中装有4个白球和3个黑球,一次摸出2个球,在已知它们的颜色相同的情况下,求该颜色是白色的概率?

解 记摸出的2个球颜色相同为事件A,摸出的2个球是白球为事件B,由于事件A发生的同时,事件B也可能发生,故用课本给出的条件概率定义解决,

n(AB)=n(B)=C24,n(A)=C24+C23,

所以,P(B|A)=C24/(C24+C23).

本文对条件概率的两种分类,以及据此给出的条件概率第三定义,可以较好地帮助学生认清条件概率的本质

【参考文献】

[1]杨义群.初等概率教学中定义条件概率的两个问题探讨[J].教学与研究(中学数学),1984,(4):3.

[2]谢国瑞.概率论与数理统计[M].北京:高等教育出版社,2002.

条件概率范文第2篇

一、条件概率的意义

1.设A,B为两个事件,且P(A)>0,则称P(B|A)=P(AB)P(A)为在事件A发生的条件下,事件B发生的概率.

2.几何直观意义

3.条件概率的基本性质

(1)任何事件的条件概率取值在0与1之间.

(2)必然事件的条件概率为1,不可能事件的条件概率为0.

4.乘法公式

用乘法公式计算P(AB)时,对上面两个公式用哪一个,我们可根据哪一个事件先发生,就选择以哪个事件为条件的公式.

5.计算条件概率的两个方法

二、条件概率运用中需要注意的问题

1.条件概率与概率的区别

在日常教学中,条件概率与概率有何区别,大小上有何关系是不少学生迷惑的问题.其实,P(A)是在一定的试验条件下A发生的可能性大小,P(A|B)是在已知事件B发生的情况下,也就是说在改变了的试验条件下A发生的可能性大小.

3.条件概率与两个事件相互独立的区别

在事件A与B相互独立的定义中,A与B地位是对称的,在条件概率P(B|A)的定义中,事件A和B的地位不是对称的,这里要求P(A)>0.如在有放回的抽奖卷的试验中,两次不同的抽取结果相互独立,但是在不放回抽奖卷的试验中,第一次抽取的结果和第二次抽取结果就不是相互独立的,原因是在第二次抽奖卷时,只能抽到第一次抽取后剩下的奖卷.同时,也不能用P(B|A)=P(B)作为事件A与事件B相互独立的定义,原因是这个式子的适用范围是P(A)>0.否则P(B|A)没有意义.而P(AB)=P(A)P(B)中A,B可以是任意事件.

条件概率范文第3篇

Abstract: In order to predict the geological conditions ahead of tunnel face, a hybrid approach combining Markov process with neural networks is presented, it's cheaper than using Markov process alone and can let dynamic prediction the neural networks can't achieve come true.

关键词: 隧道风险;地质条件;概率化预测;马尔科夫与神经网络

Key words: tunnel risks;geological conditions;probabilistic prediction;Markov and neural networks approach

中图分类号:U45 文献标识码:A 文章编号:1006-4311(2014)11-0100-02

0 引言

地质条件的不确定性是隧道施工不确定性最主要的来源,恰当的估计,既可防止灾难性的后果,也可以通过减少在施工中的保守措施以及选择合适的开挖和支护方法达到节约资源的目的。探测地质条件的方法分为硬方法和软方法,硬方法包括从上往下打钻孔和地质超前预报,软方法更经济,它包括时间序列、神经网络、马尔科夫随机过程等方法[1]。时间序列分析需要大量信息进行趋势的分析和模式的识别。神经网络能很好地处理非线性联系,但它无法实现动态预测。马尔科夫方法将地质参数看作是离散状态、连续空间的随机过程,根据特定位置地质条件及转移概率矩阵预测开挖线上各位置的地质条件,它在实现动态预测时,需要通过试验的方法来获得当前位置的地质条件,往往耗财、费时,实际工程中也不可能大规模进行试验。而将马尔科夫与神经网络相结合既可以实现动态预测,又能节省时间和成本。

1 模型结构

模型结构如图1所示,分为马尔科夫部分和神经网络部分。

1.1 马尔科夫部分 马尔科夫一步记忆可用如下公式描述:p[X(ti+1)=xi+1|X(ti)=xi,X(ti-1)=xi-1,…,X(t1)=x1)]=p[X(ti+1)=xi+1|X(ti)=xi]

ti-1,ti,ti+1是沿隧道开挖线上相邻的不同位置,它们间距相同,xi-1,xi,xi+1是相应的地质条件(G1,G2,G3)。转移概率矩阵为:V=[vij],vij=p[X(ti)=j|X(ti-1)=i]

V一般用以下公式确定:vij=■。nij为地质条件从状态i转变至状态j的数量,ni为状态i的总数量。假设ti-1处地质条件为概率为■(ti-1),则ti处的地质状态概率为■(ti)=■(ti-1)×V。可能性矩阵L如下定义:ljk=p(Y(tb)=k|X(tb)=j)X(tb)为tb处真实地质条件,Y(tb)为观察值,ljk表示当地质条件的状态为j,而观测结果是k的概率。可能性矩阵是通过BP神经网络方法获得的。

1.2 BP神经网络部分 神经网络模型中的输入参数X1,X2,X3,X4为盾构机每经过一环(大约为1.4m)所记录的数据,输出Y为地质条件(G1=0,G2=0.5,G3=1),神经网络输出值作为输入值传递至马尔科夫模型,可能性矩阵L通过计算神经网络在训练集中预测准确度给出。

2 波尔图案例分析

2.1 波尔图隧道工程概况 波尔图地铁地下部分包括两条隧道(C线和S线)。C线长约2.5km,于2000年6月开始选用直径为8.7m的海瑞克土压平衡式盾构施工,该机器在地质条件良好的情况下采用全开式开挖方式,在地质条件不好的情况下采用全封闭式开挖方式。隧道于2002年10月顺利完工[3]。

2.2 神经网络输入和输出参数 输入参数为盾构机在掘进过程中,每隔10s记录的贯入速度(mm/转)、刀盘扭矩(MN.m)、总推力(KN)、刀盘切割力(KN)。输出参数为根据岩土的风化程度、破裂程度及断面情况进行的分类(G1,G2,G3)。隧道穿过的岩层分为g1-g7。g1-g4为岩石类,g5-g6是土体类,g7是人工材料和冲积土。根据工程信息,隧道土体有八种断面情况(图2[4]),将这八种断面情况进行如下简化:土体(G1),混合体(G2),岩体(G3)。土体(G1)对应情况1、2―开挖断面全部由土体构成(g5和g6);岩体(G3)对应于情况7、8―开挖断面全部为岩石成分(g3和g4);混合体则是由岩石和土体共同构成。

2.3 数据的选择与模型的训练 盾构机每掘进一环大概前进1.4m,盾构机有记录的数据从Ring336(距起点大概631m)至Ring1611(距起点大概2418m),可以利用的数据总共有742组(Ring336-1291)。在这742组数据中选择395组数据(Ring336-1109中选择)作为训练集,用于训练模型,剩余347组(Ring401-1141中选择)为检验集,检验模型的可靠性。训练集合中G1占29.88%,G2占32.15%,G3占37.97%;预测集合中G1占32.85%,G2占34.01%,G3占33.14%。神经网络为三层结构:输入层、隐层、输出层,输入层4个节点,输出层1个节点,隐层5个,隐层的激活函数采用S型的tansig,输出层的激活函数采用S型的logsig,误差函数选择均方差MSE。为消除不同单位的误差,将训练集合中的数据按式x′=■归一化,x′为处理后的数据,xmin、xmax为一列数据的最小值和最大值,为处理前的数据。将训练集合中的数据用神经网络进行训练,图3为神经网络在训练集合中的表现。

通过对神经网络在训练集中输出结果分析确定如下判别区间:当输出结果落入[0,0.17]时,判断其为0,即神经网络输出为G1;落入(0.17,0.49]时,判断其为0.5,为G2;落入[0.49,1]时,判断其为1,为G3。由此得到可能性矩阵如表1所示。将训练集的395组数据按前述公式计算,得到马尔科夫模型转移概率矩阵,如表2所示。

2.4 动态预测及结果 根据已知地质条件(R400、R416等)及V,求出检验集中地质条件的先验概率。当运行到第Rr-1,将记录下的参数输入至神经网络,得到输出值,通过判别区间判断神经网络预测地质条件,再结合Rr-1先验地质条件概率计算Rr-1后验地质条件概率,根据V更新Rr先验地质条件概率,当盾构机运行至Rr,重复这一过程。检验集共347组数据,其中G1有114组数据,模型将其中111组预测为G1(97.37%)、3组预测为G2(2.63%);G2有数据118组,模型将其中58组预测为G1(49.15%),54组预测为G2(45.77%),6组预测为G3(5.08%);G3共有数据115组,模型将18种预测为G1(15.65%),13组(11.30%)预测为G2,84组(73.05%)预测为G3,总预测准确率为71.76%。模型预测结果如表3所示,图4为隧道部分区段预测情况。

3 结论

对地质条件恰当的估计既能降低风险,又能节约成本。一个马尔科夫-神经网络模型被用来动态的、低成本的、大规模的预测波尔图隧道盾构机开挖面前方的地质条件,395组数据被用于训练模型,347组数据被用来检验模型。在岩体和土体中模型表现很好,而在混合体中模型预测准确率有所下降,模型整体预测准确率为71.76%。在岩体中,盾构机可以采用全开模式运行可以节约费用,在土体中,盾构机采用全封闭模式运营可以降低风险。这对于施工者选择合适的开挖方式和支护方式有一定的借鉴作用。

参考文献:

[1]GUAN Zhenchang. Markovian Geology Prediction Approach and Its Application in Mountain Tunnels [J].Tunnelling and Underground Space Technology,2012(31):61-62.

条件概率范文第4篇

关键词:启发式教学;条件概率;随机事件间的独立性

中图分类号:G642.4 文献标志码:A 文章编号:1674-9324(2015)33-0161-02

一、引言

我国古代大教育家孔子曾论述:“不愤不启,不悱不发”,意指对教师来讲,应该通过自己的外因作用,调动起学生的内因的积极性。启发式教学,就是根据教学目的、内容、学生的知识水平和知识规律,运用各种教学手段,采用启发诱导办法传授知识、培养能力,使学生积极主动地学习,以促进身心发展。

对于我们三本经管类院校的学生,其数学基础相对薄弱,如何在学习数学时提高他们的学习积极性是至关重要的。而学习积极性在很大程度上和教师的主导作用有直接关系,因此在全课教学中进行启发式教学,提高学生学习积极性,从而全方位地提高学生的能力。启发式教学对于教师的要求就是引导转化,把知识转化为学生的具体知识,再进一步把学生的具体知识转化为能力。教师的主导作用就表现在这两个转化上,引导是转化的关键。下面我以《概率论与数理统计》中的条件概率、随机事件相互独立的概念的讲解为例,为大家介绍一下我平时在课堂中是如何运用启发式教学法的。

二、教学目标

在教师的引导下,学生们通过自己的演绎推理出条件概率的定义式,进而看透其本质,会应用它解决实际问题。随机事件间的独立,这里的“独立”和我们平时说的“独立”有何区别?通过教师的引导让学生把随机事件A、B间的独立性与概率等式P(AB)=P(A)P(B)等价起来,进而得出引入独立性数学定义的必要性。

三、授课模式

在指导学生学习的过程中,是“授之以鱼”还是“授之以渔”,每一位有远见的教师都会选择后一种答案。教师在授课过程中应逐步引导学生掌握解决问题的方式方法,让学生直接参与探索教学,充分发挥学生的主观能动性,开发学生的创新能力,使学生在学习中有成就感,这样有利于培养他们确立科学的态度和掌握科学的方法。就像我最喜欢的一句英文格言所说“I hear,I forget.I see,I remember.I do,I understand.”

我的做法是,在课堂上着重问题的创设,提供氛围,让学生在实践活动中发现问题,着手解决问题,使学生成为学习的主人,教师则成为学生的“协作者”。

1.条件概率。

描述性定义:在已知事件A发生的条件下,事件B发生的概率,称为条件概率,记作P(BA).

问题:条件概率P(BA)如何定义、计算?

引例1 请同学们思考如下问题:

抛掷一枚均匀的骰子,观察其出现点数的情况。设事件A为“偶数点出现”,事件B为“4点出现”。现在来求已知事件A发生的条件下,事件B发生的概率。

求解:引导学生分析出已知和所求。

已知:样本空间Ω={1,2,3,4,5,6},A={2,4,6},B={4}.

所求:条件概率P(BA).

再引导学生画出如下文氏图:

其中1是事件AB中的样本点个数,3是事件A中的样本点个数,而样本空间共包含6个样本点。到此处,同学们就很容易想到了古典概率的计算公式,可得出

由学生自己总结归纳出,只要在P(A)>0的条件下,上述式子中的头尾部分具有一般性,就可得到条件概率的数学定义:

定义1 设A,B是样本空间Ω中的两个事件,如果P(A)>0,那么在事件A发生的条件下,事件B发生的条件概率P(BA)定义为

思考:你是否能写出在事件B发生的条件下,事件A发生的条件概率P(AB)公式?

显然学生会得到如下定义:

设A,B是样本空间Ω中的两个事件,如果P(B)>0,那么在事件B发生的条件下,事件A发生的条件概率P(AB)定义为P(AB)=.

2.两个事件间的独立性。

描述性定义:两个事件A和B相互独立,直观含义是指事件A和B在发生可能性(概率)上相互没有影响。

问题:如何定量描述事件A和B在概率上相互没有影响?

此处提醒学生注意“相互”二字,所以考虑两个方面:

①“在概率上,事件A不影响事件B”,等价于说,P(BA)=P(B).

结合上面学习的条件概率定义得P(BA)=P(B)?圳P(AB)=P(A)P(B).

②“在概率上,事件B不影响事件A”,等价于说,P(AB)=P(A).

结合上面学习的条件概率定义得P(AB)=P(A)?圳P(AB)=P(A)P(B).

思考:由上述两个方面我们得到什么结论呢?

事件相互独立的数学定义:设A和B是任意两个随机事件,如果P(AB)=P(A)P(B),则称事件A和B相互独立,简称独立。

此处举个例子,来熟悉应用一下该定义:

例 考察抛掷两枚均匀骰子的试验,记事件A为“第一枚点数为4”,事件B为“第二枚点数为3”,请判断 A和B是否独立?

本题利用古典概率和独立性定义很容易得出结论,A和B是相互独立的。但是有同学会发出这样的疑问:老师,我们从自己的经验也能知道A和B是相互独立的,为什么还用这样的概率等式去验证呢?为消除学生的疑问,我又在本题的基础上加上一问:记事件 C为“两枚点数之和为7”,判断A和C是否独立?通过这一问的解决,学生自己会意识到直观经验有时会误导我们,从而理解了随机事件的独立性及引入其严格的数学定义的必要性。

对一些学习能力、基础比较弱的学生,以引导为主,通过引导,来掌握一些上课时不容易掌握的内容,不让他们失去学习的兴趣,并通过一些启发激发他们更好地学习这门课程,变被动的“灌输”式为主动的“汲取”式。

现代教育思想明确指出:“最有效的学习方法就是让学生在体验和创造的过程中学习”。教学,是要通过教师的工作使学生爱学、会学。学生的学习是否有学习积极性非常重要,启发式教学的关键就是调动学生的学习积极性。

参考文献:

条件概率范文第5篇

【摘要】 目的: 介绍潜在类别模型的原理、方法及其分析过程,为医学模式转变所带来的病因关系的复杂性及其对统计分析方法的改进所提出的要求提供理论依据。方法: 利用Mplus软件Monte Carlo simulation study模块,按照预先设定的模型产生模拟数据并赋予一定的含义,然后导入Mplus软件直接进行潜在类别分析及多样本分析比较,用图示直观地表现模型参数变化。结果: 单样本潜在类别分析显示模型M1中潜在类别2作用大于潜在类别1的作用;模型M2中潜在类别1的作用明显大于潜在类别2的作用。多样本潜在类别分析结果显示所有观察值区分为两类,模型M1与模型M2之间潜在类别具有差异性。讨论: 潜在类别分析是描述一组分类变量间相互关系所形成的数学模型,综合了结构方程模型与对数线性模型的思想,可以做探索性研究,也可用于验证性研究,拓展了潜变量模型的应用范围。

【关键词】 潜在类别概率; 条件概率; 潜在聚类分析

在量化研究中有许多情况研究的数据是分类数据,例如社会学研究中测量社会经济地位的职业、教育水平、收入等指标,中医学中描述疾病症候的各种征象等。相应的潜变量也可以是分类变量,此时需采用基于分类潜变量构造的潜在类别模型。潜在类别模型综合了结构方程模型与对数线性模型的思想,形成了自身的优势,其目的在于以最少的潜在类别数目来解释显变量之间的关联,来达到局部独立性。潜在类别模型的提出弥补了结构方程模型仅能处理连续潜变量的不足,尤其重要的是分类潜变量的引入提高了分类变量的分析价值,使得研究者能够透过概率更加深入地了解分类变量背后的潜在影响因素。

1 潜在类别模型的基本原理

潜在类别模型又称潜类模型(latent class model,LCM),是建立在概率分布原理与对数线性模型基础之上,引入因子分析与结构方程模型的思想而形成的。因此,掌握结构方程模型与对数线性模型有助于理解潜在类别模型。潜在类别模型分析过程包括模型参数化、参数估计、模型识别、拟合优度评价、潜在分类与结果解释等[1~4]。

1.1 概率参数化

LCM的概率参数化(probabilistic parameterization)包括两种类型的分类变量:观察变量或显变量(observed variable, manifest variable)和非观察变量或潜变量(latent variable);两种类型的参数:潜在类别概率(latent class probabilities)和条件概率(conditional probabilities)。LCM假定任意两个观测变量之间的关系可以由潜变量解释。现假定A 、B 、C 、D 为四个显变量(或条目),潜在类别模型可以表达为:

πABCDXijklt=πXt πA| XitπB| XjtπC| XktπD| Xlt(1)

式(1)包含潜在类别概率(πXt )和反映潜在类别对各显变量影响大小的四个条件概率(πA| Xit、πB| Xjt、πC| Xkt、πD| Xlt )。在式(1)中,潜在类别概率πXt 表示当观察变量局部独立时,潜变量X 在第t 个水平的概率,即从样本中随机选取的观察对象属于潜在类别t 的概率,各潜在类别的概率总和为1, tπXt=1。条件概率,如πA| Xit ,表示属于潜在类别t 的个体对观察变量A 的水平i 作出反应的概率。根据概率和条件概率的性质,有如下条件成立:

iπA| Xit=jπB| Xjt= kπC| Xkt=lπD| Xlt=1.0

1.2 模型估计与模型识别

提出假定模型后,接下来的重要工作就是求出模型中参数的终解(final solution)和参数估计时的识别问题。在潜在类别模型中常用的参数估计方法有EM(expectationmaximization)算法和NR(NewtonRaphson)算法。如果模型中的参数要顺利求出一组最佳解,那么参数数目必须小于自由度。如果自由度小于0,将造成模型不能识别的问题,无法运用EM算法与NR算法进行迭代求解。相反自由度大于0也不一定能让模型具有可识别性。Goodman(1974)提出了一个局部识别(local identifiability)原则,利用偏导矩阵(partial derivative matrix)来判断模型是否可以得到有意义的解。遇到模型无法识别的情况,可以限定部分参数,减少待估参数数目,提高模型估计的识别性。

1.3 模型评价与潜在分类

模型评价的主要工作就是找出既简洁,具有最少的参数,又具有较好拟合优度的模型,其中4种指标Pearsonχ2 、似然比χ2 、Akaike信息准则(AIC)、Baysian信息准则(BIC)已经得到广泛使用。在确定模型后,最后要将各组观察值分类到适当的潜在类别当中,来说明观察值的后验类别属性(posterior membership),即潜在聚类分析(latent class cluster analysis)。Kaufman和Rousseeuw(1990)将传统的聚类分析定义为把相似的目标分到相同的组别,而组别的数量和形态是未知的[2],而潜在聚类分析则是在一定的概率模型之下(modelbased),利用概率估计与比较来进行分类,分类的原理依据贝叶斯理论。

πABCDtijkl=πABCDXijkltTt=1πABCD Xijklt(2)

利用式(2)求出值潜变量X 的条件概率πABCDtijkl 后,根据πABCDtijkl 值的大小判断观察值属于哪一类。如果潜在类别t 在某一类的概率最大则相应的个体归为该类。

1.4 探索性与验证性潜在类别分析

依据研究目的,潜在类别模型可以分为探索性潜在类别模型与验证性潜在类别模型两种类型。邱皓政[3]对探索性潜在类别模型分析过程进行了总结,有以下几步:

1. 估计初始模型( T=1的1cluster模型);

2. 逐步增加类别数目,进行各模型的参数估计,计算拟合优度值;

3. 进行拟合优度检验与差异检验,以决定最佳模型;

4. 进行类别的命名与参数估计结果整理;

5. 进行分类,决定各观察值的归属类别;

而验证性潜在类别分析步骤也为以下几步:

1. 估计未限定模型(可以是探索性分析的最佳模型或次佳模型);

2. 增加限定的参数,并进行模型的参数估计,计算拟合优度;

3. 进行拟合优度检验与卡方差异检验,以决定模型拟合优度有无变化;

4. 如果拟合变得不好,放弃该模型,以未限定模型作为最适当模型,或继续进行其他模型的估计;

5. 如果拟合变得很好,则保留该限定,重新进行各潜在类别的命名与参数估计的说明;

6. 进行分类,了解各观察值的分类情形。

1.5 多样本潜在类别模型

在潜在类别分析中,研究人员经常面对来自两个或多个不同组别的观察对象进行潜在类别分析的情形。在遇到这种情况时,可以利用多样本(multisample)潜在类别模型分析比较样本之间的潜结构。

多样本潜在类别模型分析(multisample latent class modeling,MSLCM)是对两组或两组以上观察对象在同一组显变量的反应同时进行分析,比较不同的样本下的潜在类别模型结果是否有所差异,因此又称为联立潜在类别分析(simultaneous latent class modeling,SLCM)。我们对式(1)中的参数进行修定使式中含有反映样本来源的分组变量,假定变量G表示分组变量且具有 S个水平,比如为来自四个国家的不同样本(S =4),那么得到 G1、G2 、G3、G4。多样本LCM的概率参数化可以表示为:

πABCDXGijklts=πGs πX|Gts πA| XGitsπB| XGjtsπC| XGktsπD| XGlts(3)

式(3)中分组变量的加入使得模型限定条件发生了改变:

tπX| Gts=iπA| XGits=jπB| XGjts= kπC| XGkts=lπD| XGlts

转贴于

2 模拟分析

2.1 模拟分析步骤

利用Mplus软件蒙特卡罗模拟(Monte Carlo simulation study)产生潜在类别模型的模拟数据,然后利用Mplus软件对产生的模拟数据进行单样本与多样本潜在类别分析[5]。

2.1.1 模型指定与变量产生条件

首先构造两个包含一个潜变量和四个显变量的潜在类别模型M1与M2,其中显变量和潜变量都为二分类变量,假定0表示不发生(否),1表示发生(是)。对于潜在类别模型M1,在潜在类别1(cluster1)中指定二分类显变量U1、U2、U3、U4的界值为0.5、0.5、-0.5、-0.5;在潜在类别2(cluster2)中指定界值为-0.5、-0.5、0.5、0.5;指定潜变量界值为0。对于潜在类别模型M2,在潜在类别1中指定二分类显变量U1、U2、U3、U4的界值为0.5、0.5、0、0;在潜在类别2中指定界值为0、0、-0.5、-0.5;指定潜变量界值为0。

2.1.2 生成模拟数据

Mplus首先产生符合多元正态分布的四个连续变量,然后根据MODEL POPULATION命令或者MONTECARLO命令中的POPULATION选项指定的界值,根据Logistic分布原理,使用最大似然估计方法得到四个二分类显变量。

根据模型M1和模型M2指定的参数,分别产生了两组样本含量为 =1000的随机数据,本研究进行一次数值模拟并保存数据。

2.1.3 模拟数据潜在类别分析

把产生的模拟数据直接导入Mplus中进行单样本潜在类别分析与多样本潜在类别分析。

2.2 模拟数据的单样本潜在类别分析

2.2.1 模型拟合指标

表1 模型M1与M2拟合优度指标(略)

表1结果显示指定模型拟合结果良好,符合理论预期,得到一个二分类潜在类别模型。

2.2.2 参数估计结果

表2参数估计结果显示:模型M1的潜在类别概率值(cluster size)分别是36.40%、63.60%,总和为1.0,可以看出类别2的比重大于类别1,差异明显。模型M2中潜在类别概率值为97.75%、2.25%,很明显潜在类别1的概率值大于潜在类别2的概率值。与因子分析中的因子贡献率类似,潜在类别的概率值越大表示在潜变量中地位越重要,对显变量的影响越大。因此认为模型M1中潜在类别2作用大于潜在类别1的作用,且差异显著;模型M2中潜在类别1的作用明显大于潜在类别2的作用,结果显著。

表2 模型M1与M2单样本潜在类别的条件概率与潜在类别概率(略)

与因子分析中的因子载荷类似,条件概率表示各潜变量与显变量之间的关系,条件概率值越大说明潜变量对显变量的影响越大,可协助研究者解释潜变量各类别的内容与性质。可以看出模型M1的潜在类别1中显变量U3、U4发生的条件概率分别为72.7%、60.00%,而显变量U1、U2发生的条件概率为30.7%、36.3%,因此潜在类别1主要影响显变量U3、U4;在潜在类别2中显变量U1、U2发生的条件概率为63.1%、56.7%,而显变量U3、U4发生的条件概率为40.3%、40.5%,与潜在类别1正好相反,潜在类别2主要影响显变量U1、U2。

在模型M2潜在类别1中显变量U1、U2、U3、U4发生的条件概率为45.3%、43.7%、57.2%、51.6%,潜在类别1对四个显变量影响大小相近;潜在类别2中显变量U3、U4发生条件概率为100% 、93.9%,可以看出在模型M2中,潜在类别1不具有特异性,而潜在类别2主要影响U3、U4。综上分析模型M1具有明显的倾向性,模型M1的潜在类别1可以认为是U3、U4倾向类,而潜在类别2是U1、U2倾向类;模型M2的潜在类别1不具有识别性,而潜在类别2倾向于U3、U4为“是”的类别。

图1反映了模型M1四个显变量U1、U2、U3、U4发生的条件概率,图示的结果也说明了潜在类别1对变量U3、U4的影响较大,而类别2对变量U1、U2的影响较大。绘成折线图,可以直观地表现两个类别的差异性。

图1 模型M1四个显变量的条件概率分布情形(略)

图2 模型M2四个显变量的条件概率分布情形(略)

图2反映了模型M2四个显变量U1、U2、U3、U4发生的条件概率,图示结果显示了潜在类别1对变量U1、U2、U3、U4的影响都比较接近,而潜在类别2对显变量U3、U4影响较大。

2.3 模拟数据的多样本潜在类别分析

2.3.1 模型拟合指标

表3 多样本非限定潜在类别分析模型拟合优度指标(略)

表3给出了两样本潜在类别模型分析拟合效果。 χ2与G2显示三分类潜在类别模型结果拟合较好,而指标BIC与AIC结果显示潜变量二分类时结果较好。综合考虑各个指标选择潜变量二分类的模型。

2.3.2 参数估计结果

表4 多样本二分类潜在类别模型条件概率(略)

表4结果显示,两样本潜在类别模型区分为两个潜在类别,全体潜在类别概率分别为69.5%、30.5%,两样本潜在类别概率分别是模型M1的49.98%、50.02%与模型M2的50.05%、49.95%,两组比例相当;而各单元格条件概率差异明显。

图3 多样本比较条件概率分布情形(略)

2.3.3 模型M1和M2两样本比较结果

将模型M1与模型M2数据合并,样本含量为2000,根据式(2)把观察值分到两个潜在类别中。以观察值{0000} 的分类结果为例,先根据式

(1)求期望概率(见表5第5、6列):

πABCDX00001=πX1 πX01 πX01 πX01 πX01

=0.451×0.482×0.519×0.544×0.723=0.044

πABCDX00002=πX2 πX02 πX02 πX02 πX02

=0.697×0.691×0.265×0.382×0.277=0.014

相应地样本量乘以期望概率可以得到期望频数(见表5第7、8列),然后得到分类条件概率:

πBCD10000=πABCDX00001 πABCDX00001+πABCDX00002=0.759

πBCD20000=πABCDX00002 πABCDX00001+πABCDX00002=0.241

由于潜在类别1的分类条件概率大于潜在类别2的分类条件概率,因此把观察值{0000} 归为潜在类别1,其它观察值分类同理(见表5第9、10列)。

表5 模型M1与模型M2合并样本观察值期望概率与分类情形(略)

把所有观察值区分为两类,然后检验模型M1与模型M2之间潜在类别的差异性,表6中χ2 结果显示两个样本之间的分类没有统计学差异(P

表6 二分类潜在类别模型多样本比较(略)

注:χ2=1.673; df=1; P

3 讨论

潜在类别分析是描述一组分类变量间相互关系所形成的数学模型,综合了结构方程模型与对数线性模型的思想,可以做探索性研究,也可以用于验证性研究,拓展了潜变量模型的应用范围。探索性潜在类别模型的主要任务是决定外显变量的变异最能够被几个潜在类别所解释。当T个类别的模型即为最佳模型时,会使理论最接近实际数据,每一潜在类别有一群具有相同特征的观察值所组成。验证性潜在类别模型的主要特征是研究者基于不同的理论观点或特殊需要,比对观察数据,对模型参数进行设限,借以检验特殊反映形态是否存在。

模型识别问题是潜在类别模型应用过程中的一个重要步骤。一般对潜在类别模型理论不太清楚的研究者通常会忽视这一步骤。当模型无法识别,Mplus软件会自动中止,出现警示语句。当然,在某些情形之下,电脑的输出结果并未明显告知已有识别问题产生。这时需要研究者仔细阅读输出的结果。在潜在类别分析中,由于概率的参数化有其特殊前提,有可能导致模型识别问题的发生。如果模型中的参数要能够顺利求出一组最佳解,那么参数数目必须小于自由度。如果自由度小于0,将造成模型的识别不足问题,无法进行收敛求解的迭代。但是并非自由度大于0就必然可以让模型具有可识别性。如果模型无法识别,可以将部分参数设定限制,改变概率估计的方式,提高模型估计的数学条件。不过值得注意的是此时自由度的数目就未必反映估计参数的多寡,若我们要进行设限模型的比较时,参数的变动未必是自由度相减。

本研究假定造成外显变量之间具有关联性的原因可能是外显变量背后存在一个共同的潜在变量,在模型分析时考虑了这个变量之后外显变量既无关联性,呈现局部独立性,这只是一维的情况。如果造成外显变量之间的关联性的原因不是一个潜在类别变量,而是多个外显变量所造成,此时需利用多维度潜在类别模型(hierarchical latent class model)。这些理论模型都具有进一步研究的重要价值。

目前已有多种软件可以进行潜在类别模型分析,如LatentGOLD、SAS PROC LCA和SAS PROC LTA、LEM等。本文主要使用了Mplus软件进行编程实现,Mplus相对比其它软件在处理潜在类别模型时,具有综合性强、程序简单的特点和优势,尤其是处理混合模型、多水平模型时可以说无人能出其右。

【参考文献】

1 Jacques.A.Hagenaars & Allan.L.McCutheon.Applied latent class analysis. Cambridge University Press,2002.

2 L.Kaufman.& P.J.Rousseeuw. Finding Groups In Data: An Introduction To Cluster Analysis.New York:wiley,1996.

3 邱皓政,著. 潜在类别模型的原理与技术. 北京: 教育科学出版社, 2008.