上海中小企业网站,企业网站开发实训目的和意义,m开头的网站开发工具,辽宁建设工程信息网官网首页官方转自#xff1a;http://blog.sina.com.cn/s/blog_4ee13c2c01016div.html1#xff0c;T检验和F检验的由来一般而言#xff0c;为了确定从样本(sample)统计结果推论至总体时所犯错的概率#xff0c;我们会利用统计学家所开发的一些统计方法#xff0c;进行统计检定。 通过把…转自http://blog.sina.com.cn/s/blog_4ee13c2c01016div.html1T检验和F检验的由来一般而言为了确定从样本(sample)统计结果推论至总体时所犯错的概率我们会利用统计学家所开发的一些统计方法进行统计检定。 通过把所得到的统计检定值与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较我们可以知道在多少%的机会下会得到目前的结果。倘若经比较后发现出现这结果的机率很少亦即是说是在机会很少、很罕有的情况下才出现那我们便可以有信心的说这不是巧合是具有统计学上的意义的(用统计学的话讲就是能够拒绝虚无假设null hypothesis,Ho)。相反若比较后发现出现的机率很高并不罕见那我们便不能很有信心的直指这不是巧合也许是巧合也许不是但我们没能确定。 F值和t值就是这些统计检定值与它们相对应的概率分布就是F分布和t分布。统计显著性sig就是出现目前样本这结果的机率。 2统计学意义P值或sig值结果的统计学意义是结果真实程度能够代表总体的一种估计方法。专业上p值为结果可信程度的一个递减指标p值越大我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联我们重复类似实验会发现约20个实验中有一个实验我们所研究的变量关联将等于或强于我们的实验结果。这并不是说如果变量间存在关联我们可得到5%或95%次数的相同结果当总体中的变量存在关联重复研究和发现关联的可能性与设计的统计学效力有关。在许多研究领域0.05的p值通常被认为是可接受错误的边界水平。 3T检验和F检验 至於具体要检定的内容须看你是在做哪一个统计程序。 举一个例子比如你要检验两独立样本均数差异是否能推论至总体而行的t检验。两样本(如某班男生和女生)某变量(如身高)的均数并不相同但这差别是否能推论至总体代表总体的情况也是存在著差异呢会不会总体中男女生根本没有差别只不过是你那麼巧抽到这2样本的数值不同为此我们进行t检定算出一个t检定值。与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。若显著性sig值很少比如0.05(少於5%机率)亦即是说「如果」总体「真的」没有差别那麼就只有在机会很少(5%)、很罕有的情况下才会出现目前这样本的情况。虽然还是有5%机会出错(1-0.055%)但我们还是可以「比较有信心」的说目前样本中这情况(男女生出现差异的情况)不是巧合是具统计学意义的「总体中男女生不存差异」的虚无假设应予拒绝简言之总体应该存在著差异。 每一种统计方法的检定的内容都不相同同样是t-检定可能是上述的检定总体中是否存在差异也同能是检定总体中的单一值是否等於0或者等於某一个数值。 至於F-检定方差分析(或译变异数分析Analysis of Variance)它的原理大致也是上面说的但它是透过检视变量的方差而进行的。它主要用于均数差别的显著性检验、分离各有关因素并估计其对总变异的作用、分析因素间的交互作用、方差齐性(Equality of Variances)检验等情况。 4T检验和F检验的关系 t检验过程是对两样本均数(mean)差别的显著性进行检验。惟t检验须知道两个总体的方差(Variances)是否相等t检验值的计算会因方差是否相等而有所不同。也就是说t检验须视乎方差齐性(Equality of Variances)结果。所以SPSS在进行t-test for Equality of Means的同时也要做Levenes Test for Equality of Variances 。 1.在Levenes Test for Equality of Variances一栏中 F值为2.36, Sig.为.128表示方差齐性检验「没有显著差异」即两方差齐(Equal Variances)故下面t检验的结果表中要看第一排的数据亦即方差齐的情况下的t检验的结果。 2.在t-test for Equality of Means中第一排(VariancesEqual)的情况t8.892, df84, 2-Tail Sig.000, Mean Difference22.99既然Sig.000亦即两样本均数差别有显著性意义 3.到底看哪个Levenes Test for Equality of Variances一栏中sig,还是看t-test for Equality of Means中那个Sig. (2-tailed)啊?答案是两个都要看。先看Levenes Test for Equality of Variances如果方差齐性检验「没有显著差异」即两方差齐(Equal Variances)故接著的t检验的结果表中要看第一排的数据亦即方差齐的情况下的t检验的结果。反之如果方差齐性检验「有显著差异」即两方差不齐(Unequal Variances)故接著的t检验的结果表中要看第二排的数据亦即方差不齐的情况下的t检验的结果。 4.你做的是T检验为什么会有F值呢?就是因为要评估两个总体的方差(Variances)是否相等要做Levenes Test for Equality of Variances要检验方差故所以就有F值。 另一种解释 t检验有单样本t检验配对t检验和两样本t检验。 单样本t检验是用样本均数代表的未知总体均数和已知总体均数进行比较来观察此组样本与总体的差异性。 配对t检验是采用配对设计方法观察以下几种情形1两个同质受试对象分别接受两种不同的处理2,同一受试对象接受两种不同的处理3同一受试对象处理前后。 F检验又叫方差齐性检验。在两样本t检验中要用到F检验。 从两研究总体中随机抽取样本要对这两个样本进行比较的时候首先要判断两总体方差是否相同即方差齐性。若两总体方差相等则直接用t检验若不等可采用t检验或变量变换或秩和检验等方法。 其中要判断两总体方差是否相等就可以用F检验。 若是单组设计必须给出一个标准值或总体均值同时提供一组定量的观测结果应用t检验的前提条件就是该组资料必须服从正态分布若是配对设计每对数据的差值必须服从正态分布若是成组设计个体之间相互独立两组资料均取自正态分布的总体并满足方差齐性。之所以需要这些前提条件是因为必须在这样的前提下所计算出的t统计量才服从t分布而t检验正是以t分布作为其理论依据的检验方法。 简单来说就是实用T检验是有条件的其中之一就是要符合方差齐次性这点需要F检验来验证。 1、问自由度是什么怎样确定答定义构成样本统计量的独立的样本观测值的数目或自由变动的样本观测值的数目。用df表示。自由度的设定是出于这样一个理由在总体平均数未知时用样本平均数去计算离差常用小s会受到一个限制——要计算标准差小s就必须先知道样本平均数而样本平均数和n都知道的情况下数据的总和就是一个常数了。所以“最后一个”样本数据就不可以变了因为它要是变总和就变了而这是不允许的。至于有的自由度是n2什么的都是同样道理。 在计算作为估计量的统计量时引进一个统计量就会失去一个自由度。 通俗点说一个班上有50个人我们知道他们语文成绩平均分为80现在只需要知道49个人的成绩就能推断出剩下那个人的成绩。你可以随便报出49个人的成绩但是最后一个人的你不能瞎说因为平均分已经固定下来了自由度少一个了。 简单点就好比你有一百块这是固定的已知的假设你打算买五件东西那么前四件你可以随便买你想买的东西只要还有钱的话比如说你可以吃KFC可以买笔可以买衣服这些花去的钱数目不等当你只剩2块钱时或许你最多只能买一瓶可乐了当然也可以买一个肉松蛋卷但无论怎么花你都只有两块钱而这在你花去98块那时就已经定下来了。 这个例子举的真不错 2、问X方检验中自由度问题答在正态分布检验中这里的M三个统计量为N总数、平均数和标准差。 因为我们在做正态检验时要使用到平均数和标准差以确定该正态分布形态此外要计算出各个区间的理论次数我们还需要使用到N。 所以在正态分布检验中自由度为K3。这一条比较特别要记住 在总体分布的配合度检验中自由度为K1。 在交叉表的独立性检验和同质性检验中自由度为r1×c1。 3、问t检验和方差分析有何区别答t检验适用于两个变量均数间的差异检验多于两个变量间的均数比较要用方差分析。 用于比较均值的t检验可以分成三类第一类是针对单组设计定量资料的第二类是针对配对设计定量资料的第三类则是针对成组设计定量资料的。后两种设计类型的区别在于事先是否将两组研究对象按照某一个或几个方面的特征相似配成对子。无论哪种类型的t检验都必须在满足特定的前提条件下应用才是合理的。若是单组设计必须给出一个标准值或总体均值同时提供一组定量的观测结果应用t检验的前提条件就是该组资料必须服从正态分布若是配对设计每对数据的差值必须服从正态分布若是成组设计个体之间相互独立两组资料均取自正态分布的总体并满足方差齐性。之所以需要这些前提条件是因为必须在这样的前提下所计算出的t统计量才服从t分布而t检验正是以t分布作为其理论依据的检验方法。值得注意的是方差分析与成组设计t检验的前提条件是相同的即正态性和方差齐性。t检验是目前医学研究中使用频率最高医学论文中最常见到的处理定量资料的假设检验方法。t检验得到如此广泛的应用究其原因不外乎以下几点现有的医学期刊多在统计学方面作出了要求研究结论需要统计学支持传统的医学统计教学都把t检验作为假设检验的入门方法进行介绍使之成为广大医学研究人员最熟悉的方法t检验方法简单其结果便于解释。简单、熟悉加上外界的要求促成了t检验的流行。但是由于某些人对该方法理解得不全面导致在应用过程中出现不少问题有些甚至是非常严重的错误直接影响到结论的可靠性。将这些问题归类可大致概括为以下两种情况不考虑t检验的应用前提对两组的比较一律用t检验将各种实验设计类型一律视为多个单因素两水平设计多次用t检验进行均值之间的两两比较。以上两种情况均不同程度地增加了得出错误结论的风险。而且在实验因素的个数大于等于2时无法研究实验因素之间的交互作用的大小。 问统计学意义P值答结果的统计学意义是结果真实程度能够代表总体的一种估计方法。专业上P值为结果可信程度的一个递减指标P值越大我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。P值是将观察结果认为有效即具有总体代表性的犯错概率。如P0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联我们重复类似实验会发现约20个实验中有一个实验我们所研究的变量关联将等于或强于我们的实验结果。这并不是说如果变量间存在关联我们可得到5%或95%次数的相同结果当总体中的变量存在关联重复研究和发现关联的可能性与设计的统计学效力有关。在许多研究领域0.05的P值通常被认为是可接受错误的边界水平。 4、问如何判定结果具有真实的显著性答在最后结论中判断什么样的显著性水平具有统计学意义不可避免地带有武断性。换句话说认为结果无效而被拒绝接受的水平的选择具有武断性。实践中最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两比较依赖于总体数据集里结论一致的支持性证据的数量依赖于以往该研究领域的惯例。通常许多的科学领域中产生P值的结果≤0.05被认为是统计学意义的边界线但是这显著性水平还包含了相当高的犯错可能性。结果 0.05≥P0.01被认为是具有统计学意义而0.01≥P≥0.001被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。 5、问所有的检验统计都是正态分布的吗答并不完全如此但大多数检验都直接或间接与之有关可以从正态分布中推导出来如t检验、F检验或卡方检验。这些检验一般都要求所分析变量在总体中呈正态分布即满足所谓的正态假设。许多观察变量的确是呈正态分布的这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了参阅非参数和方差分析的正态性检验。这种条件下有两种方法一是用替代的非参数检验即无分布性检验但这种方法不方便因为从它所提供的结论形式看这种方法统计效率低下、不灵活。另一种方法是当确定样本量足够大的情况下通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的该原则对正态方程基础上的总体检验有极其重要的作用。即随着样本量的增加样本分布形状趋于正态即使所研究的变量分布并不呈正态。 6、问假设检验的内涵及步骤答在假设检验中由于随机性我们可能在决策上犯两类错误一类是假设正确但我们拒绝了假设这类错误是“弃真”错误被称为第一类错误一类是假设不正确但我们没拒绝假设这类错误是“取伪”错误被称为第二类错误。一般来说在样本确定的情况下任何决策无法同时避免两类错误的发生即在避免第一类错误发生机率的同时会增大第二类错误发生的机率或者在避免第二类错误发生机率的同时会增大第一类错误发生的机率。人们往往根据需要选择对那类错误进行控制以减少发生这类错误的机率。大多数情况下人们会控制第一类错误发生的概率。 发生第一类错误的概率被称作显著性水平一般用α表示在进行假设检验时是通过事先给定显著性水平α的值而来控制第一类错误发生的概率。在这个前提下假设检验按下列步骤进行 1、确定假设 2、进行抽样得到一定的数据 3、根据假设条件下构造检验统计量并根据抽样得到的数据计算检验统计量在这次抽样中的具体值 4、依据所构造的检验统计量的抽样分布和给定的显著性水平确定拒绝域及其临界值 5、比较这次抽样中检验统计量的值与临界值的大小如果检验统计量的值在拒绝域内则拒绝假设到这一步假设检验已经基本完成但是由于检验是利用事先给定显著性水平的方法来控制犯错概率的所以对于两个数据比较相近的假设检验我们无法知道那一个假设更容易犯错即我们通过这种方法只能知道根据这次抽样而犯第一类错误的最大概率即给定的显著性水平而无法知道具体在多大概率水平上犯错。计算 P值有效的解决了这个问题P值其实就是按照抽样分布计算的一个概率值这个值是根据检验统计量计算出来的。通过直接比较P值与给定的显著性水平α的大小就可以知道是否拒绝假设显然这就代替了比较检验统计量的值与临界值的大小的方法。而且通过这种方法我们还可以知道在p值小于α的情况下犯第一类错误的实际概率是多少p0.03α0.05那么拒绝假设这一决策可能犯错的概率是0.03。需要指出的是如果Pα那么假设不被拒绝在这种情况下第一类错误并不会发生。 7、问卡方检验的结果值是越大越好还是越小越好答与其它检验一样所计算出的统计量越大在分布中越接近分布的尾端所对应的概率值越小。如果试验设计合理、数据正确显著或不显著都是客观反映。没有什么好与不好。 8、问配对样本的T检验和相关样本检验有何差别答配对样本有同源配对如动物实验中双胞胎、条件配对如相同的环境、自身配对如医学实验中个体的用药前后等。好像没有解释清楚啊同问这个到底什么区别呢 9、问在比较两组数据的率是否相同时二项分布和卡方检验有什么不同答卡方分布主要用于多组多类的比较是检验研究对象总数与某一类别组的观察频数和期望频数之间是否存在显著差异要求每格中频数不小于5如果小于5则合并相邻组。二项分布则没有这个要求。如果分类中只有两类还是采用二项检验为好。如果是2*2表格可以用fisher精确检验在小样本下效果更好。 10、问如何比较两组数据之间的差异性答从四个方面来回答 1.设计类型是完全随机设计两组数据比较不知道数据是否是连续性变量 2.比较方法如果数据是连续性数据且两组数据分别服从正态分布方差齐方差齐性检验则可以采用t检验如果不服从以上条件可以采用秩和检验。 3.想知道两组数据是否有明显差异不知道这个明显差异是什么意思是问差别有无统计学意义即差别的概率有多大还是两总体均数差值在哪个范围波动如果是前者则可以用第2步可以得到P值如果是后者则是用均数差值的置信区间来完成的。当然两者的结果在SPSS中均可以得到。 11、问回归分析和相关分析的联系和区别答回归分析(Regression)Dependant variable is defined and can be forecasted by independent variable.相关分析(Correlation)The relationship btw two variables. --- A dose not define or determine B.回归更有用自变量解释因变量的意思有一点点因果关系在里面并且可以是线性或者非线形关系相关更倾向于解释两两之间的关系但是一般都是指线形关系特别是相关指数有时候图像显示特别强二次方图像但是相关指数仍然会很低而这仅仅是因为两者间不是线形关系并不意味着两者之间没有关系因此在做相关指数的时候要特别注意怎么解释数值特别建议做出图像观察先。不过无论回归还是相关在做因果关系的时候都应该特别注意并不是每一个显著的回归因子或者较高的相关指数都意味着因果关系有可能这些因素都是受第三第四因素制约都是另外因素的因或果。对于此二者的区别我想通过下面这个比方很容易理解对于两个人关系相关关系只能知道他们是恋人关系至于他们谁是主导者谁说话算数谁是跟随者一个打个喷嚏另一个会有什么反应相关就不能胜任而回归分析则能很好的解决这个问题回歸未必有因果關係。回歸的主要有二一是解釋一是預測。在於利用已知的自變項預測未知的依變數。相關係數主要在了解兩個變數的共變情形。如果有因果關係通常會進行路徑分析(path analysis)或是線性結構關係模式。我觉得应该这样看我们做回归分析是在一定的理论和直觉下通过自变量和因变量的数量关系探索是否有因果关系。楼上这位仁兄说“回归未必有因果关系……如果有因果关系通常进行路径分析或线性结构关系模式”有点值得商榷吧事实上回归分析可以看成是线性结构关系模式的一个特例啊。我觉得说回归是探索因果关系的并没错因为实际上最后我们并不是完全依据统计的结果来判断因果性只有在统计结果和理论及现实比较吻合的基础上我们才肯定这种因果关系。任何统计方法只是一种工具但是不能完全依赖于这种工具。即使是SEM我们也不能说完全认定其准确性因为即使方法是好的但是变量的复杂关系呈现的方式也是多种多样的可能统计只能告诉你一个方向上的最优解可未必是最符合实际的更何况抽样数据的质量好坏也会使得结果不符合事实从而导致人们怀疑统计方法的准确性。统计只说明统计关联。不证明因素关系。回归有因果关系相关未必。回归分析是处理两个及两个以上变量间线性依存关系的统计方法。此类问题很普遍如人头发中某种金属元素的含量与血液中该元素的含量有关系人的体表面积与身高、体重有关系等等。回归分析就是用于说明这种依存变化的数学关系。任何事物的存在都不是孤立的而是相互联系、相互制约的。身高与体重、体温与脉搏、年龄与血压等都存在一定的联系。说明客观事物相互间关系的密切程度并用适当的统计指标表示出来这个过程就是相关分析.转载于:https://www.cnblogs.com/1394htw/p/5019839.html