京公网安备 11010802034615号
经营许可证编号:京B2-20210330
运用spss软件进行信度分析_spss信度和效度分析_spss信度分析操作步骤
问卷的信度分析
一、概念:
1、信度是指测验所得到结果的一致性或稳定性,而非测验或量表本身;
2、信度值是指在某一特定类型下的一致性,非泛指一般的一致性,信度系数会因不同时间、不同受试者或不同评分者而出现不同的结果;
3、信度是效度的必要条件,非充分条件。信度低效度一定低,但信度高未必表示效度也高;
信度检验完全依赖于统计方法。
信度可分为:内在信度:对一组问题是否测量同一个概念,同时组成量表题项的内在一致性程度如何;常用的检测方法是Cronbach’s alpha系数。外在信度:对相同的测试者在不同时间测得的结果是否一致,再测信度是外在信度最常用的检验法。
二、信度指标:
1. 用信度系数来表示信度的大小。信度系数越大,表明测量的可信程度越大。究竟信度系数要多少才算有高的信度。学者DeVellis(1991)认为,0.60~0.65(最好不要);0.65~0.70(最小可接受值);0.70~0.80(相当好);0.80~0.90(非常好)。由此,一份信度系数好的量表或问卷,最好在0.80以上,0.70至0.80之间还算是可以接受的范围;分量表最好在0.70以上,0.60至0.70之间可以接受。若分量表的内部一致性系数在0.60以下或者总量表的信度系数在0.80以下,应考虑重新修订量表或增删题项。
2.信度指标多以相关系数来表示:大致可分为三类:稳定系数(跨时间的一致性)、等值系数(跨形式的一致性)和内在一致性系数(跨项目的一致性)。
三、信度分析方法:1.重测信度法:
用同样的问卷对同一被测间隔一定时间的重复测试,也可称作测试——再测方法,计算两次测试结果的相关系数。很显然这是稳定系数,即跨时间的一致性。重测信度法适用于事实性的问卷,也可用于不易受环境影响的态度、意见式问卷。由于重测信度需要对同一样本试测两次,而被测容易受到各种事件、活动的影响,所以间隔时间需要适当。较常用者为间隔二星期或一个月。
2.复本信度法(等同信度法):
复本信度法是让被测一次填写两份问卷复本,计算两个复本的相关系数。由于这种方法要求两个复本除表达方式不同外,在内容、格式、难度和对应题项的提问方式等方面都要完全一致,所以复本信度属于等值系数。在实际的调查中,问卷很难达到这种要求,这种方法较少被采用。
3. 折半信度法:
折半信度法是指将测量项目按奇偶项分成两半,分别记分,测算出两半分数之间的相关系数(实际应用EXCEL软件),再据此确定整个测量的信度系数RXX。折半信度属于内在一致性系数,测量的是两半项目间的一致性。这种方法不适合测量事实性问卷,常用于态度、意见式问卷的信度分析。在问卷调查中,态度测量最常见的形式是5级李克特量表。进行折半信度分析时,如果量表中含有反意题项,应先将反意题项的得分作逆向处理,以保证各题项得分方向的一致性,然后将全部题项按奇偶或前后分为尽可能相等的两半,计算二者的相关系数(rhh)),即半个量表的信度系数),最后用斯皮尔曼-布朗(Spearman-Brown)公式:rtt=2rhh/(1+rhh),求出整个量表的信度系数rtt。
4. 评分者信度:
这种方法在测量工具的标准化程度较低的情况下进行的。不同评分者的判分标准也会影响测量的信度,要检验评分者信度,可计算一个评分者的一组评分与另一个评分者的一组评分的相关系数。
5. a信度系数法:
克伦巴赫a信度系数是目前最常用的信度系数。其公式为:a=(k/k-1)*(1-(∑Si2)/ST2)
其中,K为量表中题项的总数,Si2 为第i题得分的题内方差,ST2为全部题项总得分的方差。从公式中可以看出,a系数评价的是量表中各题项得分间的一致性,属于内在一致性系数。这种方法适用于态度、意见式问卷(量表)的信度分析。
在李克特量表法中常用的信度检验方法为“Cronbach’s a”系数及“折半信度”.
四、利用SPSS进行信度分析
在SPSS中,专门用来进行测验信度分析的模块为Scale下的Reliability Analysis;使用Data Reduction之下的Factor模块。
Reliability Analysis模块主要功能是检验测验的信度,主要用来检验折半信度、库李及a系数以及Hoyt信度系数值。至于重测信度和复本信度,只需将样本在二次(份)测验的分数的数据合并到同一数据文件之后,利用Correlate之下的Bivariate求其相关系数,即为重测或复本信度;而评分者信度则就就是使用的Spearman等级相关及Kendall和谐系数。
表1 Reliability Analysis模块的Model选项的参数及对应中文术语
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01