美章网 资料文库 悲观剪枝在学生成绩中的运用范文

悲观剪枝在学生成绩中的运用范文

本站小编为你精心准备了悲观剪枝在学生成绩中的运用参考范文,愿这些范文能点燃您思维的火花,激发您的写作灵感。欢迎深入阅读并收藏。

悲观剪枝在学生成绩中的运用

《电脑开发与应用杂志》2014年第六期

1构建学生成绩决策树

(1)收集数据。从教学信息管理数据库中收集学生成绩数据集,保存在学生成绩数据score表中。学生成绩数据score表格部分原始数据如图1所示。(2)用Weka软件并采用ID3算法形成决策树,分类规则描述如下:rule1:IF(感兴趣=B)and(课前预习=C)and(教学态度=B)and(教学内容=A)THEN(scoretype=及格)rule2:IF(感兴趣=A)and(教学内容=A)and(课前预习=B)and(课后复习=B)and(课堂掌握=A)and(教学方法=A)and(教学态度=B)THEN(scoretype=中)rule3:IF(感兴趣=A)and(教学内容=A)and(课前预习=B)and(课后复习=B)and(课堂掌握=B)and(教学态度=A)and(教学效果=B)THEN(scoretype=良)从上看出这些分类规则过长,说明影响学生成绩的因素过多,同时提取出的分支太多,不利于对它进行精确分析,所以在这里需要对它进行剪枝。

⑶对学生成绩决策树剪枝并分析。选取C=0.25,则z=0.68。从中抽取感兴趣=B,课前预习=C这个非叶子节点进行分析,E=5,N=50,f=5/50=1/10。根据公式可得q=0.1324<0.25,所以可以剪去这个非叶子节点。感兴趣=B,课前预习=B这个节点进行分析,E=10,N=20,f=1/2。根据公式可得,q=0.5752>0.25,所以保留这个非叶子节点。Weka软件采用悲观剪枝算法生成剪枝以后的决策树,如图3所示。决策树的学习算法中,决策树的复杂度和分类精度是需要考虑的两个最重要因素。表1所示分类器的节点值为42,采用10折交叉验证法,我们发现检验正确率为76.6423%,结果小于训练正确率77.7036%,这种检验正确率小于训练正确率、预测检验误差较大的现象就是常见的“过度拟合”问题,这种问题出现的主要原因有:①噪声数据的影响;②某些决策仅仅基于少量数据,从而造成与客观事实不符的结果。为了解决过度拟合问题,我们采用悲观剪枝方法对生成的完全决策树进行优化。为了评估剪枝后分类法的准确性,定义变量Ac-curacy计算样本预测总体正确率,变量Precision评估标记为“Cluster中”表示中的学生的精度。

定义1:Accuracy=ncn*100%。其中,nc为被正确分类的实例数,n为测试集中样本实例总数。定义2:Precision=t_pos(t_pos+f_pos)。其中,t_pos是被正确地按此分类的“Cluster中”样本数,f_pos是被错误地标记为“Cluster中”的成绩为良与及格的样本数。剪枝前后的参数如表1所示。由表1看出,修剪的决策树既减少了树的总节点数,减少了决策树复杂度,增强了树的可理解性,又提高了树的精度和分类预测准确率。现将剪枝后的“学生成绩”分类规则描述如下。rule1:i(f感兴趣=C)then(scoretype=及格)rule2:i(f感兴趣=A)then(scoretype=中)rule3:if(感兴趣=B)and(课前预习=C)then(scoretype=及格)rule4:i(f感兴趣=B)and(课前预习=B)and(教学态度=B)then(scoretype=及格)rule5:i(f感兴趣=B)and(课前预习=B)and(教学态度=A)then(scoretype=中)rule6:i(f感兴趣=B)and(课前预习=B)and(教学态度=C)then(scoretype=及格)rule7:if(感兴趣=B)and(课前预习=B)then(scoretype=及格)从图3可知,决策树的第一个选择属性是感兴趣,说明感兴趣是学生成绩划分的第一主要影响因素,这与实际统计到的结论相符合,而且学生在对所学科目感兴趣的情况下学生成绩最好。其后的选择属性有教学内容、课前预习、课堂掌握等。在教学中,教学内容是最主要因素,如果教学内容引人入胜,学生就会认真听讲,从而提高学习成绩。这样,通过决策树分析,高校决策者就能及时决定学生成绩众多因素中所隐藏的固有特征,做出恰当的教学改革,实现教学质量的快速提高。

2结论

在Weka环境中采用ID3算法生成学生成绩决策树,然后采用悲观剪枝算法对其进行剪枝,最后分析决策树在剪枝前后的各种问题,从而全面地分析影响学生成绩的因素与感兴趣的教学内容、课前预习等的内在联系,可以及时指导教师在以后的教学工作中采取恰当的方法,最终提高教学质量。

作者:李萍单位:运城学院计算机科学与技术系