学位论文 > 优秀研究生学位论文题录展示

大学英语课堂环境下读写结合写作测试效度研究

作 者: 姜蕾
导 师: 邹申
学 校: 上海外国语大学
专 业: 英语语言文学
关键词: 读写结合写作测试 效度研究 信度 构念效度 效标关联效度 真实性 互动性
分类号: H319
类 型: 博士论文
年 份: 2011年
下 载: 269次
引 用: 0次
阅 读: 论文下载
 

内容摘要


有语言教学的地方就有语言测试,有效的语言测试不仅可以测量教学效果和学生成就,也应该对相关教学起到正面的反拨作用。写作能力是一项十分重要的语言输出能力,国内外的各种语言测试都十分重视写作能力的测试,并设置重要的比例。观察国外写作测试研究,作者发现有影响力的托福考试和美国高校中的学术英语考试正大规模地采用综合写作测试的形式,其成功经验对国内高校的写作测试具有一定的启示作用。本研究有两个目的:一是对写作相关理论进行全面的回顾和综述,旨在提出一个应用于国内大学英语课堂的综合写作测试任务设计框架。框架理论基础研究包括写作本质和写作过程的探讨,写作能力的构念和可测量的写作能力的维度的分析,写作任务的类型和相应的优缺点,也包括对大学英语教学要求和大学英语考试大纲的重新解读和对巴赫曼和帕尔马的真实性互动性概念的重新认知;框架的设计包括对课堂测试本质的分析和测试规范的描述。二是通过实验验证所提出的框架的可操作性及其信度和效度。实验试图解决的问题包括框架操作过程中可能出现的问题,框架应用于不同水平的学生时的信度和效度,框架进行大规模应用时的信度和效度等,同时也对学生在读写结合写作任务和独立写作任务中的作文语料进行对比分析,试图发现他们在两种任务中的表现差异,第二个目的主要通过实验收集数据并采用定量分析的方法来提供解释依据。从本质上讲,写作是语言行为,也是社会文化行为,更是认知行为。写出来的语言和说出来的话相比有正式、准确和复杂等特点;作为社会文化行为,写作是一种交际手段,其表现形式受文化规约的限制;写作过程不仅是个体表达思想的过程,更是思想在大脑内进行认知努力和认知加工的过程,这个过程是非线性的循环过程,有经验的作者运用知识转述模式,而没有经验的新手则采用知识直诉模式,写作过程是作者个体与写作环境进行互动的结果,受工作记忆,动机或情感,认知过程和长期记忆的影响。海姆斯(1972)、卡纳尔和斯温(1980)和巴赫曼(1990)把语言知识分为语言的知识、语篇知识和社会语言知识,后来巴赫曼和帕尔马(1996)又引入策略能力来解释交际语言能力;在前人理论研究的基础上,作者把写作能力概括为语言的知识、语篇知识和策略能力。写作能力是多元的,其维度可通过语言的复杂性、准确性和流利性来测量(斯基汉,1998;埃利斯,2008)。根据前人的研究,作者总结出十个可测量的写作能力的维度,包括语言的复杂性(词长、类符/形符比、T单位词比、分句/T单位比、从属分句/分句比),准确性(无错误T单位比率、无错误分句比率)和流利性(词数、T单位数、分句数),可用于实验研究中的语料分析。回顾国内外成功的大规模考试,写作任务可大致分为独立写作和综合写作,综合写作又分为听读写综合和读写综合,作者举例分析了每种类型的优缺点,并提出尝试在大学英语课堂环境下实施读写结合写作测试的设想(相比于听读写综合任务,读写综合任务的设计对普通教师更具可操作性,因此其研究结果可能更有推广性)。本文提出读写结合写作测试任务的设计框架,旨在为大学英语教师在课堂范围内的写作命题提出理论性的指导和参考。大学英语《教学要求》和大学英语《考试大纲》对该框架具有指导性作用,《教学要求》把大学阶段的英语教学分为三个层次,即一般要求、较高要求和更高要求,并对每个层次的写作能力做了相应的描述,四六级考试大纲也对写作的题目、题材、字数、评分要求和时间做了说明。巴赫曼和帕尔马的真实性和互动性理论充分地解释了读写结合写作任务接近真实的学术领域和职业领域的真实写作任务的本质。就真实性而言,写作任务应模仿现实生活或学术交际中的任务,采纳真实语料作为输入材料;就互动性而论,写作任务应涉及学生已知的或提供的话题知识,与其兴趣、语言能力和策略能力的良好互动会带来学生在测试任务中的最优化表现。框架的设计包括对课堂测试本质的分析和测试规范的描述。课堂测试属于成就考试,是对教学效果的检验;同时也是标准参照考试,应测量学生对教学目标的掌握情况。综合评分法应用广泛且使用快捷,分析性评分法能够提供详细的诊断信息但耗时费力。结合韦格尔(2007)对写作测试任务的维度的总结以及巴赫曼和帕尔马对测试任务输入材料的特点的描述,作者提出适用于大学英语课堂的读写结合写作测试框架并设计了相关测试任务(包括评分标准)。实证研究的目的是验证该框架在应用时的可操作性及其信度和效度。本文的实验研究包括两个阶段。第一阶段是小范围的效度研究,旨在发现该框架在应用时可能存在的问题以及信度和效度。东北大学的30名非英语专业本科一年级学生参加了本次研究,研究工具是一项读写结合写作测试任务和问卷调查。参加测试的学生的作文由2位有经验的教师打细评分,另外1位有经验的教师打粗评分,细评分的平均分是主要研究数据。这些学生同期参加的大学英语四级考试成绩(包括总成绩和写作成绩)和他们的英语课堂写作成绩用作标准关联效标。效度验证主要包括信度检验、平均分检验和相关检验,得出结论如下。首先,该框架的信度系数为0.704,符合写作测试标准。其次,部分-整体相关系数为0.779-0.859,部分-部分相关系数是0.473-0.639,显示可接受的构念效度。此外,细评分的平均分与四级考试写作成绩和英语课堂写作成绩的相关系数分别为0.723和0.712,表明理想的效标关联效度。同时,问卷结果显示参加该研究的教师和学生总体对该框架持肯定态度,普遍认为能够合理地测试中国大学生的英语写作能力。因此,读写结合写作测试在大学英语课堂应用中显示了符合理论要求的信度和效度且有较强的实用性。第二阶段的研究涉及该框架的大规模应用效果和与传统的独立写作测试的对比研究。90名非英语专业的学生参加了本次研究,他们分层抽样于一年级学生,二年级学生和研究生一年级学生,每个年级各30人。研究工具是读写结合写作任务和独立写作任务以及问卷调查。实验分两个步骤进行:第一步,参加独立写作测试,第二步,一个月后,参加读写结合写作测试,题目与独立写作测试相同。参加测试的学生的2份作文同时由2位有经验的教师打细评分,1位有经验的教师打粗评分,细评分的平均分做主要研究数据。同样采用信度检验、平均分检验和相关检验并得出以下结论。首先,当该框架应用于不同水平的学生时,显示合理的信度系数(0.718,0.753和0.701),部分-整体相关系数(一年级为0.736-0.764,二年级为0.841-0.906,研究生为0.778-0.873)十分理想,部分-部分相关系数(一年级是0.278-0.560,二年级是0.535-0.817,研究生是0.467-0.677)跨度较大,但多数可接受。其次,当该框架进行大规模应用时,信度系数(0.713),部分-整体相关系数(0.790-0.843),部分-部分相关系数(0.445-0.676)总体符合理论要求(一部分部分-部分相关系数除外)。因此,该框架既适用于测试不同水平的学生,也适用于大规模地应用在课堂上的写作能力测试。此外,本文也对学生在读写结合写作任务和独立写作任务中的作文进行了对比分析(90人,180篇),试图发现他们在两种任务中的表现差异。一方面,从内容、结构、语言准确性和语言复杂性几个方面进行了分数上的对比,另一方面,从语言的复杂性和流利性等方面进行了语料对比,对比的样本包括分层对比和整体对比。对比研究发现:其一,分层和整体均在读写结合任务中倾向于获得更高的分数(包括总分和四个分项小分);其二,分层和整体均在读写结合任务中倾向于用更长的单词、造更长的句子(二年级学生除外)、更多地运用复合句和复杂句,更高比例地使用被动语态和动词名词化现象尤为突出(大约2倍),同时也显示出更高的流利性(从词数、句数和复合句及复杂句的数量看),但分层和整体均显示出更低的词符/形符比,说明在两种写作任务中学生表现的词汇量是相似的。对比分析结果与问卷调查的结果基本一致,学生普遍认为阅读材料对作文有一定的帮助,一年级学生反映帮助体现在作文的内容、结构和语言各个方面,而高年级学生认为帮助可能更多地表现在作文的内容和结构上。总之,本论文基于理论综述的基础提出读写结合写作测试任务的设计框架并通过实证研究验证了该框架的信度和效度,期望这个尝试对大学英语课堂测试和大学英语学期考试中写作任务的设计有一定的启示和参考作用,并对大学英语教学产生正面的反拨作用。

全文目录


Acknowledgements  4-6
Abstract  6-11
摘要  11-15
List of Abbreviations  15-17
List of Figures  17-18
List of Tables  18-27
Chapter 1 Introduction  27-34
  1.1 Background of the study  27-28
  1.2 Purposes of the study  28-29
  1.3 Questions of the study  29-31
  1.4 Layout of the dissertation  31-32
  1.5 Summary  32-34
Chapter 2 Literature Review  34-62
  2.1 Nature of writing  34-45
    2.1.1 Writing as a linguistic activity  35-37
    2.1.2 Writing as a social-cultural activity  37-40
      2.1.2.1 Social aspects of writing  37-38
      2.1.2.2 Cultural aspects of writing  38-40
    2.1.3 Writing as a cognitive activity  40-45
      2.1.3.1 The Hayes-Flower writing model  40-41
      2.1.3.2 The Bereiter-Scardamalia writing models  41-42
      2.1.3.3 The Hayes writing model  42-45
  2.2 Fundamentals of writing ability  45-54
    2.2.1 Components of writing ability  45-50
    2.2.2 Dimensions of writing ability  50-54
      2.2.2.1 Construct of CAF  51-52
      2.2.2.2 Measurement of CAF  52-54
  2.3 Classification of writing assessment tasks  54-61
    2.3.1 Independent writing tasks  54-56
    2.3.2 Integrated writing tasks  56-60
      2.3.2.1 The reading-writing integrated task  56-58
      2.3.2.2 The reading-listening-writing integrated task  58-60
    2.3.3 Using reading-writing integrated assessment for the present study  60-61
  2.4 Summary  61-62
Chapter 3 Empirical and Theoretical Exploration  62-74
  3.1 Empirical exploration  62-66
    3.1.1 Description of Curriculum Requirements  62-64
    3.1.2 Writing components of CET4 and CET6  64-66
  3.2 Theoretical exploration  66-73
    3.2.1 Authentic assessment  66-68
      3.2.1.1 Birth and development of authenticity  66-67
      3.2.1.2 Traits of authentic assessment  67-68
    3.2.2 Interactive assessment  68-71
      3.2.2.1 Birth and development of interactivenss  69-70
      3.2.2.2 Traits of interactive assessment  70-71
    3.2.3 Significance of authentic and interactive assessment to RWIA  71-73
  3.3 Summary  73-74
Chapter 4 Test Specification and Framework Construction  74-93
  4.1 Essence of classroom writing assessment  74-77
    4.1.1 Achievement test  74-75
    4.1.2 Criterion-reference test  75-76
    4.1.3 Implications for RWIA  76-77
  4.2 Scoring methods for writing  77-83
    4.2.1 Holistic scoring  77-80
    4.2.2 Analytic scoring  80-82
    4.2.3 Implications for RWIA  82-83
  4.3 Framework of RWIA tasks  83-89
    4.3.1 Specification of RWIA tasks  83-88
      4.3.1.1 Task dimensions  83-86
      4.3.1.2 Features of input  86-88
    4.3.2 Suggested framework for RWIA tasks  88-89
  4.4 Designing sample RWIA tasks  89-91
  4.5 Summary  91-93
Chapter 5 The Pilot Validation Study  93-110
  5.1 Research purpose  93-94
  5.2 Research subjects and task  94
  5.3 Research operation  94-96
    5.3.1 Testing procedure  95
    5.3.2 Scoring procedure  95-96
    5.3.3 Collection of data  96
  5.4 Data analysis  96-107
    5.4.1 Questionnaire analysis  96-100
      5.4.1.1 Candidates’perspective  97-99
      5.4.1.2 Teachers’perspective  99-100
    5.4.2 Reliability and validity of RWIA  100-107
      5.4.2.1 Descriptive statistics and reliability  100-103
      5.4.2.2 Analyses of construct validity  103-105
      5.4.2.3 Analyses of criterion-related validity  105-107
  5.5 Discussion  107-109
  5.6 Summary  109-110
Chapter 6 The Field Validation Study  110-150
  6.1 Research purpose  110-111
  6.2 Research subjects and task  111-113
  6.3 Research operation  113-115
    6.3.1 Testing procedure  113-114
    6.3.2 Scoring procedure  114-115
      6.3.2.1 Rater training  114-115
      6.3.2.2 Analytic scoring and holistic scoring  115
  6.4 Data collection and analysis  115-144
    6.4.1 Study of reliability and validity  116-134
      6.4.1.1 Study on three levels of candidates  116-122
        6.4.1.1.1 Descriptive statistics and reliability  116-117
        6.4.1.1.2 Analyses of construct validity  117-120
        6.4.1.1.3 Analyses of external validity  120-122
      6.4.1.2 Study on 90 candidates  122-130
        6.4.1.2.1 Descriptive statistics and reliability  124-125
        6.4.1.2.2 Analyses of construct validity  125-127
        6.4.1.2.3 Analyses of external validity  127-130
      6.4.1.3 Candidates’perception on RWIA  130-134
    6.4.2 Comparative study of essay products in two tasks  134-144
      6.4.2.1 Comparative study of analytic measurement  134-137
      6.4.2.2 Comparative study of discourse analysis  137-144
  6.5 Discussion  144-149
  6.6 Summary  149-150
Chapter 7 Conclusions and Recommendations  150-161
  7.1 Research findings  150-153
  7.2 Research implications  153-156
    7.2.1 Design of RWIA as a model  153-155
    7.2.2 Implications of RWIA for writing instruction  155-156
  7.3 Research significance  156-157
  7.4 Research limitations  157-159
    7.4.1 Problems of RWIA itself  157-158
    7.4.2 Problems with this study  158-159
  7.5 Further research  159-160
  7.6 Summary  160-161
Bibliography  161-168
Appendix 1 Empirical Basis  168-181
  Appendix 1.1 The Regents writing test in Georgia State University  168-175
    Appendix 1.1 A Sample Test  168-172
    Appendix 1.1 B Essay scoring rubrics  172-175
  Appendix 1.2 Task 1 in TOEFL (iBT)  175-178
  Appendix 1.3 Requirements of writing ability of non-English majors (Chinese versi  178-179
  Appendix 1.4 Requirements for the writing components in CET4 and CET 6 (Chinese version)  179-181
Appendix 2 Experiments  181-190
  Appendix 2.1 Sample task A  181-182
  Appendix 2.2 Sample task B  182-183
  Appendix 2.3 The Independent Writing Assessment Task  183-184
  Appendix 2.4 The Reading-Writing Integrated Assessment Task  184-186
  Appendix 2.5 Scoring Rubrics – the Field Study  186-190
Appendix 3 Questionnaire  190-195
  Appendix 3.1 Candidate’s Questionnaire – the Pilot Study  190-191
  Appendix 3.2 Rater’s Questionnaire – the Pilot Study  191-192
  Appendix 3.3 Candidate’s Questionnaire – the Field Study  192-195
Appendix 4 Data of the Validation Study  195-209
  Appendix 4.1 Candidates’raw scores in CET4 and writing exercises in English class –the pilot study  195-196
  Appendix 4.2 Candidates’raw scores of analytic rating and those of sub-categories –the pilot study  196-197
  Appendix 4.3 Candidates’ raw scores of holistic rating and analytic rating – the pilot study  197-198
  Appendix 4.4 Raw scores of raters’ratings in the Independent Writing Task–the field study  198-202
  Appendix 4.5 Raw scores of raters’ratings in the Reading-Writing Integrated Assessment Task –the field study  202-206
  Appendix 4.6 Candidates’raw scores in the English Term Examination, CET4 or CET 6 –the field study  206-208
  Appendix 4.7 Raw statistics of discourse analyses  208-209

相似论文

  1. 广州地区初中生作文真实性缺失问题研究,G633.34
  2. 大学生人际互动性的结构与测量,B841
  3. 中国核电厂操纵人员心理健康测评量表的初步修订,B849
  4. 交叉、融合与创新,J52
  5. 数字音频真实性检测方法的研究与实现,TN912.3
  6. 网络广告的特性与效果之间的关系研究,F713.8
  7. 应用需要层次理论和人性关怀照护理论构建最优陪护模式的研究,R47
  8. 埃森儿童青少年创伤问卷中文版信效度研究,B841
  9. 基于多元概化理论的CET-SET信度分析,H310.4
  10. 数字音频篡改检测技术的研究,TP274
  11. 正常人动态平衡能力测试的信度和效度,R87
  12. 护理行为六维度量表的编译评价及适用性研究,R47
  13. 新疆住院冠心病患者自我管理行为及相关因素的研究,R473.5
  14. 肝炎后肝硬化中医PRO量表的修订与考核,R259
  15. 医学研究生PBL模式教学质量评价体系研究,R-4
  16. DAP-R中文版修订及在中老年基督教信徒中的应用,B978
  17. 笔记式题型在中国大学英语快速阅读测试中的应用初探,H319
  18. 面向公共服务的政府网站政民互动性研究,D630
  19. 重庆市基层干部领导行为与选拔任用干部公信度的关系研究,D262.3
  20. 公众期望与选用干部公信度的关系研究,D262.3
  21. 手机依赖性尺度变量探索,C912

中图分类: > 语言、文字 > 常用外国语 > 英语 > 语文教学
© 2012 www.xueweilunwen.com