1.比赛调研
1.1 比赛链接
Feedback Prize - Predicting Effective Arguments | Kaggle
1.2 比赛周期
5.24-8.23
1.3 比赛的快速介绍
本次比赛的目标是将学生写作中的争论元素分类为“有效”、“充分”或“无效”。您将创建一个使用代表美国 6 至 12 年级人口的数据进行训练的模型,以尽量减少偏差。来自本次比赛的模型将有助于为学生获得关于他们的议论文的更多反馈铺平道路。借助自动指导,学生可以完成更多作业,最终成为更自信、更熟练的作家。
总结,是一个nlp的分类任务,需要对议论文(essay)里面的话语元素(disclouse)进行分类,总共有3类,有效,充分或者无效。话语元素是议论文里面的一段话,到时候分类可以直接根据话语元素进行分类,也可以增加议论文的内容进行分类。
1.4 数据描述
Feedback Prize - Predicting Effective Arguments | KaggleRate the effectiveness of argumentative writing elements from students grade 6-12https://www.kaggle.com/competitions/feedback-prize-effectiveness/data
数据主要包括了train.csv, test.csv, sample_subimssion.csv以及train和test两个文件夹
train和test两个文件夹
主要是存放话语元素对应的议论文,可以看成一个话语元素的上下文
train.csv
discouse_id: 话语元素id
essay_id: 议论文id
discourse_text: 话语元素的文本
discourse_type: 话语元素的类型,总共有7种,Lead引言,Postion问题的观点或者结论,Claim 断言, CouterClaim反诉,Rebuttal反驳,Evidence证据,Concluding Statement结论。
discourse_effective: 话语元素有效性,总共有三类: Ineffective (无效), Adequate(充分), Effective(有效).
test.csv
和训练集差不多,但少了discourse_effective,这是我们需要进行预测的
sample_submission.csv
discourse_id: 议论文id
Ineffective: 无效性的概率
Adequate:充分性的概率
Effective: 有效性的概率
到时候会根据这三个概率值与真实值计算交叉熵损失,分数越小排名越高
1.5 比赛思路
把话语元素的文本以及议论文作为输入,到一些sota模型里面包括deberta v3等进行训练,然后进行模型融合,得到最后的输出。