Discussion2021-2-22

来自SUDA-HLT
跳到导航 跳到搜索

大部分内容都可以和NLPCC2019的一样,这里只写一个大概

本次评测中,BC作为源领域,PC、ZX、PB、FIN、LEG 作为目标领域,划分两个子任务:多源领域零样本句法分析领域移植(封闭或开放)

任务内容

本次评测包含两个子任务:

un-closed: 多源领域零样本句法分析领域移植(封闭)

un-open: 多源领域零样本句法分析领域移植(开放)

含义如下:

  • 多源领域零样本句法分析领域移植(封闭):以目标领域为PC源领域为BC、PB、ZX、FIN、LEG为例,则PC-train不存在,PC-dev/unlabeled可以使用,不可以使用我们提供的数据之外的任何资源。
  • 多源领域零样本句法分析领域移植(开放):可以使用任何资源

评价标准

UAS、LAS

评测数据的准备情况

六个领域:BC PB PC ZX FIN LEG

数据说明、数据使用协议:使用NLPCC2019的

word2vec:在Chinese Gigaword V3(约1100万句、自动分词)和所有领域Train/Unlabeled上训练10次迭代得到(需要重新跑一下)

大致赛程(参考NLPCC2019):

2021.3.15:公布评测任务并征求参与者(评测邀请函待定)

2021.4.1:评测开始;公布任务细节和训练集;(registration deadline 2021.5.1)

2021.5.10:发布测试集

2021.5.20:评测结果提交截止日期

2021.5.30:公布评测结果

CCL2021整体评测时间(拟):2021年4月1日—2021年7月31日


不确定的几个问题

1.不考虑semi-supervised:
semi-supervised 任务比 unsupervised 任务简单
实用意义不大
2. 不提供fine-tune-bert:
参赛者使用BERT的方式可能各不相同,如果我们提供了fine-tune-bert模型,那么很有可能先入为主进而限制了参赛者的想象力。
3. BC-train-partial补全不合适:
选数据的模型和BC-train-partial模型选出来的置信度低的词可能不一致
NLPCC2019好像是使用全标注数据训练的模型进行补全
4. baseline
暂定为concat 和 self-training
先不考虑 domain embedding 和 corpus weighting