Datasets:
BAAI
/

Modalities:
Text
Formats:
parquet
Languages:
Chinese
ArXiv:
Libraries:
Datasets
Dask
License:

这种数据有问题吧。。。感觉这份数据问题挺多的

#11
by Jianhai - opened

{'instruction': '给出给定浙江籍名人的传记信息\n', 'input': 'http://cnschema.openkg.cn/#zj-Z002-004-353-12', 'output': '祝志裘 (清)字仲冶,号芸舫。海宁人。诸生。官江西宁都州判。善画山水及白描人物,兼能鼓琴度曲。有《葆光居诗草》。', 'split': None, 'task_name_in_eng': 'Give_the_biographical_information_of_the_given_Zhejiang_celebrity.', 'task_type': {'major': ['信息'], 'minor': ['知识图谱']}, 'domain': ['历史'], 'other': {'sub_dataset': '3020-3 浙江人物历史图谱json子集'}}

基本不太敢用

确实 感觉这个数据有问题 没清洗过

{'instruction': '给出给定浙江籍名人的传记信息\n', 'input': 'http://cnschema.openkg.cn/#zj-Z002-004-353-12', 'output': '祝志裘 (清)字仲冶,号芸舫。海宁人。诸生。官江西宁都州判。善画山水及白描人物,兼能鼓琴度曲。有《葆光居诗草》。', 'split': None, 'task_name_in_eng': 'Give_the_biographical_information_of_the_given_Zhejiang_celebrity.', 'task_type': {'major': ['信息'], 'minor': ['知识图谱']}, 'domain': ['历史'], 'other': {'sub_dataset': '3020-3 浙江人物历史图谱json子集'}}

基本不太敢用

确实 感觉这个数据有问题 没清洗过

@Jianhai 感谢您的意见反馈,我们已经联系对应的志愿者工程师同学进行了处理,如果该单个jsonl文件仍有问题,还望您持续提交issue,我们会尽可能快速地跟进。

针对@fengcai0824 同学的意见,简单的质量清洗流程汇报如下,具体的还请参考我们即将到来的tech report。我们指出,由于我们是非盈利志愿机构,我们的funding非常有限,所以无法负担这么大的数据集的完全的人工书写,那也不是我们的目的。另一方面,如果将我们的数据与GPT-4等模型蒸馏出的数据进行质量对比,我们指出生成过程(非质检流程)中引入GPT-4会带来使用协议上的concern。但非常感谢您提出质检流程层面的担忧,我们对我们的质检流程简单梳理如下:
经历1.2,1.3两个版本的迭代更新后,我们目前进行了基于三个标准的质量检查和清洗:(仍存在部分单条数据出问题的可能,但大部分数据文件处于中高质量水平,也即大部分输入输出符合指令描述的任务要求,是一个有意义的任务)
三个质检流程分别为:

  1. GPT-4抽检每个jsonl文件中的20条数据,1-5分的范围,总分,可理解性,正确性,通顺性,任一指标平均分低于3分的jsonl文件直接丢弃。
  2. 星尘数据提供了免费的针对所有文件的人力抽检,抽检20条(与1中的抽检样本独立抽取)中存在2条以上错误的注明,并进行修改或者丢弃。
  3. 感谢我们部分志愿者同学,对全量jsonl文件同时分工进行了专家级别(NLP子领域小同行)的抽检,抽检数目为单个文件50条样本。
    根据抽检结果,我们对全量数据进行了1.2,1.3版本的更新,同时我们指出,根据抽检结果,这个数据远高于正常预训练数据质量与Unnatural Instruction和Self-Instruct产出的数据的质量,开源不易,还请大家且用且珍惜。如果您有对更高质量的追求,我们建议您使用COIG-PC-core,针对其中的数据,我们进行了全量的类似流程1的基于GPT-4的质检,任一指标低于3的数据我们进行了直接丢弃,同时我们根据token覆盖率和PPL进行了采样。
    COIG-PC中的数据以非商业目的进行了全量开源,尽可能完整地覆盖了中文互联网上可处理的traditional NLP数据,出于数据留存的目的,我们这个repo倾向于保存更多更完整的数据,而非进行高标准的清洗,但是为了满足使用者的要求,我们的志愿者同学尽可能地进行了多遍的质量检查和人工清洗。有进一步的意见还请指出明确相关的子文件,我们会及时跟进,持续维护和更新。

针对@wenju 同学的意见,我们指出多个repo已使用过COIG及COIG-PC混合采样的子集数据,并得到了不错的SFT表现。(BiLLa, CKIP-Llama-2-7b, DISC-LawLLM...) 有疑虑的话不妨自己设计filter标准或者采样部分数据或者直接使用我们的COIG-PC-core,或者会有惊喜。

Sign up or log in to comment