YixuanWeng commited on
Commit
77aafc6
1 Parent(s): 162d0ed

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +27 -0
README.md ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Deberta-Chinese
2
+
3
+ ​ 本项目,基于微软开源的Deberta模型,在中文领域进行预训练。开源本模型,旨在为其他人提供更多预训练语言模型选择。
4
+
5
+ ​ 本预训练模型,基于WuDaoCorpora语料库预训练而成。WuDaoCorpora是北京智源人工智能研究院(智源研究院)构建的大规模、高质量数据集,用于支撑“悟道”大模型项目研究。
6
+
7
+ ​ 使用WWM与n-gramMLM 等预训练方法进行预训练。
8
+
9
+ | 预训练模型 | 学习率 | batchsize | 设备 | 语料库 | 时间 | 优化器 |
10
+ | --------------------- | ------ | --------- | ------ | ------ | ---- | ------ |
11
+ | Deberta-Chinese-Large | 1e-5 | 512 | 2*3090 | 200G | 14天 | AdamW |
12
+
13
+
14
+
15
+
16
+
17
+ ### 加载与使用
18
+
19
+ 依托于huggingface-transformers
20
+
21
+ ```
22
+ tokenizer = BertTokenizer.from_pretrained("WENGSYX/Deberta-Chinese-Large")
23
+ model = BertModel.from_pretrained("WENGSYX/Deberta-Chinese-Large")
24
+ ```
25
+
26
+
27
+