标签:
- 摘要生成
小部件:
- 文本: "func ( pr * Progress ) needSnapshotAbort ( ) bool { return pr . State == ProgressStateSnapshot && pr . Match >= pr . PendingSnapshot }"
用于Go代码文档生成的CodeTrans模型
该模型是基于T5基础架构、针对Go编程语言进行预训练的模型。最初发布于此代码库。本模型在分词的Go代码函数上进行训练,最适合处理已分词的Go函数。
模型描述
此CodeTrans模型基于t5-base
模型构建,拥有独立的SentencePiece词汇模型。采用单任务训练方式,训练数据来自CodeSearchNet语料库的Go数据集。
使用场景与限制
该模型可用于生成Go函数的描述文档,或针对其他Go代码任务进行微调。支持处理未解析和未分词的Go代码,但处理已分词的代码时性能更优。
使用方法
通过Transformers的SummarizationPipeline生成Go函数文档:
from transformers import AutoTokenizer, AutoModelWithLMHead, SummarizationPipeline
pipeline = SummarizationPipeline(
model=AutoModelWithLMHead.from_pretrained("SEBIS/code_trans_t5_base_code_documentation_generation_go"),
tokenizer=AutoTokenizer.from_pretrained("SEBIS/code_trans_t5_base_code_documentation_generation_go", skip_special_tokens=True),
device=0
)
tokenized_code = "func ( pr * Progress ) needSnapshotAbort ( ) bool { return pr . State == ProgressStateSnapshot && pr . Match >= pr . PendingSnapshot }"
pipeline([tokenized_code])
可在Colab笔记本中运行此示例。
训练数据
监督训练任务数据集可从此链接下载。
评估结果
不同模型在各编程语言的代码文档生成任务中的BLEU评分表现:
测试结果:
语言/模型 |
Python |
Java |
Go |
Php |
Ruby |
JavaScript |
CodeTrans-ST-Small |
17.31 |
16.65 |
16.89 |
23.05 |
9.19 |
13.70 |
CodeTrans-ST-Base |
16.86 |
17.17 |
17.16 |
22.98 |
8.23 |
13.17 |
CodeTrans-TF-Small |
19.93 |
19.48 |
18.88 |
25.35 |
13.15 |
17.23 |
CodeTrans-TF-Base |
20.26 |
20.19 |
19.50 |
25.84 |
14.07 |
18.25 |
CodeTrans-TF-Large |
20.35 |
20.06 |
19.54 |
26.18 |
14.94 |
18.98 |
CodeTrans-MT-Small |
19.64 |
19.00 |
19.15 |
24.68 |
14.91 |
15.26 |
CodeTrans-MT-Base |
20.39 |
21.22 |
19.43 |
26.23 |
15.26 |
16.11 |
CodeTrans-MT-Large |
20.18 |
21.87 |
19.38 |
26.08 |
15.00 |
16.23 |
CodeTrans-MT-TF-Small |
19.77 |
20.04 |
19.36 |
25.55 |
13.70 |
17.24 |
CodeTrans-MT-TF-Base |
19.77 |
21.12 |
18.86 |
25.79 |
14.24 |
18.62 |
CodeTrans-MT-TF-Large |
18.94 |
21.42 |
18.77 |
26.20 |
14.19 |
18.83 |
当前最优技术(SOTA) |
19.06 |
17.65 |
18.07 |
25.16 |
12.16 |
14.90 |
由Ahmed Elnaggar | LinkedIn和Wei Ding | LinkedIn创建