语言:
- 英文
标签:
- 文本分类
- 零样本分类
基础模型: microsoft/deberta-v3-base
管道标签: 零样本分类
库名称: transformers
许可证: mit
模型描述: deberta-v3-base-zeroshot-v2.0
zeroshot-v2.0 系列模型
该系列模型专为使用Hugging Face管道进行高效零样本分类而设计。
这些模型无需训练数据即可进行分类,并可在GPU和CPU上运行。
最新零样本分类器的概览可在我的零样本分类器集合中查看。
zeroshot-v2.0
系列模型的主要更新是,部分模型基于完全商业友好的数据训练,以满足严格许可证要求的用户需求。
这些模型可执行一项通用分类任务:给定一段文本,判断假设是“真”还是“非真”(蕴含
vs. 非蕴含
)。
该任务格式基于自然语言推理任务(NLI)。
该任务具有普适性,任何分类任务均可通过Hugging Face管道重新表述为此任务。
训练数据
名称中包含“-c
”的模型基于两类完全商业友好的数据训练:
- 使用Mixtral-8x7B-Instruct-v0.1生成的合成数据。
我首先通过与Mistral-large对话,为25个职业创建了500多个多样化的文本分类任务列表。数据经过人工筛选。
随后以此作为种子数据,使用Mixtral-8x7B-Instruct-v0.1为这些任务生成了数十万条文本。
最终使用的数据集可在synthetic_zeroshot_mixtral_v0.1数据集的子集mixtral_written_text_for_tasks_v4
中找到。数据筛选经过多次迭代,未来版本将进一步完善。
- 两个商业友好的NLI数据集:(MNLI, FEVER-NLI)。
添加这些数据集以增强泛化能力。
- 名称中不含“
-c
”的模型还包含更广泛的训练数据混合,许可证类型更多样:ANLI、WANLI、LingNLI,以及此列表中所有标记为used_in_v1.1==True
的数据集。
如何使用模型
from transformers import pipeline
text = "安格拉·默克尔是德国政治家,基民盟领袖"
hypothesis_template = "这段文本涉及{}"
classes_verbalized = ["政治", "经济", "娱乐", "环境"]
zeroshot_classifier = pipeline("zero-shot-classification", model="MoritzLaurer/deberta-v3-large-zeroshot-v2.0")
output = zeroshot_classifier(text, classes_verbalized, hypothesis_template=hypothesis_template, multi_label=False)
print(output)
multi_label=False
强制模型仅选择一个类别。multi_label=True
允许模型选择多个类别。
性能指标
模型在28个不同的文本分类任务上使用f1_macro指标进行评估。
主要参考点是facebook/bart-large-mnli
,截至撰写时(2024年4月3日),这是最常用的商业友好型零样本分类器。

|
facebook/bart-large-mnli |
roberta-base-zeroshot-v2.0-c |
roberta-large-zeroshot-v2.0-c |
deberta-v3-base-zeroshot-v2.0-c |
deberta-v3-base-zeroshot-v2.0 (小样本) |
deberta-v3-large-zeroshot-v2.0-c |
deberta-v3-large-zeroshot-v2.0 (小样本) |
bge-m3-zeroshot-v2.0-c |
bge-m3-zeroshot-v2.0 (小样本) |
所有数据集平均值 |
0.497 |
0.587 |
0.622 |
0.619 |
0.643 (0.834) |
0.676 |
0.673 (0.846) |
0.59 |
(0.803) |
亚马逊极性(2) |
0.937 |
0.924 |
0.951 |
0.937 |
0.943 (0.961) |
0.952 |
0.956 (0.968) |
0.942 |
(0.951) |
IMDB(2) |
0.892 |
0.871 |
0.904 |
0.893 |
0.899 (0.936) |
0.923 |
0.918 (0.958) |
0.873 |
(0.917) |
应用评论(2) |
0.934 |
0.913 |
0.937 |
0.938 |
0.945 (0.948) |
0.943 |
0.949 (0.962) |
0.932 |
(0.954) |
Yelp评论(2) |
0.948 |
0.953 |
0.977 |
0.979 |
0.975 (0.989) |
0.988 |
0.985 (0.994) |
0.973 |
(0.978) |
烂番茄(2) |
0.83 |
0.802 |
0.841 |
0.84 |
0.86 (0.902) |
0.869 |
0.868 (0.908) |
0.813 |
(0.866) |
情感分析(6) |
0.455 |
0.482 |
0.486 |
0.459 |
0.495 (0.748) |
0.499 |
0.484 (0.688) |
0.453 |
(0.697) |
情感上下文(4) |
0.497 |
0.555 |
0.63 |
0.59 |
0.592 (0.799) |
0.699 |
0.676 (0.81) |
0.61 |
(0.798) |
共情(32) |
0.371 |
0.374 |
0.404 |
0.378 |
0.405 (0.53) |
0.447 |
0.478 (0.555) |
0.387 |
(0.455) |
金融短语库(3) |
0.465 |
0.562 |
0.455 |
0.714 |
0.669 (0.906) |
0.691 |
0.582 (0.913) |
0.504 |
(0.895) |
银行77(72) |
0.312 |
0.124 |
0.29 |
0.421 |
0.446 (0.751) |
0.513 |
0.567 (0.766) |
0.387 |
(0.715) |
大规模(59) |
0.43 |
0.428 |
0.543 |
0.512 |
0.52 (0.755) |
0.526 |
0.518 (0.789) |
0.414 |
(0.692) |
维基毒性聚合(2) |
0.547 |
0.751 |
0.766 |
0.751 |
0.769 (0.904) |
0.741 |
0.787 (0.911) |
0.736 |
(0.9) |
维基毒性淫秽(2) |
0.713 |
0.817 |
0.854 |
0.853 |
0.869 (0.922) |
0.883 |
0.893 (0.933) |
0.783 |
(0.914) |
维基毒性威胁(2) |
0.295 |
0.71 |
0.817 |
0.813 |
0.87 (0.946) |
0.827 |
0.879 (0.952) |
0.68 |
(0.947) |
维基毒性侮辱(2) |
0.372 |
0.724 |
0.798 |
0.759 |
0.811 (0.912) |
0.77 |
0.779 (0.924) |
0.783 |
(0.915) |
维基毒性身份仇恨(2) |
0.473 |
0.774 |
0.798 |
0.774 |
0.765 (0.938) |
0.797 |
0.806 (0.948) |
0.761 |
(0.931) |
仇恨攻击性(3) |
0.161 |
0.352 |
0.29 |
0.315 |
0.371 (0.862) |
0.47 |
0.461 (0.847) |
0.291 |
(0.823) |
仇恨解释(3) |
0.239 |
0.396 |
0.314 |
0.376 |
0.369 (0.765) |
0.378 |
0.389 (0.764) |
0.29 |
(0.729) |
偏见框架攻击性(2) |
0.336 |
0.571 |
0.583 |
0.544 |
0.601 (0.867) |
0.644 |
0.656 (0.883) |
0.541 |
(0.855) |
偏见框架性别(2) |
0.263 |
0.617 |
0.835 |
0.741 |
0.809 (0.922) |
0.846 |
0.815 (0.946) |
0.748 |
(0.905) |
偏见框架意图(2) |
0.616 |
0.531 |
0.635 |
0.554 |
0.61 (0.881) |
0.696 |
0.687 (0.891) |
0.467 |
(0.868) |
AG新闻(4) |
0.703 |
0.758 |
0.745 |
0.68 |
0.742 (0.898) |
0.819 |
0.771 (0.898) |
0.687 |
(0.892) |
雅虎主题(10) |
0.299 |
0.543 |
0.62 |
0.578 |
0.564 (0.722) |
0.621 |
0.613 (0.738) |
0.587 |
(0.711) |
真实教师(2) |
0.491 |
0.469 |
0.402 |
0.431 |
0.479 (0.82) |
0.459 |
0.538 (0.846) |
0.471 |
(0.518) |
垃圾邮件(2) |
0.505 |
0.528 |
0.504 |
0.507 |
0.464 (0.973) |
0.74 |
0.597 (0.983) |
0.441 |
(0.978) |
格式良好查询(2) |
0.407 |
0.333 |
0.333 |
0.335 |
0.491 (0.769) |
0.334 |
0.429 (0.815) |
0.361 |
(0.718) |
宣言(56) |
0.084 |
0.102 |
0.182 |
0.17 |
0.187 (0.376) |
|
|
|
|