模型描述:deberta-v3-large-zeroshot-v2.0-c
zeroshot-v2.0系列模型
该系列模型专为Hugging Face pipeline的高效零样本分类而设计,无需训练数据即可运行于GPU和CPU设备。最新零样本分类器概览可参阅零样本分类器合集。
zeroshot-v2.0
系列的主要更新是部分模型采用完全商业友好的数据训练,满足严格许可证要求。
这些模型能执行一项通用分类任务:给定文本判断假设是否成立(entailment
vs. not_entailment
)。该任务格式基于自然语言推理(NLI),通过Hugging Face pipeline可将任何分类任务转化为此形式。
训练数据
名称含"-c
"的模型使用两类完全商业友好的数据训练:
- 通过Mixtral-8x7B-Instruct-v0.1生成的合成数据。首先生成覆盖25个行业的500+多样化文本分类任务种子数据,随后扩展为数十万文本,最终数据集见synthetic_zeroshot_mixtral_v0.1的
mixtral_written_text_for_tasks_v4
子集。
- 两个商业友好的NLI数据集:MNLI和FEVER-NLI。
- 不含"
-c
"的模型还包含许可证更广泛的训练数据:ANLI、WANLI、LingNLI及此列表中used_in_v1.1==True
的所有数据集。
使用方法
from transformers import pipeline
text = "安格拉·默克尔是德国政治家,基民盟领袖"
hypothesis_template = "本文内容涉及{}"
classes_verbalized = ["政治", "经济", "娱乐", "环境"]
zeroshot_classifier = pipeline("zero-shot-classification", model="MoritzLaurer/deberta-v3-large-zeroshot-v2.0")
output = zeroshot_classifier(text, classes_verbalized, hypothesis_template=hypothesis_template, multi_label=False)
print(output)
multi_label=False
强制单选,multi_label=True
允许多选。
性能指标
在28个文本分类任务上使用f1_macro指标评估,以facebook/bart-large-mnli
为基准(截至2024.04.03最常用的商业友好零样本分类器)。

(此处保留原始性能对比表格,仅翻译表头)
|
facebook/bart-large-mnli |
roberta-base-zeroshot-v2.0-c |
roberta-large-zeroshot-v2.0-c |
deberta-v3-base-zeroshot-v2.0-c |
deberta-v3-base-zeroshot-v2.0 (小样本) |
deberta-v3-large-zeroshot-v2.0-c |
deberta-v3-large-zeroshot-v2.0 (小样本) |
bge-m3-zeroshot-v2.0-c |
bge-m3-zeroshot-v2.0 (小样本) |
所有数据集平均值 |
0.497 |
0.587 |
0.622 |
0.619 |
0.643 (0.834) |
0.676 |
0.673 (0.846) |
0.59 |
(0.803) |
这些数字反映纯零样本性能(未使用测试集数据训练)。不含"-c
"的模型额外评估了小样本性能(括号内数字,每类最多500训练样本)。
数据集详情见:https://github.com/MoritzLaurer/zeroshot-classifier/blob/main/v1_human_data/datasets_overview.csv
模型选型指南
- deberta-v3 vs roberta:deberta-v3精度更高但稍慢;roberta兼容Hugging Face生产级TEI容器和flash attention,适合生产环境。
- 商业用途:选择名称含"
-c
"的模型保证训练数据完全商业友好。
- 多语言/非英语场景:使用bge-m3-zeroshot-v2.0系列,或先用EasyNMT翻译至英文再处理。
- 上下文窗口:
bge-m3
支持8192token,其他模型限512token。短文本建议使用deberta获得更好性能。
- 最新模型动态见零样本分类器合集。
复现
代码见v2_synthetic_data
目录:https://github.com/MoritzLaurer/zeroshot-classifier/tree/main
局限性
仅支持文本分类任务。可能存在的偏见来自基础模型、人工NLI训练数据和Mixtral生成的合成数据。
许可证
基础模型采用MIT许可证,训练数据许可证因模型而异。
引用
本模型基于此论文研究扩展:
@misc{laurer_building_2023,
title = {Building {Efficient} {Universal} {Classifiers} with {Natural} {Language} {Inference}},
url = {http://arxiv.org/abs/2312.17543},
author = {Laurer, Moritz and van Atteveldt, Wouter and Casas, Andreu and Welbers, Kasper},
year = {2023},
month = dec,
note = {arXiv:2312.17543 [cs]},
}
合作咨询
联系邮箱:moritz{at}huggingface{dot}co 或 LinkedIn
灵活使用与"提示工程"
可通过修改hypothesis_template
自定义假设模板,类似LLM的"提示工程":
hypothesis_template = "本文内容涉及{}"
classes_verbalized = ["政治", "经济", "娱乐", "环境"]
hypothesis_template = "本文主题是{}"
classes_verbalized = ["政治活动", "经济政策", "娱乐音乐", "环境保护"]