库名称: transformers
许可证: mit
基础模型: dbmdz/bert-base-turkish-128k-uncased
标签:
- 训练生成
- 土耳其语
评估指标:
- 准确率
- F1值
- 精确率
- 召回率
模型索引:
- 名称: turkish-zeroshot-large
结果: []
数据集:
- facebook/xnli
语言:
- tr
流水线标签: 零样本分类
turkish-zeroshot-large
该模型是基于dbmdz/bert-base-turkish-128k-uncased在facebook/xnli土耳其语数据集上微调的版本。
在评估集上取得了以下结果:
- 损失: 0.6957
- 准确率: 0.7622
- F1值: 0.7621
- 精确率: 0.7702
- 召回率: 0.7622
使用方法
pipe = pipeline(
"zero-shot-classification",
model="kaixkhazaki/turkish-zeroshot-large",
tokenizer="kaixkhazaki/turkish-zeroshot-large",
device=0 if torch.cuda.is_available() else -1
)
sequence = "Bu laptopun pil ömrü ne kadar dayanıyor?"
candidate_labels = ["ürün özellikleri", "soru", "bilgi talebi", "laptop", "teknik destek"]
pipe(
sequence,
candidate_labels,
)
>>
{'sequence': 'Bu laptopun pil ömrü ne kadar dayanıyor?',
'labels': ['ürün özellikleri', 'laptop', 'soru', 'bilgi talebi', 'teknik destek'],
'scores': [0.31062474846839905, 0.2971721291542053, 0.1954265981912613, 0.13260306417942047, 0.06417346745729446]}
模型描述
需补充更多信息
预期用途与限制
需补充更多信息
训练与评估数据
需补充更多信息
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率: 5e-05
- 训练批次大小: 64
- 评估批次大小: 32
- 随机种子: 42
- 优化器: 使用adamw_torch,beta=(0.9,0.999),epsilon=1e-08,无额外优化器参数
- 学习率调度器类型: cosine
- 学习率预热步数: 500
- 训练轮数: 5
训练结果
训练损失 |
训练轮数 |
步数 |
验证损失 |
准确率 |
F1值 |
精确率 |
召回率 |
1.0339 |
0.0326 |
200 |
1.0342 |
0.4855 |
0.4610 |
0.5453 |
0.4855 |
0.8777 |
0.0652 |
400 |
0.7819 |
0.6631 |
0.6634 |
0.6903 |
0.6631 |
0.8194 |
0.0978 |
600 |
0.7322 |
0.6888 |
0.6891 |
0.6956 |
0.6888 |
0.7745 |
0.1304 |
800 |
0.6895 |
0.7120 |
0.7129 |
0.7217 |
0.7120 |
0.7766 |
0.1630 |
1000 |
0.7042 |
0.7044 |
0.7057 |
0.7180 |
0.7044 |
0.7388 |
0.1956 |
1200 |
0.6933 |
0.7092 |
0.7097 |
0.7310 |
0.7092 |
0.7392 |
0.2282 |
1400 |
0.6812 |
0.7201 |
0.7208 |
0.7384 |
0.7201 |
0.7205 |
0.2608 |
1600 |
0.6892 |
0.7108 |
0.7092 |
0.7326 |
0.7108 |
0.7229 |
0.2934 |
1800 |
0.6762 |
0.7120 |
0.7123 |
0.7265 |
0.7120 |
0.6833 |
0.3259 |
2000 |
0.6374 |
0.7333 |
0.7338 |
0.7404 |
0.7333 |
... (后续数据省略) |
|
|
|
|
|
|
|
框架版本
- Transformers 4.48.0.dev0
- Pytorch 2.4.1+cu121
- Datasets 3.1.0
- Tokenizers 0.21.0