语言:
- 波斯语
- 多语言
标签:
- 问答系统
- XLM-RoBERTa
- RoBERTa
- SQuAD
数据集:
- SajjadAyoubi/persian_qa
评估指标:
- squad_v2
示例输入:
- 文本: "拉普拉斯算子的应用?"
上下文: "拉普拉斯方程是一个偏微分方程,在数学、物理和工程领域具有极其重要的应用价值。例如电磁学、天文学和流体动力学等领域都涉及该方程的求解。"
- 文本: "雅尔达夜的另一名称?"
上下文: "雅尔达夜或切勒夜是最古老的伊朗节日之一。这个节日庆祝北半球一年中最长的夜晚及随后的白昼渐长现象,恰逢冬至时节。该夜另称「切勒」,因这一庆典是伊朗传统仪式。"
- 文本: "伊朗人最古老的节日是什么?"
上下文: "雅尔达夜或切勒夜是最古老的伊朗节日之一。这个节日庆祝北半球一年中最长的夜晚及随后的白昼渐长现象,恰逢冬至时节。该夜另称「切勒」,因这一庆典是伊朗传统仪式。"
- 文本: "雅尔达夜对应什么天文现象?"
上下文: "雅尔达夜或切勒夜是最古老的伊朗节日之一。这个节日庆祝北半球一年中最长的夜晚及随后的白昼渐长现象,恰逢冬至时节。该夜另称「切勒」,因这一庆典是伊朗传统仪式。"
模型索引:
- 名称: 波斯语问答XLM-RoBERTa大模型(PersianQA - 🇮🇷)
结果:
- 任务:
类型: 问答系统
名称: 问答任务
数据集:
类型: SajjadAyoubi/persian_qa
名称: PersianQA
参数: 波斯语
指标:
- 类型: squad_v2
值: 83.46
名称: 评估F1值
参数: 最大顺序
- 类型: squad_v2
值: 66.88
名称: 评估精确匹配
参数: 最大顺序
波斯语问答XLM-RoBERTa大模型(PersianQA - 🇮🇷)
本模型是基于xlm-roberta-large在PersianQA数据集上微调的版本。
超参数
训练采用以下超参数:
- 学习率: 2e-05
- 训练批大小: 8
- 评估批大小: 8
- 随机种子: 42
- 梯度累积步数: 4
- 优化器: 带betas=(0.9,0.999)和epsilon=1e-08的Adam
- 学习率调度器类型: 线性
- 学习率预热比例: 0.1
- 训练轮数: 20.0
- 混合精度训练: 原生AMP
性能表现
使用官方评估脚本在验证集上的结果:
验证集
"有答案精确匹配": 58.678955453149,
"有答案F1值": 82.3746683591845,
"有答案总数": 651,
"无答案精确匹配": 86.02150537634408,
"无答案F1值": 86.02150537634408,
"无答案总数": 279,
"总体精确匹配": 66.88172043010752,
"总体F1值": 83.46871946433232,
"总样本数": 930
使用方式
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name_or_path = "m3hrdadfi/xlmr-large-qa-fa"
nlp = pipeline('question-answering', model=model_name_or_path, tokenizer=model_name_or_path)
context = """
雅尔达夜或切勒夜是最古老的伊朗节日之一。
这个节日庆祝北半球一年中最长的夜晚及随后的白昼渐长现象,
恰逢冬至时节。该夜另称「切勒」,因这一庆典是伊朗传统仪式。
"""
questions = [
"雅尔达夜的另一名称?",
"伊朗人最古老的节日是什么?",
"雅尔达夜对应什么天文现象?"
]
kwargs = {}
for question in questions:
r = nlp(question=question, context=context, **kwargs)
answer = " ".join([token.strip() for token in r["answer"].strip().split() if token.strip()])
print(f"{question} {answer}")
输出结果
雅尔达夜的另一名称? 「切勒」
伊朗人最古老的节日是什么? 雅尔达夜或切勒夜
雅尔达夜对应什么天文现象? 冬至
作者
框架版本
- Transformers 4.12.0.dev0
- Pytorch 1.9.1+cu111
- Datasets 1.12.1
- Tokenizers 0.10.3