language: es
thumbnail: https://i.imgur.com/jgBdimh.png
BETO(西班牙语BERT)+西班牙语SQuAD2.0
本模型由BETO团队提供,并在SQuAD-es-v2.0上针对问答下游任务进行了微调。
语言模型详情('dccuchile/bert-base-spanish-wwm-cased')
语言模型('dccuchile/bert-base-spanish-wwm-cased'):
BETO是一个基于大型西班牙语语料库训练的BERT模型。BETO的规模与BERT-Base相当,并采用了全词掩码技术进行训练。以下提供了非大小写和大小写版本的Tensorflow和Pytorch检查点,以及一些西班牙语基准测试结果,比较了BETO与多语言BERT以及其他(非基于BERT的)模型的表现。
下游任务(问答)详情 - 数据集
SQuAD-es-v2.0
数据集 |
问答对数 |
SQuAD2.0 训练集 |
130 K |
SQuAD2.0-es-v2.0 |
111 K |
SQuAD2.0 开发集 |
12 K |
SQuAD-es-v2.0小型开发集 |
69 K |
模型训练
模型在Tesla P100 GPU和25GB内存环境下通过以下命令训练:
export SQUAD_DIR=path/to/nl_squad
python transformers/examples/question-answering/run_squad.py \
--model_type bert \
--model_name_or_path dccuchile/bert-base-spanish-wwm-cased \
--do_train \
--do_eval \
--do_lower_case \
--train_file $SQUAD_DIR/train_nl-v2.0.json \
--predict_file $SQUAD_DIR/dev_nl-v2.0.json \
--per_gpu_train_batch_size 12 \
--learning_rate 3e-5 \
--num_train_epochs 2.0 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir /content/model_output \
--save_steps 5000 \
--threads 4 \
--version_2_with_negative
结果:
指标 |
值 |
精确匹配 |
76.5050 |
F1分数 |
86.0781 |
{
"exact": 76.50501430594491,
"f1": 86.07818773108252,
"total": 69202,
"HasAns_exact": 67.93020719738277,
"HasAns_f1": 82.37912207996466,
"HasAns_total": 45850,
"NoAns_exact": 93.34104145255225,
"NoAns_f1": 93.34104145255225,
"NoAns_total": 23352,
"best_exact": 76.51223953064941,
"best_exact_thresh": 0.0,
"best_f1": 86.08541295578848,
"best_f1_thresh": 0.0
}
模型实战(在Colab笔记本中)
- 设置上下文并提出问题:

- 运行预测:

由Manuel Romero/@mrm8488创建
在西班牙用心❤制作