Gyr66 Bert Base Chinese Finetuned Ner Onnx
Apache-2.0
这是 gyr66/bert-base-chinese-finetuned-ner 模型的 ONNX 格式转换版本,用于中文命名实体识别任务。
序列标注
Transformers

中文
G
protectai
171
1
Bert Finetuned Ner
Apache-2.0
基于BERT-base-cased模型在conll2003数据集上微调的命名实体识别模型
序列标注
Transformers

B
fundrais123
23
1
Bert Base Chinese Ws Finetuned Ner All
Gpl-3.0
该模型是基于ckiplab/bert-base-chinese-ws在中文命名实体识别(NER)任务上微调的版本,在评估集上表现出色。
序列标注
Transformers

B
HYM
41
2
Xlm Roberta Large Ner Hrl Finetuned Ner
基于xlm-roberta-large-ner-hrl模型在玩具数据集上微调的命名实体识别模型
序列标注
Transformers

X
kinanmartin
29
0
Xlm Roberta Base Finetuned Panx Fr
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的法语标记分类模型
序列标注
Transformers

X
huangjia
37
0
Bert Finetuned Ner
Apache-2.0
基于bert-base-cased微调的命名实体识别(NER)模型
序列标注
Transformers

B
ankitsharma
14
0
Roberta Base Ner Demo
基于蒙古语RoBERTa-base模型微调的命名实体识别(NER)模型
序列标注
Transformers

其他
R
Buyandelger
15
0
Roberta Large Finetuned Ner
MIT
基于RoBERTa-large模型在conll2003数据集上微调的命名实体识别模型,在NER任务上表现出色。
序列标注
Transformers

R
romainlhardy
39
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在特定数据集上进行了微调
序列标注
Transformers

D
IsaMaks
15
0
Bert Finetuned Ner 0
Apache-2.0
该模型是基于bert-base-cased在未知数据集上微调的版本,主要用于命名实体识别(NER)任务。
序列标注
Transformers

B
mariolinml
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的德语标记分类模型
序列标注
Transformers

X
SimulSt
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
hossay
16
0
Xlm Roberta Base Finetuned Panx En
MIT
基于XLM-RoBERTa-base在xtreme数据集上进行微调的标记分类模型
序列标注
Transformers

X
flood
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
murdockthedude
15
0
Xlm Roberta Base Finetuned Panx Fr
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的法语标记分类模型
序列标注
Transformers

X
jgriffi
14
0
Distilbert Base Uncased Finetuned TT2 Exam
Apache-2.0
该模型是基于distilbert-base-uncased在conll2003数据集上微调的版本,用于标记分类任务。
序列标注
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,具有高效的推理性能和较高的准确率。
序列标注
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
这是一个基于DistilBERT的轻量级模型,在CoNLL-2003命名实体识别(NER)任务上进行了微调。
序列标注
Transformers

D
guhuawuli
15
0
Hiner Original Xlm Roberta Large
该模型是基于XLM-RoBERTa-large架构在HiNER-original数据集上训练的命名实体识别模型,专门用于标记分类任务。
序列标注
Transformers

H
cfilt
56
1
Test
Apache-2.0
该模型是基于hfl/chinese-bert-wwm-ext在conll2003数据集上微调的版本,用于标记分类任务。
序列标注
Transformers

T
vegetable
15
0
Distilbert Base Uncased Finetuned Ner Final
基于DistilBERT架构的轻量级命名实体识别(NER)模型,经过特定任务微调
序列标注
Transformers

D
Lilya
15
0
Bert Base Cased Ner Conll2003
Apache-2.0
基于bert-base-cased在conll2003数据集上微调的命名实体识别模型
序列标注
Transformers

B
kamalkraj
38
0
Keyphrase Extraction Distilbert Inspec
MIT
基于DistilBERT的英文关键词提取模型,在科学论文摘要领域表现优异。
序列标注
Transformers

英语
K
ml6team
22.07k
27
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,适用于英文文本的实体标记任务。
序列标注
Transformers

D
tiennvcs
15
0
Distilbert Base Uncased Finetuned Pos
Apache-2.0
基于DistilBERT的轻量级标记分类模型,在conll2003数据集上微调,用于词性标注任务
序列标注
Transformers

D
tbosse
17
0
Roberta Finetuned Ner
MIT
基于xlm-roberta-base微调的命名实体识别(NER)模型,在评估集上表现出色(F1值0.9777)
序列标注
Transformers

R
kSaluja
25
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
MikhailGalperin
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级模型,专为命名实体识别(NER)任务微调
序列标注
Transformers

D
suwani
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
thomaszz
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
cogito233
16
0
Indonesian Roberta Base Posp Tagger
MIT
这是一个基于印尼语RoBERTa模型微调的词性标注模型,在indonlu数据集上训练,用于印尼语文本的词性标注任务。
序列标注
Transformers

其他
I
w11wo
2.2M
7
Chunk English Fast
Flair自带的英语快速短语组块分析模型,用于识别句子中的名词短语、动词短语等语法结构。
序列标注
英语
C
flair
92
5
Deberta Base Fine Tuned Ner
MIT
基于DeBERTa-base模型在conll2003数据集上微调的命名实体识别(NER)模型
序列标注
Transformers

D
geckos
456
2
BERT NER Ep5 PAD 50 Finetuned Ner
Apache-2.0
基于bert-base-cased微调的命名实体识别模型,在评估集上F1值达到0.6920
序列标注
Transformers

B
suwani
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,适用于英文文本的实体标注任务。
序列标注
Transformers

D
codingJacob
16
0
Bert Tiny Finetuned Ner
该模型是基于bert-tiny在conll2003数据集上微调的命名实体识别(NER)模型
序列标注
Transformers

B
gagan3012
89
4
Upos English Fast
Flair自带的英语通用词性标注快速模型,基于Ontonotes数据集训练,F1分数达98.47
序列标注
英语
U
flair
3,677
5
BERT NER Ep5 Finetuned Ner
Apache-2.0
基于bert-base-cased微调的命名实体识别(NER)模型,在评估集上F1值达到0.6868
序列标注
Transformers

B
suwani
15
0
BERT NER Ep6 PAD 50 Finetuned Ner
Apache-2.0
基于bert-base-cased微调的命名实体识别(NER)模型,在未知数据集上训练6个epoch,表现中等水平
序列标注
Transformers

B
suwani
14
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,具有高效的推理性能和较高的准确率。
序列标注
Transformers

D
mackseem
16
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文