Modernbert Ner Conll2003
Apache-2.0
基于ModernBERT-base微调的命名实体识别模型,在CoNLL2003数据集上训练,擅长识别人物、组织和地点实体。
序列标注
Transformers 英语

M
IsmaelMousa
40
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
hossay
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
murdockthedude
15
0
Distilbert Base Uncased Finetuned TT2 Exam
Apache-2.0
该模型是基于distilbert-base-uncased在conll2003数据集上微调的版本,用于标记分类任务。
序列标注
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,具有高效的推理性能和较高的准确率。
序列标注
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
该模型是基于DistilBERT的轻量级版本,在conll2003数据集上微调用于命名实体识别任务。
序列标注
Transformers

D
Udi-Aharon
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
这是一个基于DistilBERT的轻量级模型,在CoNLL-2003命名实体识别(NER)任务上进行了微调。
序列标注
Transformers

D
guhuawuli
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
ACSHCSE
15
0
Bert Base NER
MIT
基于BERT-base的命名实体识别模型,可识别地点、组织、人名等四类实体
序列标注
Transformers 英语

B
optimum
69
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,适用于英文文本的实体标记任务。
序列标注
Transformers

D
tiennvcs
15
0
Distilbert Base Uncased Finetuned Pos
Apache-2.0
基于DistilBERT的轻量级标记分类模型,在conll2003数据集上微调,用于词性标注任务
序列标注
Transformers

D
tbosse
17
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
MikhailGalperin
15
0
XLMR ENIS Finetuned Ner
该模型是基于XLMR-ENIS在conll2003数据集上微调的命名实体识别模型,支持英语和冰岛语。
序列标注
Transformers 支持多种语言

X
vesteinn
90
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
cogito233
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
thomaszz
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
leonadase
15
0
Deberta Base Fine Tuned Ner
MIT
基于DeBERTa-base模型在conll2003数据集上微调的命名实体识别(NER)模型
序列标注
Transformers

D
geckos
456
2
Distilroberta Base Ner Conll2003
Apache-2.0
基于distilroberta-base在conll2003数据集上微调的命名实体识别模型
序列标注
Transformers

D
philschmid
103
3
Bert Tiny Finetuned Ner
该模型是基于bert-tiny在conll2003数据集上微调的命名实体识别(NER)模型
序列标注
Transformers

B
gagan3012
89
4
Distilbert Base Cased Finetuned Conll03 English
Apache-2.0
基于DistilBERT的命名实体识别模型,在CoNLL-2003英语数据集上微调,适用于大小写敏感的文本处理。
序列标注
Transformers 英语

D
elastic
7,431
14
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,具有高效的推理性能和较高的准确率。
序列标注
Transformers

D
mackseem
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
lucasmtz
14
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,具有高效的推理性能和较高的准确率。
序列标注
Transformers

D
indridinn
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
srosy
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
histinct7002
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,适用于英文文本的实体标注任务。
序列标注
Transformers

D
chanaa
15
0
Albert Base V2 Finetuned Ner
Apache-2.0
该模型是基于ALBERT-base-v2架构在conll2003数据集上微调的命名实体识别(NER)模型,在实体识别任务上表现出色。
序列标注
Transformers

A
ArBert
20
4
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调
序列标注
Transformers

D
Hank
15
0
Xlm Roberta Large Finetuned Conll03 English
基于XLM-RoBERTa-large模型在英语conll2003数据集上微调的命名实体识别模型
序列标注 支持多种语言
X
FacebookAI
84.75k
169
Distilbert Base Uncased Finetuned Ner
Apache-2.0
基于DistilBERT的轻量级命名实体识别模型,在conll2003数据集上微调,适用于英文文本的实体识别任务。
序列标注
Transformers

D
Minowa
15
0
Xlm Roberta Large Finetuned Conll03 German
基于XLM-RoBERTa-large模型在德语CoNLL-2003数据集上微调的多语言命名实体识别模型
序列标注 支持多种语言
X
FacebookAI
18.52k
13
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文