Gliner Large V2.5
Apache-2.0
GLiNER 是一个通用的命名实体识别(NER)模型,能够识别任何类型的实体,为传统 NER 模型提供了实用的替代方案。
序列标注
其他
G
gliner-community
2,896
18
Gliner Medium V2.5
Apache-2.0
GLiNER是一个通用的命名实体识别(NER)模型,能够识别任何类型的实体,为传统NER模型提供了实用替代方案,同时解决了大型语言模型资源消耗高的问题。
序列标注
其他
G
gliner-community
678
7
Gliner Small V2.5
Apache-2.0
GLiNER 是一个通用的命名实体识别(NER)模型,能够通过双向 Transformer 编码器识别任何实体类型。
序列标注
PyTorch
G
gliner-community
2,252
6
Gliner Large V2.1
Apache-2.0
GLiNER 是一个通用的命名实体识别(NER)模型,能够识别任何类型的实体,为传统 NER 模型和大型语言模型提供了实用的替代方案。
序列标注
其他
G
urchade
10.31k
34
Gliner Multi V2.1
Apache-2.0
GLiNER 是一个通用的命名实体识别(NER)模型,能够识别任何实体类型,为传统 NER 模型提供了实用替代方案。
序列标注
其他
G
urchade
5,018
119
Gliner Multi
GLiNER是一个多语言命名实体识别(NER)模型,能够通过双向Transformer编码器识别任何实体类型,为传统NER模型提供了灵活替代方案。
序列标注
其他
G
urchade
1,459
128
Distilbert Base Multi Cased Ner
这是一个基于DistilBERT的多语言命名实体识别(NER)模型,支持10种语言,经过量化处理兼容Transformers.js。
序列标注
Transformers

支持多种语言
D
vgorce
16
1
Multilingual Xlm Roberta For Ner
MIT
基于XLM-RoBERTa基础模型微调的命名实体识别模型,支持多语言,能识别地点、组织和人物三类实体。
序列标注
Transformers

M
Tirendaz
56
2
Span Marker Mbert Base Multinerd
这是一个基于MultiNERD数据集训练的多语言命名实体识别模型,支持20多种语言,使用bert-base-multilingual-cased作为底层编码器。
序列标注
TensorBoard

其他
S
tomaarsen
5,591
64
Cv Parser
MIT
基于microsoft/mdeberta-v3-base微调的命名实体识别模型,在评估集上表现出色
序列标注
Transformers

C
nhanv
45
6
Roberta Large NER
基于XLM-RoBERTa-large模型在英语CoNLL-2003数据集上微调的命名实体识别模型
序列标注
支持多种语言
R
51la5
60.39k
48
Roberta Ner Multilingual
MIT
基于RoBERTa架构的多语言命名实体识别模型,支持20种语言的实体识别任务。
序列标注
Transformers

支持多种语言
R
julian-schelb
493
10
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的跨语言模型,主要用于命名实体识别任务。
大型语言模型
Transformers

X
andreaschandra
15
0
Xlm Roberta Base Finetuned Panx All
MIT
基于XLM-RoBERTa-base模型在特定数据集上微调的版本,主要用于序列标注任务,评估F1分数为0.8561。
大型语言模型
Transformers

X
huangjia
29
0
Xlm Roberta Base Finetuned Panx En
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上进行微调的标记分类模型,用于命名实体识别任务
序列标注
Transformers

X
Eleven
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的版本,主要用于序列标注任务。
大型语言模型
Transformers

X
haesun
15
0
Xlm Roberta Base Finetuned Panx All
MIT
基于xlm-roberta-base在多语言数据集上微调的命名实体识别模型
大型语言模型
Transformers

X
flood
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的跨语言模型
大型语言模型
Transformers

X
skr3178
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基于XLM-RoBERTa-base模型在PAN-X德语数据集上微调的标记分类模型
序列标注
Transformers

X
skr3178
18
0
Distilbert Cord Ner
Apache-2.0
基于Geotrend/distilbert-base-en-fr-de-no-da-cased微调的命名实体识别模型,在评估集上表现出色
序列标注
Transformers

D
renjithks
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基于xlm-roberta-base在xtreme数据集上微调的德语标记分类模型
序列标注
Transformers

X
dfsj
15
0
Hiner Original Xlm Roberta Large
该模型是基于XLM-RoBERTa-large架构在HiNER-original数据集上训练的命名实体识别模型,专门用于标记分类任务。
序列标注
Transformers

H
cfilt
56
1
Xlm Roberta Base Finetuned Panx De
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的德语标记分类模型
序列标注
Transformers

X
davidenam
27
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的跨语言模型,主要用于命名实体识别任务。
大型语言模型
Transformers

X
danhsf
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于xlm-roberta-base在德语和法语数据集上微调的跨语言模型,主要用于命名实体识别任务。
序列标注
Transformers

X
edwardjross
14
0
Roberta Finetuned Ner
MIT
基于xlm-roberta-base微调的命名实体识别(NER)模型,在评估集上表现出色(F1值0.9777)
序列标注
Transformers

R
kSaluja
25
0
Xlm Roberta Base Finetuned Panx De
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的德语标记分类模型,用于命名实体识别任务。
序列标注
Transformers

X
frahman
25
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的版本,主要用于命名实体识别任务。
大型语言模型
Transformers

X
osanseviero
14
0
XLMR ENIS Finetuned Ner
该模型是基于XLMR-ENIS在conll2003数据集上微调的命名实体识别模型,支持英语和冰岛语。
序列标注
Transformers

支持多种语言
X
vesteinn
90
1
Tner Xlm Roberta Base Uncased Ontonotes5
这是一个在命名实体识别任务上微调的XLM-RoBERTa模型,适用于多语言文本中的实体识别任务。
序列标注
Transformers

T
asahi417
605
1
Tner Xlm Roberta Large All English
基于XLM-RoBERTa微调的命名实体识别模型,支持英语文本中的实体识别任务。
序列标注
Transformers

T
asahi417
5,023
1
Distilbert Base Multilingual Cased Finetuned Conll2003 Ner
这是一个基于DistilBERT的多语言模型,专门用于命名实体识别任务,在ConLL 2003数据集上微调训练。
序列标注
Transformers

支持多种语言
D
gunghio
73
3
Xlm Roberta Base Finetuned Panx De
MIT
该模型是基于xlm-roberta-base在xtreme数据集上微调的版本,用于德语标记分类任务。
序列标注
Transformers

X
osanseviero
14
0
Ner Multi
Flair内置的标准4类NER模型,适用于英语、德语、荷兰语和西班牙语的命名实体识别任务
序列标注
支持多种语言
N
flair
6,369
8
Xlm Roberta Base Finetuned Panx All
MIT
基于XLM-RoBERTa-base模型在PAN-X数据集上微调的多语言命名实体识别模型
序列标注
Transformers

X
transformersbook
15
4
Ner Multi Fast
一个快速的4类命名实体识别模型,支持英语、德语、荷兰语和西班牙语,基于Flair框架和LSTM-CRF架构。
序列标注
支持多种语言
N
flair
70
6
Xx Ent Wiki Sm
MIT
针对CPU优化的多语言命名实体识别模型,支持识别地点、组织、人物等实体类型
序列标注
其他
X
spacy
245
8
Tner Xlm Roberta Base Ontonotes5
基于XLM-RoBERTa微调的命名实体识别模型,支持英语文本中的实体标记分类任务。
序列标注
Transformers

英语
T
asahi417
17.30k
5
Tf Xlm R Ner 40 Lang
基于XLM-Roberta-base的多语言命名实体识别模型,支持40种语言的实体识别
序列标注
Transformers

支持多种语言
T
jplu
969
25
Bert Base Multilingual Cased Ner Hrl
基于mBERT的多语言命名实体识别模型,支持10种高资源语言,能识别地点、组织和人名三类实体。
序列标注
Transformers

B
Davlan
363.27k
72
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文