Xlm Roberta Large Twitter Cap Minor
MIT
基于xlm-roberta-large架构的多语言文本分类模型,专为Comparative Agendas Project的次要主题编码设计。
文本分类
其他
X
poltextlab
21
0
Xlm Roberta Large Pooled Cap Minor V3
MIT
基于xlm-roberta-large架构的多语言文本分类模型,专为比较议程项目的次要主题编码设计
文本分类
其他
X
poltextlab
592
0
Xlm Roberta Large Pooled Cap Minor
MIT
基于xlm-roberta-large微调的多语言文本分类模型,用于比较议程项目的次要主题代码分类
文本分类
PyTorch
其他
X
poltextlab
61
0
Roberta Large Multilingual Sentiment
Apache-2.0
基于XLM-RoBERTa-large微调的多语言情感分类模型,支持16+种语言的情感分析
文本分类
Transformers

支持多种语言
R
clapAI
1,282
4
Sentence Transformer Parsbert Fa
Apache-2.0
这是一个基于波斯语BERT模型微调的句子转换器模型,专为增强检索增强生成(RAG)系统设计,能够高效检索上下文相关信息。
文本嵌入
其他
S
myrkur
203
6
Granite 8b Code Instruct 4k GGUF
Apache-2.0
IBM Granite 8B代码指令模型是一个专注于代码生成和解释的AI模型,支持多种编程语言,在HumanEval等基准测试中表现优异。
大型语言模型
其他
G
ibm-granite
979
11
EEVE Korean 2.8B V1.0
Apache-2.0
基于microsoft/phi-2的韩语词汇扩展版本,专门针对韩语网络爬取数据集进行了微调,增强了对韩语的理解能力。
大型语言模型
Transformers

其他
E
yanolja
2,087
16
Xlm Roberta Large Pooled Cap V3
基于xlm-roberta-large的基准模型,在比较议程项目的主要主题代码标注文本上微调而成,用于多语言政策主题分类。
文本分类
Transformers

X
poltextlab
160
2
Minilm L6 Danish Reranker
MIT
这是一个轻量级丹麦语文本排序模型,基于英语MiniLM-L6模型适配而来,专门用于丹麦语信息检索任务。
文本嵌入
其他
M
KennethTM
160
0
Glotlid
Apache-2.0
一个支持多种语言的模型,特别关注非洲、亚洲和欧洲的少数民族语言。
大型语言模型
支持多种语言
G
cis-lmu
12.20k
61
Parallel 7B
Apache-2.0
MathOctopus是基于LLaMA 2架构的多语言数学推理大语言模型,支持10种语言,专注于解决数学问题。
大型语言模型
Transformers

支持多种语言
P
Mathoctopus
14
2
Wav2vec2 Large Xlsr 53 English
基于wav2vec 2.0架构的大规模语音识别模型,支持英语语音转文本
语音识别
Transformers

W
Xenova
14
2
Mrebel Large
REDFM是REBEL的多语言版本,用于多语言关系抽取任务,支持18种语言的关系三元组提取。
知识图谱
Transformers

支持多种语言
M
Babelscape
573
71
Xlm Roberta Large Ner Kazakh
基于XLM-RoBERTa-large架构的哈萨克语命名实体识别模型,在KazNERD数据集上训练,支持多种实体类型识别
序列标注
Transformers

其他
X
yeshpanovrustem
99
10
Sinmt5 Tuned
基于谷歌mT5模型在未知数据集上微调的摘要生成模型,支持多语言文本摘要任务
文本生成
Transformers

S
Hamza-Ziyard
53
0
Telugu Sentence Bert Nli
这是一个基于NLI数据集训练的泰卢固语BERT模型,用于句子相似度计算。
文本嵌入
Transformers

其他
T
l3cube-pune
26
1
Albert Small Kor Sbert V1
基于albert-small-kor-v1模型构建的SentenceBERT版本,用于将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers

A
bongsoo
128
3
Xlm Roberta De
基于XLM-RoBERTa架构的德语句子嵌入模型,可将文本映射到768维向量空间,适用于语义搜索和聚类任务
文本嵌入
Transformers

其他
X
airnicco8
22
0
Roberta Ner Multilingual
MIT
基于RoBERTa架构的多语言命名实体识别模型,支持20种语言的实体识别任务。
序列标注
Transformers

支持多种语言
R
julian-schelb
493
10
Stt Uk Citrinet 1024 Gamma 0 25
这是一个用于乌克兰语自动语音识别(ASR)的流式Citrinet模型,拥有1.41亿参数,在69小时的乌克兰语音数据上训练,测试WER低至3.52%。
语音识别
其他
S
nvidia
65
12
Xlm Roberta Base Finetuned Panx En
MIT
基于xlm-roberta-base在xtreme数据集上微调的标记分类模型
序列标注
Transformers

X
andreaschandra
19
0
Xlm Roberta Large Ner Hrl Finetuned Ner
基于xlm-roberta-large-ner-hrl模型在玩具数据集上微调的命名实体识别模型
序列标注
Transformers

X
kinanmartin
29
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的版本,主要用于序列标注任务。
大型语言模型
Transformers

X
haesun
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的德语标记分类模型
序列标注
Transformers

X
KayKozaronek
15
0
Poet Sql Digit
Apache-2.0
这是一个基于Apache-2.0许可证的开源模型,具体功能未指定
大型语言模型
Transformers

P
SivilTaram
22
0
Indicner
MIT
IndicNER是一个专门为识别11种印度语言句子中的命名实体而训练的模型,基于bert-base-multilingual-uncased模型微调。
序列标注
Transformers

其他
I
ai4bharat
45.85k
20
Afro Xlmr Large
MIT
AfroXLMR-large是通过对XLM-R-large模型在17种非洲语言上进行掩码语言建模适应性训练而创建的多语言模型。
大型语言模型
支持多种语言
A
Davlan
773
10
Afro Xlmr Base
MIT
AfroXLMR-base是通过在17种非洲语言和3种高资源语言上对XLM-R-base进行掩码语言建模适应而创建的多语言模型。
大型语言模型
Transformers

支持多种语言
A
Davlan
688
7
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的跨语言模型,主要用于命名实体识别任务。
大型语言模型
Transformers

X
danhsf
15
0
Xtreme S Xlsr 300m Fleurs Langid
Apache-2.0
该模型是基于facebook/wav2vec2-xls-r-300m在GOOGLE/XTREME_S - FLEURS.ALL数据集上微调得到的版本,用于多语言语音识别任务。
音频分类
Transformers

其他
X
anton-l
17
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于xlm-roberta-base在德语和法语数据集上微调的跨语言模型,主要用于命名实体识别任务。
序列标注
Transformers

X
edwardjross
14
0
Xtreme S Xlsr 300m Minds14
Apache-2.0
基于facebook/wav2vec2-xls-r-300m在GOOGLE/XTREME_S - MINDS14.ALL数据集上微调的多语言语音识别模型
音频分类
Transformers

其他
X
anton-l
467
2
XLMR ENIS Finetuned Ner
该模型是基于XLMR-ENIS在conll2003数据集上微调的命名实体识别模型,支持英语和冰岛语。
序列标注
Transformers

支持多种语言
X
vesteinn
90
1
Xlm Roberta Base Finetuned Wolof Finetuned Ner Swahili
这是一个基于xlm-roberta-base-finetuned-wolof预训练模型,在马萨卡纳NER数据集斯瓦希里语部分进行微调的命名实体识别模型。
序列标注
Transformers

其他
X
mbeukman
49
0
Afriberta Large
MIT
AfriBERTa large是一个预训练的多语言模型,包含约1.26亿参数,支持11种非洲语言,适用于文本分类和命名实体识别等任务。
大型语言模型
Transformers

其他
A
castorini
857
12
Mt5 Multilingual XLSum
基于XL-Sum数据集45种语言微调的mT5模型,用于多语言摘要生成任务
文本生成
Transformers

支持多种语言
M
csebuetnlp
73.34k
293
Mt5 Xxl
Apache-2.0
mT5是谷歌推出的多语言文本到文本转换模型,支持101种语言,基于mC4数据集预训练,适用于多种NLP任务。
大型语言模型
Transformers

支持多种语言
M
google
7,532
68
Mbart Large 50
MIT
mBART-50是基于多语言去噪预训练的多语言序列到序列模型,支持50种语言的翻译任务
机器翻译
Transformers

支持多种语言
M
facebook
69.04k
152
Xlm Roberta Base Ft Udpos28 La
Apache-2.0
基于XLM-RoBERTa的多语言词性标注模型,专门针对拉丁语优化,支持多种语言的词性标注任务。
序列标注
Transformers

其他
X
wietsedv
14
0
Xlm Roberta Base Ft Udpos28 Nl
Apache-2.0
基于XLM-RoBERTa的多语言词性标注模型,支持荷兰语等多种语言的词性标注任务。
序列标注
Transformers

其他
X
wietsedv
15
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文