Bert Practice Classifier
Apache-2.0
基于distilbert-base-uncased微调的文本分类模型,在特定任务上进行了训练。
文本分类
Transformers

B
RayenLLM
181
1
Auramask Ensemble Moon
Gpl-3.0
该模型使用改进的vnet架构进行2D图像处理,专注于图像到图像的转换任务,具有对抗性和美学优化特性。
图像生成
A
logasja
17
0
Finetune Embedding All MiniLM L6 V2 Geotechnical Test V4
一个用于句子相似度计算的预训练模型,能够将句子转换为高维向量空间中的嵌入表示,并计算它们之间的语义相似度。
文本嵌入
F
GbrlOl
20
1
Giga Embeddings Instruct
MIT
Giga Embeddings Instruct 是一个高性能的嵌入模型,专注于文本分类和检索任务,在多个基准测试中表现出色。
文本嵌入
支持多种语言
G
ai-sage
11.97k
46
Hubert Uk
基于mHuBERT-147基础模型训练的乌克兰语自动语音识别模型,支持乌克兰语语音转文本任务。
语音识别
其他
H
Yehor
31
4
ESG Classification En
MIT
一个专注于ESG(环境、社会与治理)领域的文本分类模型,用于分析企业报告中的可持续发展相关内容。
文本分类
Transformers

英语
E
cea-list-lasti
331
4
Case Analysis InLegalBERT
MIT
基于InLegalBERT微调的法律案例分析模型,专注于法律文本处理任务
文本分类
Transformers

C
cite-text-analysis
18
1
Med T5 Summ Ru
用于俄语生物医学文本抽象摘要生成的序列到序列模型
文本生成
Transformers

其他
M
sacreemure
27
0
T5 Small Aslg Pc12
Apache-2.0
该模型是在aslg_pc12数据集上对t5-small进行微调的版本,主要用于手语翻译任务。
机器翻译
Transformers

T
HamdanXI
22
0
OPT PET Impression
这是一个基于BERT的医学文本摘要模型,支持英文文本处理,适用于医学文献和报告的自动摘要生成。
文本生成
Transformers

英语
O
xtie
15
0
Opus Mt Ko En Korean Parallel Corpora
Apache-2.0
该模型是基于Helsinki-NLP/opus-mt-ko-en微调的韩英翻译模型,使用Korean Parallel Corpora数据集进行训练。
机器翻译
Transformers

支持多种语言
O
DunnBC22
17
4
Codebert Base Malicious URLs
基于microsoft/codebert-base微调的恶意网址检测模型,用于多分类任务
文本分类
Transformers

英语
C
DunnBC22
1,308
9
Wav2vec2 Base Speech Emotion Recognition
Apache-2.0
基于facebook/wav2vec2-base微调的语音情感识别模型,用于预测音频样本中说话者的情感。
音频分类
Transformers

英语
W
DunnBC22
128
13
Cvt 13 384 In22k FV Finetuned Memes
Apache-2.0
基于microsoft/cvt-13-384-22k在图像文件夹数据集上微调的图像分类模型,在评估集上准确率达到83.46%
图像分类
Transformers

C
jayanta
11
0
Randeng T5 784M QA Chinese
首个中文生成式问答预训练T5模型,基于悟道180G语料预训练并在中文SQuAD和CMRC2018数据集上微调
问答系统
Transformers

中文
R
IDEA-CCNL
166
32
Arat5 Base Finetune Ar Xlsum
基于AraT5-base模型在阿拉伯语摘要数据集xlsum上微调的抽象摘要模型
文本生成
Transformers

阿拉伯语
A
ahmeddbahaa
15
0
Bert Base German Cased Finetuned Subj V3
MIT
基于bert-base-german-cased微调的德语文本分类模型
文本分类
Transformers

B
tbosse
15
0
Longformer Finetuned Norm
基于allenai/longformer-base-4096微调的模型,适用于长文本处理任务
大型语言模型
Transformers

L
brad1141
75
0
Distilbert Base Uncased Finetuned Combinedmodel1 Ner
Apache-2.0
该模型是基于distilbert-base-uncased在特定数据集上微调的版本,主要用于命名实体识别(NER)任务。
序列标注
Transformers

D
akshaychaudhary
15
0
Matscibert
MIT
MatSciBERT是一个基于BERT架构的预训练语言模型,专门针对材料科学领域的文本挖掘和信息提取任务进行优化。
大型语言模型
Transformers

英语
M
m3rg-iitd
11.98k
19
Xls R 1B Te
Apache-2.0
基于facebook/wav2vec2-xls-r-1b在OPENSLR_SLR66-NA数据集上微调的泰卢固语语音识别模型,支持自动语音识别任务。
语音识别
Transformers

其他
X
chmanoj
18
0
T5 Base Squad Qg Ae
基于T5-base微调的联合问题生成与答案抽取模型,支持英语文本处理
问答系统
Transformers

英语
T
lmqg
56
0
Indo Roberta Indonli
MIT
基于Indo-roberta模型的印尼语自然语言推理分类器,使用IndoNLI数据集训练
文本分类
Transformers

其他
I
StevenLimcorn
34
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文