32b Glm4 Dans Personality Engine V1.3.0 TestArticle 1
MIT
基于THUDM/GLM-4-32B-Base-0414模型在Dans-DiscountModels/pretokenization-test-4数据集上微调的大语言模型
大型语言模型
Transformers

3
Dans-DiscountModels
38
2
Videomae Base Finetuned 1e 08 Bs4 Ep2
基于MCG-NJU/videomae-base微调的视频理解模型,在未知数据集上进行了训练
视频处理
Transformers

V
EloiseInacio
14
0
Mnist Demo3
MIT
一个基于PyTorch和Diffusers库的扩散模型,用于无条件生成手写数字的黑白图像。
图像生成
M
BackTo2014
32
0
Florence 2 DocVQA
基于微软Florence-2模型使用Docmatix数据集(5%数据量)微调1天的版本,适用于图像文本理解任务
文本生成图像
Transformers

F
impactframes
30
1
Retrocomicflux
Openrail
基于公共领域图像训练的Flux LoRA模型,专长于复古漫画风格的人物描绘
图像生成
R
renderartist
469
37
Florence 2 DocVQA
这是微软Florence-2模型使用Docmatix数据集(5%数据量)以1e-6学习率微调1天后的版本
文本生成图像
Transformers

F
HuggingFaceM4
3,096
60
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.1
MIT
基于facebook/mbart-large-50微调的英语-西班牙语翻译模型,在评估集上表现出色。
机器翻译
Transformers

M
DrishtiSharma
20
0
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.01
MIT
基于facebook/mbart-large-50微调的英语到西班牙语翻译模型,在评估集上取得了45.09的BLEU分数。
机器翻译
Transformers

M
DrishtiSharma
16
0
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.0
MIT
该模型是基于facebook/mbart-large-50微调的英语到西班牙语翻译模型,在评估集上取得了45.03的BLEU分数。
机器翻译
Transformers

M
DrishtiSharma
27
0
Vit Model
Apache-2.0
基于google/vit-base-patch16-224-in21k在beans数据集上微调的视觉Transformer模型
图像分类
Transformers

V
santiagoahl
13
0
Mt5 Base Turkish Summarization
Apache-2.0
基于google/mt5-base在mlsum/tu数据集上微调的土耳其语文本摘要模型
文本生成
Transformers

M
mukayese
249
6
Cb
BERT是一种基于Transformer架构的预训练语言模型,由Google开发。
文本分类
Transformers

C
kangnichaluo
14
0
Distilbert Token Itr0 1e 05 All 01 03 2022 14 33 33
Apache-2.0
该模型是基于DistilBERT在未指定数据集上微调的版本,主要用于文本分类任务。
大型语言模型
Transformers

D
ali2066
15
0
Mrc Pretrained Roberta Large 1
KLUE-RoBERTa-large是基于RoBERTa架构的韩语预训练语言模型,由韩国研究团队开发,针对韩语自然语言处理任务进行了优化。
大型语言模型
Transformers

M
this-is-real
14
0
Mnli 1
BERT是一种基于Transformer架构的预训练语言模型,由Google开发。
文本分类
Transformers

M
kangnichaluo
14
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文