Swf Trained Model
Apache-2.0
该模型是基于mukesh3444/window_detection_model在nagarajuthirupathi/indoor_window_detection_swf数据集上微调的图像分割模型,专注于室内窗户检测任务。
图像分割
Transformers

S
nagarajuthirupathi
132
0
Logoiconemojimoe V0.2 FLUX.1 Dev LoRA
其他
基于FLUX.1-dev模型的LoRA适配器,专为生成标志、图标和表情符号设计,支持微软FluentUI风格等多种3D渲染效果。
图像生成
L
Borcherding
282
1
Bge Base En V1.5 Course Recommender V5
这是一个从BAAI/bge-base-en-v1.5微调而来的sentence-transformers模型,能将句子和段落映射到768维的密集向量空间。
文本嵌入
B
datasocietyco
15.87k
1
Plushies
Openrail
这是一个基于Flax框架的文本生成图像模型,专门用于生成毛绒玩具风格的图像。
文本生成图像
英语
P
camenduru
19
22
Segformer B0 Finetuned Morphpadver1 Hgo Coord
其他
基于nvidia/mit-b0微调的图像分割模型,在NICOPOI-9/morphpad_coord_hgo_512_4class数据集上表现优异
图像分割
Transformers

S
NICOPOI-9
98
0
Test With Sdfvd
基于MCG-NJU/videomae-base微调的视频理解模型,在评估集上表现一般(准确率50%)
视频处理
Transformers

T
cocovani
16
0
Videomae Base Finetuned 1e 08 Bs4 Ep2
基于MCG-NJU/videomae-base微调的视频理解模型,在未知数据集上进行了训练
视频处理
Transformers

V
EloiseInacio
14
0
Finetuning Sentiment Model 3000 Samples
Apache-2.0
基于distilbert-base-uncased微调的情感分析模型,在评估集上准确率达87.67%
文本分类
Transformers

F
mayank15122000
111
1
Nuke X Gemma3 1B Reasoner Testing
Apache-2.0
基于Google Gemma-3-1B优化的推理增强模型,通过GRPO算法和高质量数据集提升逻辑推理能力
大型语言模型
Transformers

英语
N
NuclearAi
77
2
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
基于DistilBERT的文本分类模型,用于区分食品与非食品文本
文本分类
Transformers

L
HimanshuGoyal2004
70
1
Finetuned ViT Model
MIT
基于DETR-ResNet50架构微调的安全帽检测模型,专为工业场景设计
目标检测
Transformers

英语
F
bnina-ayoub
21
1
Light R1 32B DS
Apache-2.0
Light-R1-32B-DS是一款近SOTA水平的32B数学模型,基于DeepSeek-R1-Distill-Qwen-32B微调,仅使用3K SFT数据即实现高性能。
大型语言模型
Transformers

L
qihoo360
1,136
13
Tunisian TTS
基于突尼斯自定义数据集微调的XTTS V2文本转语音模型
语音合成
阿拉伯语
T
amenIKh
48
2
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
基于distilbert-base-uncased微调的情感分析模型,在评估集上准确率达到85.67%
文本分类
Transformers

F
nayaksaroj
23
1
Ddpm Fewshot Anime Face
MIT
基于DDPM架构的扩散模型,用于生成卡通风格的角色头像
图像生成
D
xchuan
25
1
Granite Timeseries Ttm R2
Apache-2.0
TinyTimeMixers(TTMs)是由IBM Research开源的多变量时间序列预测紧凑型预训练模型,参数从100万起,首次提出时间序列预测领域的'微型'预训练模型概念。
气候模型
Safetensors
G
ibm-granite
217.99k
89
Florence 2 DocVQA
基于微软Florence-2模型使用Docmatix数据集(5%数据量)微调1天的版本,适用于图像文本理解任务
文本生成图像
Transformers

F
impactframes
30
1
Clip Fine Tuned Satellite
MIT
基于CLIP模型在UC_Merced卫星图像数据集上微调的版本,准确率达96.9%
图像分类
Transformers

C
NemesisAlm
30
1
Urdu Text To Speech Tts
MIT
基于microsoft/speecht5_tts微调的乌尔都语TTS模型,训练数据量较小(4200句),商用需重新训练
语音合成
Transformers

其他
U
HamzaSidhu786
46
2
Florence 2 DocVQA
这是微软Florence-2模型使用Docmatix数据集(5%数据量)以1e-6学习率微调1天后的版本
文本生成图像
Transformers

F
HuggingFaceM4
3,096
60
Paligemma Vqav2
该模型是基于google/paligemma-3b-pt-224在VQAv2数据集的一小部分上进行微调的版本,专注于视觉问答任务。
文本生成图像
Transformers

P
merve
168
13
Kosmos 2 PokemonCards Trl Merged
这是一个基于微软Kosmos-2模型微调的多模态模型,专门用于识别宝可梦卡牌中的宝可梦名称。
图像生成文本
Transformers

英语
K
Mit1208
51
1
Llama 3 8b Patent Small Dataset
其他
基于Meta-Llama-3-8B-Instruct在16,000条韩文专利的小型数据集英文翻译版本上进行微调的模型,仅供测试用途。
大型语言模型
Transformers

英语
L
kimhyeongjun
17
4
Finetuned Clothes
Apache-2.0
基于Google的ViT模型微调的服装分类模型,支持7种服装类别的图像分类
图像分类
Transformers

F
samokosik
50
2
Gemma 1.1 7b It Fictional Chinese V1
基于google/gemma-1.1-7b-it在generator数据集上微调的中文语言模型
大型语言模型
Transformers

G
yzhuang
21
1
Intent Classifier
基于Flan-T5-Base微调的意图分类模型,用于将客户问题归类到预定义类别
文本分类
Transformers

I
Serj
364
4
Detr Resnet 101 Dc5 Sku110k
Apache-2.0
这是一个基于DETR架构的目标检测模型,使用ResNet-101-DC5作为骨干网络,在SKU110K数据集上训练,查询数设置为400。
目标检测
Transformers

D
isalia99
129
0
Videomae Base Finetuned Subset
基于MCG-NJU/videomae-base模型在未知数据集上微调的视频理解模型,准确率达67.13%
视频处理
Transformers

V
Joy28
2
0
Mms Spa Finetuned Colombian Monospeaker
这是一个基于MMS的西班牙语TTS模型,使用VITS架构微调,仅需80-150个样本和20分钟训练时间即可生成哥伦比亚口音的西班牙语语音。
语音合成
Transformers

西班牙语
M
ylacombe
71
1
Mms Spa Finetuned Argentinian Monospeaker
这是一个基于MMS西班牙语版本的微调模型,采用VITS架构构建,仅用80至150个样本在约20分钟内完成训练。
语音合成
Transformers

西班牙语
M
ylacombe
88
3
Distil Ast Audioset Finetuned Cry
Apache-2.0
基于bookbot/distil-ast-audioset模型在DonateACry数据集上微调的音频分类模型,用于识别婴儿哭声
音频分类
Transformers

D
jstoone
76
1
Blip Image Captioning Base Test Sagemaker Tops 3
Bsd-3-clause
该模型是基于Salesforce的BLIP图像描述生成基础模型在SageMaker平台上微调的版本,主要用于图像描述生成任务。
图像生成文本
Transformers

B
GHonem
13
0
Model3
MIT
基于naver-clova-ix/donut-base-finetuned-cord-v2微调的文档图像理解模型
图像生成文本
Transformers

M
sunilsai
13
0
Abap Nous Hermes
Apache-2.0
这是一个基于Llama-2-7b-chat-hf微调的ABAP编程语言模型,专门用于生成ABAP代码
大型语言模型
Transformers

英语
A
smjain
51
1
Segformer Finetuned Ihc
其他
基于nvidia/mit-b0模型在Isaacks/ihc_slide_tissue数据集上微调的图像分割模型
图像分割
Transformers

S
Isaacks
14
0
Donut Base Sroie
MIT
基于naver-clova-ix/donut-base在图像文件夹数据集上微调的模型,具体用途未明确说明
文字识别
Transformers

D
iamkhadke
13
0
Digit Mask Data2vec Audio Base 960h Ft
Apache-2.0
基于data2vec-audio-base-960h微调的音频数字识别模型,在数字掩码增强数据集上表现出色
音频分类
Transformers

D
mazkooleg
14
0
Digit Mask Unispeech Sat Base Ft
基于microsoft/unispeech-sat-base微调的语音处理模型,专注于数字掩码任务,在评估集上表现出色。
语音识别
Transformers

D
mazkooleg
25
0
Swinv2 Tiny Patch4 Window8 256 Finetuned THFOOD 50
该模型是基于Swin Transformer V2架构在THFOOD-50泰国食物数据集上微调的视觉分类模型,专门用于泰国食物的图像识别。
图像分类
Transformers

S
thean
30
2
All Format
MIT
基于philschmid/donut-base-sroie微调的模型,适用于图像处理任务
文字识别
Transformers

A
dreeven
17
0
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文