Mlabonne Qwen3 8B Abliterated GGUF
这是Qwen3-8B-abliterated模型的量化版本,使用llama.cpp进行量化,适用于文本生成任务。
大型语言模型
M
bartowski
6,892
5
Qwen2.5 1.5B Sign
MIT
基于Qwen2.5架构开发的文本转中国手语模型
文本生成
中文
Q
thundax
28
2
Slim Orpheus 3b JAPANESE Ft Q8 0 GGUF
Apache-2.0
这是一个基于slim-orpheus-3b-JAPANESE-ft模型转换的GGUF格式模型,专门针对日语文本处理进行了优化。
大型语言模型
日语
S
Gapeleon
26
0
Huihui Ai.deepseek V3 0324 Pruned Coder 411B GGUF
DeepSeek-V3-0324-Pruned-Coder-411B 是一个经过剪枝优化的代码生成模型,基于 DeepSeek-V3 架构,专注于代码生成任务。
大型语言模型
H
DevQuasar
2,706
2
Teapotai Teapotllm Onnx
MIT
TeapotLLM的ONNX版本,支持通过Transformers.js在浏览器中运行的多语言文本生成模型。
大型语言模型
Transformers

支持多种语言
T
tomasmcm
46
1
Lightblue Reranker 0.5 Bincont Filt Gguf
这是一个文本排序模型,用于对文本进行相关性排序。
文本嵌入
L
RichardErkhov
2,054
0
Huihui Ai.granite Vision 3.2 2b Abliterated GGUF
Granite Vision 3.2 2B Abliterated 是一个视觉语言模型,专注于图像文本转文本任务。
图像生成文本
H
DevQuasar
724
1
Ltxv0.9.5 Gguf
其他
LTX-Video 是一个基于文本到视频生成技术的模型,能够根据输入的文本描述生成相应的视频内容。
文本生成视频
英语
L
calcuis
337
5
Llama 3 VNTL Yollisa 8B GGUF
这是一个基于Llama-3架构的8B参数模型,专注于视觉小说和日本御宅族媒体内容的翻译与处理。
大型语言模型
支持多种语言
L
mradermacher
53
1
Mit B0 Corm
其他
基于nvidia/mit-b0微调的图像分割模型,在评估集上表现出色,平均交并比达0.9210,平均准确率0.9571。
图像分割
Transformers

M
AI-Lab-Makerere
50
0
Grounding Dino Tiny ONNX
Apache-2.0
基于ONNX格式的轻量级零样本目标检测模型,兼容Transformers.js,适用于浏览器端部署。
目标检测
Transformers

G
onnx-community
98
1
Gpt2 650k Stable Diffusion Prompt Generator GGUF
MIT
基于GPT-2的Stable Diffusion提示词生成模型,专门用于生成艺术创作相关的提示文本。
文本生成
支持多种语言
G
tensorblock
158
2
Cnmoro TinyLlama ContextQuestionPair Classifier Reranker Gguf
这是一个基于TinyLlama的轻量级文本排序模型,专门用于上下文和问题对的分类与重排任务。
文本分类
C
RichardErkhov
391
0
Yolov10n
YOLOv10是一种实时端到端目标检测模型,具有高效的延迟-精度和尺寸-精度权衡。
目标检测
Transformers

Y
onnx-community
21
6
Yolov10s
YOLOv10是清华大学MIG实验室开发的高效实时目标检测模型,提供端到端检测能力。
目标检测
Transformers

Y
onnx-community
13
7
Arabic Qwen Chat Llamafile
这是一个基于Unsloth优化的Transformer模型,专门针对阿拉伯语文本生成任务进行了优化。
大型语言模型
Transformers

阿拉伯语
A
HeshamHaroon
22
2
Blip Image Captioning Base Bf16
MIT
该模型是Salesforce/blip-image-captioning-base的量化版本,通过降低浮点精度至bfloat16,内存占用减少50%,适用于图像到文本生成任务。
图像生成文本
Transformers

B
gospacedev
20
1
Whisper Tiny German
Apache-2.0
基于whisper-tiny的德语语音识别模型,参数量为3780万,适用于对模型体积敏感的边缘场景。
语音识别
Transformers

德语
W
primeline
198
8
Depth Anything Small Hf
基于ONNX格式的小型深度估计模型,适配Transformers.js框架,适用于网页端深度图预测
3D视觉
Transformers

D
Xenova
4,829
8
Belle Distilwhisper Large V2 Zh
Apache-2.0
基于distilwhisper-large-v2微调的中文语音识别模型,速度是whisper-large-v2的5.8倍,参数减少51%
语音识别
Transformers

B
BELLE-2
230
37
Mobilebert Sql Injection Detect
Apache-2.0
基于MobileBERT的轻量级模型,用于检测输入字符串中的SQL注入攻击,适用于边缘计算场景。
文本分类
Transformers

英语
M
cssupport
12.97k
8
Rut5 Small
MIT
基于mt5-small改造的俄语文本改写模型,通过词汇表裁剪大幅减小体积,适用于俄语文本改写任务
文本生成
其他
R
cointegrated
2,139
8
Tapas Tiny Masklm
TAPAS是一个基于表格的预训练语言模型,专门用于处理表格数据相关的任务。
大型语言模型
Transformers

T
google
16
0
Mengzi Oscar Base
Apache-2.0
基于Oscar框架构建的中文多模态预训练模型,采用孟子-Bert基础版初始化,训练数据包含370万组图文对。
图像生成文本
Transformers

中文
M
Langboat
20
5
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文