Medgemma 27b Text It
其他
MedGemma是基于Gemma 3优化的医学专用模型系列,提供270亿参数的纯文本版本,专为医学文本理解和推理优化。
大型语言模型
Transformers

M
unsloth
211
2
Medgemma 4b It
其他
MedGemma是基于Gemma 3优化的医学多模态模型系列,专为医学文本和图像理解设计,提供4B和27B两种参数规模版本。
图像生成文本
Transformers

M
google
15.36k
259
Medgemma 4b Pt
其他
MedGemma是基于Gemma 3优化的医学多模态模型,专为医疗文本和图像理解设计,提供4B和27B两个版本。
图像生成文本
Transformers

M
google
1,054
73
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6B 是 Qwen 系列最新一代的 0.6B 参数规模的大语言模型,支持思维和非思维模式切换,具备强大的推理、指令遵循和多语言能力。
大型语言模型
Q
QuantFactory
317
1
Qwen3 30B A3B ERP V0.1
MIT
基于Qwen3-30B-A3B-NSFW-JP微调的角色扮演专用大语言模型,支持日语长文本生成
大型语言模型
Transformers

日语
Q
Aratako
68
6
Superthoughts Lite V2 MOE Llama3.2 GGUF
Superthoughts Lite v2是一个轻量级混合专家(MOE)模型,基于Llama-3.2架构,专注于推理任务,提供更高的准确性和性能。
大型语言模型
支持多种语言
S
Pinkstack
119
2
Qwen3 1.7B GGUF
Apache-2.0
通义千问系列大语言模型的最新版本,支持思维与非思维模式切换,具备强大的推理、多语言和智能体能力。
大型语言模型
Q
Qwen
1,180
1
GLM4 32B Neon V2
MIT
基于 GLM-4-32B-0414 的角色扮演微调版本,表现优秀,个性鲜明,风格多样,文笔优美。
大型语言模型
Transformers

英语
G
allura-org
171
7
Qwen3 1.7B GGUF
Apache-2.0
Qwen3-1.7B是Qwen系列最新一代1.7B参数规模的大语言模型,支持在思考与非思考模式间切换,具备增强的推理能力和多语言支持。
大型语言模型
英语
Q
unsloth
28.55k
16
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6B是阿里云开发的0.6B参数规模的大语言模型,属于Qwen3系列的最新成员,支持100多种语言,具备强大的推理、指令遵循和多语言能力。
大型语言模型
英语
Q
unsloth
53.56k
41
Viper Coder V1.7 Vsm6
Apache-2.0
Viper-Coder-v1.7-Vsm6是基于千问2.5 14B模态架构设计的大语言模型,专注于提升编码效率和计算推理能力,优化内存使用并减少冗余文本生成。
大型语言模型
Transformers

支持多种语言
V
prithivMLmods
491
5
Qwen2 96M
Apache-2.0
Qwen2-96M是基于Qwen2架构的微型语言模型,含9600万参数,支持8192个标记的上下文长度,适用于英文文本生成任务。
大型语言模型
英语
Q
Felladrin
76
2
Llama 3 70b Arimas Story RP V1.6 3.5bpw H6 Exl2
基于Llama-3-70B的合并模型,专注于故事生成和角色扮演(RP)任务,通过breadcrumbs_ties方法合并多个高质量模型
大型语言模型
Transformers

L
kim512
21
1
Qwen2.5 1.5B Instruct
Apache-2.0
专为Gensyn RL Swarm设计的1.5B参数指令微调模型,支持通过点对点强化学习进行本地微调
大型语言模型
Transformers

英语
Q
Gensyn
2.1M
4
EXAONE Deep 7.8B GGUF
其他
EXAONE Deep系列模型在数学和编程等推理任务中表现出色,7.8B版本优于同规模开源模型,甚至超越某些专有模型。
大型语言模型
支持多种语言
E
QuantFactory
297
3
Modernbert Base Tr Uncased
MIT
基于ModernBERT架构的土耳其语预训练模型,支持8192上下文长度,在多个领域表现优异
大型语言模型
Transformers

其他
M
artiwise-ai
159
9
Jp ModernBERT Large Preview
MIT
由Algomatic团队训练的日语BERT模型,支持填充掩码任务,上下文长度达8192。
大型语言模型
日语
J
makiart
20
1
Ola 7b
Apache-2.0
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态大语言模型,基于Qwen2.5架构,支持处理文本、图像、视频和音频输入,并生成文本输出。
多模态融合
Safetensors
支持多种语言
O
THUdyh
1,020
37
Falcon3 MoE 2x7B Insruct
其他
Falcon3 7B-IT 与 7B-IT 的混合专家模型,具有134亿参数,支持英语、法语、西班牙语、葡萄牙语四种语言,上下文长度最高可达32K。
大型语言模型
Safetensors
英语
F
ehristoforu
273
10
Jina Embeddings V2 Base Code GGUF
Apache-2.0
Jina Embeddings V2 Base Code 是一个基于转换器架构的英文文本嵌入模型,专注于代码相关文本的特征提取和句子相似度计算。
文本嵌入
英语
J
gaianet
575
1
Llama DNA 1.0 8B Instruct
基于Llama架构的最先进双语语言模型,特别优化了韩语理解和生成能力,同时保持强大的英语能力。
大型语言模型
Transformers

支持多种语言
L
dnotitia
661
58
H2o Danube3.1 4b Chat
Apache-2.0
由H2O.ai微调的40亿参数聊天模型,基于Llama 2架构调整,支持8192上下文长度
大型语言模型
Transformers

英语
H
h2oai
271
5
MN Slush
Slush是一个采用高LoRA丢弃率训练的双阶段模型,专注于提升创造力和角色扮演能力
大型语言模型
Transformers

M
crestf411
59
27
Allegro
Apache-2.0
Allegro是一个开源的高质量文生视频生成模型,能够生成720x1280分辨率、15 FPS的6秒细节视频。
文本生成视频
英语
A
rhymes-ai
250
257
Polish Reranker Bge V2
这是一个基于BAAI/bge-reranker-v2-m3并进一步在大规模波兰语文本对数据集上微调的重排序模型,支持长上下文处理。
文本嵌入
Transformers

其他
P
sdadas
549
1
Mistral Nemo BD RP
Apache-2.0
基于BeyondDialogue数据集微调的大型语言模型,专为中英文角色扮演场景设计
大型语言模型
支持多种语言
M
yuyouyu
36
7
Internvideo2 Chat 8B InternLM2 5
MIT
InternVideo2-Chat-8B-InternLM2.5是一个视频-文本多模态模型,通过整合InternVideo2视频编码器与大型语言模型(LLM)来增强视频理解和人机交互能力。
视频生成文本
I
OpenGVLab
60
7
Gte Multilingual Mlm Base
Apache-2.0
mGTE系列多语言文本编码器,支持75种语言,最大上下文长度8192,基于BERT+RoPE+GLU架构,在GLUE和XTREME-R基准上表现优异
大型语言模型
Safetensors
G
Alibaba-NLP
342
12
Jais Family 1p3b
Apache-2.0
Jais系列是专精阿拉伯语处理的双语大语言模型,具备强大的英语能力,参数量13亿
大型语言模型
支持多种语言
J
inceptionai
318
9
Deepseek V2 Lite
DeepSeek-V2-Lite 是一款经济高效的专家混合(MoE)语言模型,总参数量16B,激活参数量2.4B,支持32k上下文长度。
大型语言模型
Transformers

D
ZZichen
20
1
Llama3 German 8B 32k
基于Meta Llama3-8B优化的德语大语言模型,通过650亿德语语料持续预训练,专为德语优化并支持32k长上下文
大型语言模型
Transformers

德语
L
DiscoResearch
91
13
Phi 3 Small 8k Instruct Onnx Cuda
MIT
Phi-3 Small是一个70亿参数的轻量级前沿开源模型,针对NVIDIA GPU优化的ONNX版本,支持8K上下文长度,具备强推理能力。
大型语言模型
Transformers

P
microsoft
115
12
Deepseek V2 Chat GGUF
MIT
DeepSeek-V2-Chat 的 GGUF 量化版本,适用于本地部署和运行。
大型语言模型
支持多种语言
D
leafspark
1,388
27
H2o Danube2 1.8b Chat
Apache-2.0
由H2O.ai微调的18亿参数聊天模型,基于Llama 2架构调整,支持8192上下文长度
大型语言模型
Transformers

英语
H
h2oai
948
61
Erosumika 7B V3 7.1bpw Exl2
Erosumika-7B-v3是一个7.1bpw exl2量化的语言模型,适合在8GB显存的GPU上运行16k上下文。
大型语言模型
Transformers

英语
E
Natkituwu
24
1
Meltemi 7B V1
Apache-2.0
首个希腊语大型基础语言模型,基于Mistral-7B架构,通过400亿token的希腊语和英语语料增强希腊语能力
大型语言模型
Transformers

支持多种语言
M
ilsp
49
51
Midnight Miqu 70B V1.5 GPTQ32G
其他
基于DARE线性融合方法合并的70B参数大语言模型,专为角色扮演和故事创作优化
大型语言模型
Transformers

M
Kotokin
175
4
Codellama 70b Instruct Hf
Code Llama是Meta发布的70亿到700亿参数规模的代码生成与理解模型系列,本模型为700亿参数指令微调版本
大型语言模型
Transformers

其他
C
meta-llama
505
18
Midnight Miqu 70B V1.5
其他
Midnight-Miqu-70B-v1.5 是一个专为角色扮演和故事创作设计的70B参数大语言模型,由 sophosympatheia 和 migtissera 的模型合并而成。
大型语言模型
Transformers

M
sophosympatheia
734
199
Lemonaderp 4.5.3 GGUF
专注于角色扮演的7B参数大语言模型,具有8192上下文长度,强调创造力和减少陈词滥调
大型语言模型
英语
L
KatyTheCutie
238
28
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文