长文本处理
Qwen3 4B GGUF
Apache-2.0
Qwen3-4B是通义千问系列大语言模型的最新版本,具有4B参数规模,支持思维与非思维模式切换,擅长推理、指令遵循和多语言处理。
大型语言模型
Q
QuantFactory
341
1
Qwen3 235B A22B GPTQ Int4
Apache-2.0
Qwen3是Qwen系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
Transformers
Q
Qwen
1,563
9
Qwen3 235B A22B
Apache-2.0
Qwen3 是 Qwen 系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
Transformers
Q
unsloth
421
2
Led Financial Summarization Genai15
专为金融文本摘要任务微调的LED模型,基于pszemraj/led-large-book-summary,由华威商学院GEN AI GROUP 15团队开发
文本生成
其他
L
fahil2631
15
0
Qwen3 4B GGUF
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供了一系列密集型和混合专家(MoE)模型。
大型语言模型
Q
Qwen
4,225
6
Qwen3 8B AWQ
Apache-2.0
Qwen3-8B-AWQ是通义千问系列最新一代8.2B参数的大语言模型,采用AWQ 4-bit量化技术优化推理效率。
大型语言模型
Transformers
Q
Qwen
13.99k
2
Qwen3 14B 128K GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
英语
Q
unsloth
10.20k
13
Qwen3 30B A3B FP8
Apache-2.0
Qwen3是通义千问系列最新一代大语言模型,提供稠密模型和混合专家(MoE)模型的完整套件。
大型语言模型
Transformers
Q
Qwen
107.85k
57
II Medical 7B Preview
基于Qwen/Qwen2.5-7B-Instruct微调的医疗推理模型,在多个医疗QA基准测试上表现优异
大型语言模型
Transformers
I
Intelligent-Internet
112
9
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大语言模型,具有4B参数规模,支持100多种语言,在推理、指令遵循、代理能力和多语言支持方面表现优异。
大型语言模型
英语
Q
unsloth
15.41k
17
Qwen3 14B Unsloth Bnb 4bit
Apache-2.0
Qwen3是通义千问系列最新一代大语言模型,提供全系列稠密模型和混合专家(MoE)模型。
大型语言模型
Transformers
英语
Q
unsloth
68.67k
5
Qwen3 14B GGUF
Apache-2.0
Qwen3是阿里云开发的最新大语言模型,具有强大的推理、指令遵循和多语言支持能力,支持思考与非思考模式切换。
大型语言模型
英语
Q
unsloth
81.29k
40
Qwen3 4B Unsloth Bnb 4bit
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大语言模型,具有4B参数规模,支持100多种语言,在推理、指令跟随和代理能力方面表现突出。
大型语言模型
Transformers
英语
Q
unsloth
72.86k
5
Qwen3 4B GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大语言模型,具有4B参数规模,支持100多种语言,具备卓越的推理、指令遵循和代理能力。
大型语言模型
英语
Q
unsloth
59.40k
32
Chonky Modernbert Large 1
MIT
Chonky是一款能够智能地将文本分割成有意义的语义块的Transformer模型,适用于RAG系统。
序列标注
Transformers
英语
C
mirth
54
2
Llm Jp Modernbert Base
Apache-2.0
基于modernBERT-base架构的日语大语言模型,支持最大8192的序列长度,使用3.4TB日语语料训练
大型语言模型
Transformers
日语
L
llm-jp
1,398
5
Orpheus 3b 0.1 Ft.w8a8
Apache-2.0
Orpheus-3B-0.1-FT 是一个基于因果语言模型的文本转语音模型,支持高效的量化压缩。
大型语言模型
Transformers
英语
O
nytopop
173
0
Mistral Small 3.1 24B Instruct 2503 Quantized.w8a8
Apache-2.0
这是一个经过INT8量化的Mistral-Small-3.1-24B-Instruct-2503模型,由Red Hat和Neural Magic优化,适用于快速响应和低延迟场景。
文本到文本
Safetensors
支持多种语言
M
RedHatAI
833
2
Chonky Modernbert Base 1
MIT
Chonky是一款能智能将文本分割成有意义语义块的Transformer模型,可用于RAG系统。
序列标注
Transformers
英语
C
mirth
221
1
Shisa V2 Unphi4 14b
Apache-2.0
Shisa V2是由Shisa.AI训练的双语(日语/英语)通用聊天模型,专注于提升日语任务能力的同时保持强大的英语能力。
大型语言模型
Transformers
支持多种语言
S
shisa-ai
62
3
Ruri V3 Reranker 310m
Apache-2.0
基于ModernBERT-Ja构建的日语通用重排序模型,具有顶尖性能表现和长序列处理能力
文本嵌入
日语
R
cl-nagoya
1,100
5
Longformer Base 4096 Bible
Apache-2.0
基于allenai/longformer-base-4096微调的圣经文本相关度预测模型
文本分类
Transformers
英语
L
ronenh24
32
1
Mizan Rerank V1
Apache-2.0
一款革命性的开源模型,能以卓越的效率和准确性对阿拉伯语长文本进行重排序。
文本嵌入
支持多种语言
M
ALJIACHI
167
1
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
ayushexel
30
0
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
这是一个基于ModernBERT-base微调的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入
英语
R
akr2002
16
1
Gemma 3 R1984 27B Q6 K GGUF
基于VIDraft/Gemma-3-R1984-27B转换的GGUF格式模型,支持多语言文本生成
大型语言模型
支持多种语言
G
GrimsenClory
28
1
Mistral Small 3.1 24B Instruct 2503 FP8 Dynamic
Apache-2.0
这是一个基于Mistral3架构的24B参数条件生成模型,经过FP8动态量化优化,适用于多语言文本生成和视觉理解任务。
文本到文本
Safetensors
支持多种语言
M
RedHatAI
2,650
5
Reranker ModernBERT Large Gooaq Bce
Apache-2.0
这是一个从ModernBERT-large微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
596
5
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五代模型,整合了多个先进模型的特点,优化了模型合并公式,支持100万token上下文。
大型语言模型
Safetensors
支持多种语言
Q
YOYO-AI
33
3
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
483
2
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
89
4
Olmo 2 0325 32B Pre GGUF
Apache-2.0
OLMo-2-0325-32B是由AllenAI开发的一个大型语言模型,具有320亿参数,适用于多种文本生成任务。
大型语言模型
O
deltanym
147
2
Trillion 7B Preview
Apache-2.0
Trillion-7B预览版是一款多语言大型语言模型,支持英语、韩语、日语和中文,在保持较低计算量的同时实现了与更高计算量模型竞争的性能。
大型语言模型
Transformers
支持多种语言
T
trillionlabs
6,864
82
Gemma 3 12b It GGUF
Gemma-3-12b-it 是 Google 开发的一个大型语言模型,基于 transformer 架构,专注于文本生成任务。
大型语言模型
G
second-state
583
1
EXAONE Deep 2.4B AWQ
其他
EXAONE Deep系列模型在数学和编程等推理任务中表现出色,本模型为24亿参数的AWQ量化版本
大型语言模型
Transformers
支持多种语言
E
LGAI-EXAONE
751
16
Kyro N1.1 7B
其他
Kyro-n1.1是Kyro-n1的增强版本,基于Qwen2.5-7B-Instruct构建,优化了推理能力、理解力和响应精准度。
大型语言模型
Transformers
支持多种语言
K
open-neo
470
4
Croguana RC2 Gguf
基于Mistral架构的克罗地亚语文本生成模型,使用Unsloth加速训练
大型语言模型
其他
C
Shome
55
1
Qwen2.5 QwQ 35B Eureka Cubed
QwQ-32B的增强版,适用于所有使用场景,具备卓越的推理和输出能力。
大型语言模型
Transformers
其他
Q
DavidAU
591
9
Thor V2.5 8b FANTASY FICTION 128K Q4 K M GGUF
这是一个基于GGUF格式转换的8B参数规模的幻想小说专用语言模型,支持128K上下文长度。
大型语言模型
英语
T
MrRobotoAI
22
0
Frigg V2 8b ACADEMIC 128K Q4 K M GGUF
Frigg-v2-8b-ACADEMIC-128K-Q4_K_M-GGUF 是一个基于 GGUF 格式的 8B 参数大语言模型,适用于多种文本生成任务。
大型语言模型
英语
F
MrRobotoAI
18
0