长上下文处理
Ophiuchi Qwen3 14B Instruct
Apache-2.0
基于Qwen3-14B架构构建的指令微调模型,专精数学推理、代码生成和事实准确性
大型语言模型
Transformers
支持多种语言
O
prithivMLmods
21
3
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus 是由微软研究院开发的开源推理模型,专注于数学、科学和编程领域的高级推理能力。
大型语言模型
支持多种语言
P
unsloth
109.62k
47
Greenmind Medium 14B R1
MIT
GreenMind-Medium-14B-R1 是一款中等规模的越南语语言模型,能够有效解决需要中级推理的问题,例如常识、数学、自然科学和社会科学主题。
大型语言模型
支持多种语言
G
GreenNode
50
2
Kyro N1.1 7B Pytorch
其他
Kyro-n1.1是Kyro-n1的增强版本,基于Qwen2.5-7B-Instruct构建,优化了推理能力、理解能力和响应精准度。
大型语言模型
Transformers
支持多种语言
K
open-neo
41
2
Phi 4 Reasoning Plus
MIT
Phi-4-reasoning-plus 是微软研究院开发的先进开放权重推理模型,基于 Phi-4 通过监督微调和强化学习优化,专注于数学、科学和编码领域的高级推理能力。
大型语言模型
Transformers
支持多种语言
P
microsoft
19.83k
261
Internvl3 78B Pretrained
其他
InternVL3-78B是OpenGVLab推出的先进多模态大语言模型,展现卓越的综合性能。
文本生成图像
Transformers
其他
I
OpenGVLab
22
1
Internvl3 2B Instruct
Apache-2.0
InternVL3-2B-Instruct是基于InternVL3-2B的监督微调版本,经过原生多模态预训练和SFT处理,具备强大的多模态感知和推理能力。
文本生成图像
Transformers
其他
I
OpenGVLab
1,345
4
Kanana 1.5 2.1b Base
Apache-2.0
Kanana 1.5是Kanana模型家族的新版本,在编码、数学和函数调用能力方面有显著提升,支持32K tokens长度并可扩展至128K tokens。
大型语言模型
Transformers
支持多种语言
K
kakaocorp
757
4
Deepcoder 1.5B Preview GGUF
MIT
基于DeepSeek-R1-Distilled-Qwen-1.5B微调的代码推理大语言模型,采用分布式强化学习技术扩展长上下文处理能力
大型语言模型
英语
D
Mungert
888
2
Shisa V2 Qwen2.5 7b
Apache-2.0
Shisa V2是由Shisa.AI研发的日英双语通用对话模型,专注于提升日语任务表现,同时保持强大的英语能力。
大型语言模型
Transformers
支持多种语言
S
shisa-ai
38
2
La Superba 14B Y.2
Apache-2.0
基于Qwen 2.5 14B架构构建的新一代语言模型,专为数学推理、编程和通用逻辑任务优化。
大型语言模型
Transformers
支持多种语言
L
prithivMLmods
19
2
Moderncamembert Cv2 Base
MIT
基于1万亿高质量法语文本预训练的法语语言模型,是ModernBERT的法语版本
大型语言模型
Transformers
法语
M
almanach
232
2
Phi 4 Reasoning
MIT
Phi-4推理是基于Phi-4通过监督微调思维链轨迹数据集和强化学习训练的前沿开放权重推理模型,专注于数学、科学和编程技能。
大型语言模型
Transformers
支持多种语言
P
microsoft
11.31k
172
Minueza 2 96M
Apache-2.0
基于Llama架构的紧凑型语言模型,支持英语和葡萄牙语,参数规模9600万,支持4096个token的上下文长度。
大型语言模型
Transformers
支持多种语言
M
Felladrin
357
6
Deepseek V3 0324 GGUF
MIT
当前V3-0324模型在该尺寸类别中表现最佳的量化版本,在保持性能接近Q8_0的同时显著减小了体积
大型语言模型
其他
D
ubergarm
1,712
20
EXAONE Deep 2.4B GGUF
其他
EXAONE Deep是由LG AI Research开发的高效推理语言模型,参数规模2.4B,在数学和编程等推理任务中表现优异。
大型语言模型
支持多种语言
E
Mungert
968
3
Olmo2 11B SuperBPE T180k
Apache-2.0
110亿参数大语言模型,采用创新的SuperBPE分词器训练,支持超词单元识别和子词分词能力。
大型语言模型
Transformers
英语
O
UW
29
2
Granite 3.2 8b Instruct GGUF
Apache-2.0
Granite-3.2-8B-Instruct是一个80亿参数的长上下文AI模型,专为思维推理能力微调,支持多种语言和任务。
大型语言模型
Transformers
G
ibm-research
1,059
5
Granite 3.2 2b Instruct GGUF
Apache-2.0
Granite-3.2-2B-Instruct是一个20亿参数的长上下文AI模型,专为思维推理能力微调,支持12种语言和多任务处理。
大型语言模型
G
ibm-research
1,476
7
Llama Krikri 8B Instruct GGUF
基于Llama-3.1-8B构建的希腊语指令调优大语言模型,增强希腊语能力并支持多语言任务
大型语言模型
Transformers
L
ilsp
257
11
Mmmamba Linear
MIT
mmMamba-linear是首个通过中等学术计算资源实现二次到线性蒸馏的纯解码器多模态状态空间模型,具有高效的多模态处理能力。
图像生成文本
Transformers
M
hustvl
16
3
Multilingual ModernBert Base Preview
MIT
由Algomatic团队开发的多语言BERT模型,支持填充掩码任务,具有8192的上下文长度和151,680的词汇量。
大型语言模型
M
makiart
60
4
Llama Krikri 8B Base
Llama-Krikri-8B-Base是基于Llama-3.1-8B构建的大型希腊语基础语言模型,通过持续预训练扩展希腊语能力,同时保持英语能力。
大型语言模型
Transformers
支持多种语言
L
ilsp
104
12
Modernbert Base Long Context Qe V1
Apache-2.0
基于ModernBERT-base微调的机器翻译质量评估模型,支持长上下文文档级评估
问答系统
Transformers
支持多种语言
M
ymoslem
987
5
Rumodernbert Small
Apache-2.0
俄罗斯版现代化单向双向编码器Transformer模型,预训练使用了约2万亿个俄语、英语和代码数据的标记,上下文长度高达8,192个标记。
大型语言模型
Transformers
支持多种语言
R
deepvk
619
14
Rumodernbert Base
Apache-2.0
现代双向仅编码器Transformer模型的俄语版本,基于约2万亿俄语、英语和代码标记进行预训练,上下文长度达8,192个标记。
大型语言模型
Transformers
支持多种语言
R
deepvk
2,992
40
Phi 4 Model Stock V2
Phi-4-Model-Stock-v2是基于多个Phi-4变体模型合并而成的大语言模型,采用model_stock合并方法,在多个基准测试中表现良好。
大型语言模型
Transformers
P
bunnycore
56
2
L3.3 MS Nevoria 70b
其他
一个基于Llama 3.3架构的70B参数大语言模型,通过合并多个优秀模型组件实现增强的故事叙述、场景描述和散文细节能力
大型语言模型
Transformers
L
Steelskull
2,160
79
Qwen2 VL 2B Instruct GGUF
Apache-2.0
Qwen2-VL-2B-Instruct 是一个多模态视觉语言模型,支持图像和文本的交互,适用于图像理解和生成任务。
图像生成文本
英语
Q
gaianet
95
1
HTML Pruner Phi 3.8B
Apache-2.0
用于HTML在RAG系统中比纯文本更适合建模检索结果的HTML修剪模型
大型语言模型
Transformers
英语
H
zstanjj
319
10
Vi Qwen2 7B RAG
Apache-2.0
基于Qwen2-7B-Instruct微调的越南语RAG专用大语言模型,支持8192标记上下文长度
大型语言模型
Transformers
其他
V
AITeamVN
737
15
Jais Family 13b
Apache-2.0
Jais系列是一个全面的英阿双语大语言模型,专为阿拉伯语优化同时具备强大的英语能力。
大型语言模型
支持多种语言
J
inceptionai
30
6
Jais Family 13b Chat
Apache-2.0
Jais系列是专为阿拉伯语优化的英阿双语大语言模型,13B版本具有130亿参数,支持2048标记的上下文长度。
大型语言模型
Safetensors
支持多种语言
J
inceptionai
1,240
10
Jais Family 6p7b
Apache-2.0
Jais系列是专为阿拉伯语优化的英阿双语大语言模型,具备强大的英语能力,参数量6.7亿
大型语言模型
支持多种语言
J
inceptionai
79
6
Jais Family 2p7b Chat
Apache-2.0
Jais是专为阿拉伯语优化的双语大语言模型家族,具备强大的英语能力,参数量从5.9亿到700亿不等
大型语言模型
支持多种语言
J
inceptionai
583
7
Jais Adapted 13b Chat
Apache-2.0
Jais Adapted 13B是基于Llama-2架构的双语(阿拉伯语-英语)大语言模型,通过自适应预训练增强阿拉伯语能力
大型语言模型
Safetensors
支持多种语言
J
inceptionai
4,823
5
Jais Adapted 7b Chat
Apache-2.0
Jais系列是基于Llama-2架构的双语大语言模型,专为阿拉伯语优化同时具备强大英语能力。
大型语言模型
Safetensors
支持多种语言
J
inceptionai
736
6
Jais Adapted 7b
Apache-2.0
Jais系列是专精阿拉伯语处理的双语大语言模型,基于Llama-2架构进行阿拉伯语适配预训练
大型语言模型
支持多种语言
J
inceptionai
1,726
6
Jais Family 590m
Apache-2.0
Jais系列是一个专为阿拉伯语优化的双语大语言模型,同时具备强大的英语能力。
大型语言模型
支持多种语言
J
inceptionai
86
7
Jais Family 590m Chat
Apache-2.0
Jais系列是一个阿拉伯语-英语双语大语言模型,特别优化阿拉伯语表现,同时保持强大英语能力。
大型语言模型
Safetensors
支持多种语言
J
inceptionai
514
7