思维链推理
Mmada 8B MixCoT
MIT
MMaDA是一类新型的多模态扩散基础模型,在文本推理、多模态理解和文本到图像生成等多个领域表现卓越。
文本生成图像
Transformers
M
Gen-Verse
601
3
Deepseek R1 Llama 8B F32 GGUF
Apache-2.0
DeepSeek-R1-Llama-8B-F32-GGUF 是 DeepSeek-R1-Distill-Llama-8B 的量化版本,采用强化学习直接训练,具备自我验证、反思和生成扩展思维链等能力。
大型语言模型
Transformers
英语
D
prithivMLmods
326
1
Sarvamai Sarvam M GGUF
Apache-2.0
这是Sarvam-m模型的量化版本,支持多种印度语言和英语的文本生成任务。
大型语言模型
支持多种语言
S
bartowski
845
1
Qwenstoryteller I1 GGUF
Apache-2.0
QwenStoryteller是一个基于视觉语言模型的讲故事模型,专注于视觉叙事和跨帧一致性。
图像生成文本
英语
Q
mradermacher
340
0
Qwenstoryteller GGUF
Apache-2.0
基于Qwen的视觉叙事模型量化版本,专注于跨帧一致的故事生成和图像转文本任务
图像生成文本
英语
Q
mradermacher
195
0
Qwen3 235B A22B AWQ
Apache-2.0
Qwen3-235B-A22B是Qwen系列最新一代的大语言模型,采用混合专家(MoE)架构,具有2350亿参数和220亿激活参数,在推理、指令遵循、代理能力和多语言支持方面表现卓越。
大型语言模型
Transformers
Q
cognitivecomputations
2,563
9
MAI DS R1 GGUF
MIT
MAI-DS-R1 是 DeepSeek-R1 推理模型,经过微软 AI 团队的后续训练,以提升其在受限话题上的响应能力并优化其风险表现,同时保持其推理能力和竞争性能。
大型语言模型
M
unsloth
916
4
Videochat R1 7B Caption
Apache-2.0
VideoChat-R1_7B_caption 是一个基于 Qwen2-VL-7B-Instruct 的多模态视频文本生成模型,专注于视频内容理解和描述生成。
视频生成文本
Transformers
英语
V
OpenGVLab
48
1
Hicoder R1 Distill Gemma 27B
基于谷歌Gemma-3 27B微调的大型语言模型,专注思维链推理和代码生成任务,优化了GPU显存和系统内存管理。
大型语言模型
H
tonyli8623
13
2
UIGEN T1.5 32B
Apache-2.0
UIGEN-T1.5是基于Qwen2.5-Coder-32B-Instruct微调的先进Transformer UI生成模型,专门用于生成现代且独特的前端用户界面。
大型语言模型
Transformers
英语
U
Tesslate
44
4
UIGEN T1.5 7B
Apache-2.0
基于Qwen2.5-Coder-7B-Instruct微调的高级UI生成模型,擅长生成现代且视觉吸引人的HTML/CSS代码。
大型语言模型
Transformers
英语
U
Tesslate
121
5
UIGEN T1.5 14B
Apache-2.0
基于Qwen2.5-Coder-14B-Instruct微调的高级Transformer界面生成模型,擅长生成现代且独特的前端用户界面
大型语言模型
Transformers
英语
U
Tesslate
67
5
Deepseek R1 14b Cot Math Reasoning Full GGUF
MIT
14B参数规模的数学推理大语言模型,支持思维链推理
大型语言模型
D
tensorblock
838
2
Deephermes 3 Llama 3 3B Preview Abliterated
Apache-2.0
DeepHermes 3预览版Abliterated是Nous Research旗舰级Hermes系列大语言模型的最新版本,整合了推理与常规LLM响应模式。
大型语言模型
Transformers
英语
D
prithivMLmods
338
2
Gemma 3 4b Reasoning
Apache-2.0
Gemma-3-4b推理是基于Transformer架构的语言模型,采用GRPO方法微调,专注于推理任务优化。
大型语言模型
Transformers
英语
G
ericrisco
53
2
Traceback 12b
Apache-2.0
TraceBack 12b 是基于 Mistral-Nemo-Instruct 架构的 4bit 量化版本,专注于指令遵循和思维链推理任务。
大型语言模型
Transformers
T
secemp9
1,470
29
Tifa DeepsexV2 7b MGRPO Safetensors GGUF
Apache-2.0
Tifa-DeepsexV2-7b-MGRPO-safetensors 是一个基于 transformers 库的多语言(中文和英语)大语言模型,经过增量预训练、监督微调和强化学习优化,适用于角色扮演和思维链任务。
大型语言模型
支持多种语言
T
mradermacher
283
1
Vikhr YandexGPT 5 Lite 8B It
其他
基于YandexGPT-5-Lite-8B-pretrain的指令模型,通过俄语数据集GrandMaster-PRO-MAX和Grounded-RAG-RU-v2进行SFT训练,擅长俄语和英语任务。
大型语言模型
Transformers
支持多种语言
V
Vikhrmodels
3,058
20
MD Judge V0 2 Internlm2 7b
Apache-2.0
基于internlm2-7b-chat微调的安全防护工具,提供人类可读的判定解释和细粒度危害评分
大型语言模型
Transformers
英语
M
OpenSafetyLab
1,823
15
Flan T5 Tsa Thor Xl
MIT
基于Flan-T5-XL微调的目标情感分析模型,采用三跳推理思维链(THoR)框架训练,专为英文文本设计
大型语言模型
Transformers
英语
F
nicolay-r
34
3
Llama 3 Cat 8b Instruct V1
基于llama 3 8b的微调模型,专注于系统提示的忠实度、帮助性和角色沉浸感
大型语言模型
Transformers
L
SteelStorage
20
51
Spyazweb AI DeepMind Project
Apache-2.0
基于Mixtral架构的多功能大语言模型,融合深度心智与自我优化能力,支持多语言文本生成与复杂推理任务
大型语言模型
Transformers
英语
S
LeroyDyer
97
3
Quietstar 8 Ahead
基于Mistral-7b模型,采用Quiet-STaR方法进行持续预训练,在生成每个输出词元前会先生成8个思维词元,提升推理能力。
大型语言模型
Transformers
Q
ezelikman
239
90
Nli Entailment Verifier Xxl
基于flan-t5-xxl微调的NLI模型,用于验证前提是否支持假设,特别优化多句前提场景
大型语言模型
Transformers
英语
N
soumyasanyal
164
5
Synthia 70B V1.5
Synthia-70B-v1.5是一个700亿参数的大型语言模型,基于Llama2架构构建,专注于通过思维树方法进行复杂推理和连贯回答。
大型语言模型
Transformers
S
migtissera
99
42
Llemma 34b
Llemma 34B是一个专注于数学领域的语言模型,基于Code Llama 34B的权重进行初始化,并在Proof-Pile-2数据集上训练了500亿个token。
大型语言模型
Transformers
英语
L
EleutherAI
60
99
Synthia 70B V1.2b
SynthIA(合成智能代理)是基于Orca风格数据集训练的LLama-2-70B模型,擅长遵循指令及进行长对话。
大型语言模型
Transformers
英语
S
migtissera
136
29
Minotaur 13b Fixed
Apache-2.0
Minotaur 13B是基于LlaMA-13B进行指令微调的模型,使用完全开源数据集进行微调,确保可复现性。
大型语言模型
Transformers
M
openaccess-ai-collective
121
16