中英双语
Deepseek R1 0528 AWQ
MIT
DeepSeek R1 0528的AWQ量化模型,支持使用vLLM在8块80GB GPU上以全上下文长度运行。
大型语言模型
Transformers
支持多种语言
D
cognitivecomputations
145
7
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414是GLM家族中的轻量级成员,拥有90亿参数,在数学推理和通用任务上表现出色,为资源受限场景提供了高效的解决方案。
大型语言模型
支持多种语言
G
unsloth
4,291
9
Openba V1 Based
Apache-2.0
OpenBA 是一个开源的 150 亿参数双语非对称序列到序列模型,从头开始预训练。
大型语言模型
Transformers
支持多种语言
O
OpenNLG
94
10
GLM 4 32B 0414 8bit
MIT
该模型是从THUDM/GLM-4-32B-0414转换而来的8位量化MLX格式大语言模型,支持中英文文本生成任务。
大型语言模型
支持多种语言
G
mlx-community
222
4
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super 是一个通过合并基础模型和微调模型优化的开源大语言模型,专注于提升指令跟随、数学和编码能力。
大型语言模型
Transformers
支持多种语言
Q
YOYO-AI
17
3
Mixtex Finetune
MIT
MixTex base_ZhEn 是一个支持中文和英语的图像转文本模型,基于MIT许可证发布。
图像生成文本
支持多种语言
M
wzmmmm
27
0
Spaceexploreai Small Base Regression 27M
Apache-2.0
基于深度学习的投资预测系统,采用Transformer架构,融合DeepSeep-V3和LLama3设计结构,用于股价走势预测和技术分析。
大型语言模型
支持多种语言
S
NEOAI
57
4
Qwen2.5 VL 3B Instruct GPTQ Int4
Apache-2.0
这是Qwen2.5-VL-3B-Instruct模型的GPTQ-Int4量化版本,适用于图像文本到文本的多模态任务,支持中文和英语。
图像生成文本
Transformers
支持多种语言
Q
hfl
1,312
2
Ola Image
Apache-2.0
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态语言模型,基于Qwen2.5架构,支持处理图像、视频、音频和文本输入,并输出文本。
多模态融合
支持多种语言
O
THUdyh
61
3
Healthgpt M3
MIT
HealthGPT 是一个专为统一的多模态医疗任务而开发的模型,支持英文和中文。
大型语言模型
支持多种语言
H
lintw
79
8
Deepseek R1 Medical Response
这是一个基于DeepSeek-R1微调的医疗领域问答模型,专注于处理医疗相关的文本生成任务。
大型语言模型
Transformers
英语
D
beita6969
28
2
ARWKV R1 1B5
Apache-2.0
ARWKV-R1-1B5 是基于RNN的70亿参数模型的早期预览版,通过从DeepSeek-R1-Distill-Qwen-1.5B进行三阶段知识蒸馏训练而成,上下文长度为2k。
大型语言模型
Transformers
支持多种语言
A
RWKV-Red-Team
164
4
Ola 7b
Apache-2.0
Ola-7B是由腾讯、清华大学和南洋理工大学联合开发的多模态大语言模型,基于Qwen2.5架构,支持处理文本、图像、视频和音频输入,并生成文本输出。
多模态融合
Safetensors
支持多种语言
O
THUdyh
1,020
37
Finemedlm O1
MIT
FineMedLM-o1是一款专为高级医学推理设计的专业医疗大语言模型,采用多步推理机制,在给出最终答复前会反复推敲并完善其思考过程。
大型语言模型
Transformers
支持多种语言
F
hongzhouyu
55
4
Oryx 1.5 7B
Apache-2.0
Oryx-1.5-7B是基于Qwen2.5语言模型开发的7B参数模型,支持32K tokens上下文窗口,专注于高效处理任意空间尺寸和时长的视觉输入。
文本生成视频
Safetensors
支持多种语言
O
THUdyh
133
7
Paligemma 3B Chat V0.2
基于google/paligemma-3b-mix-448微调的多模态对话模型,专为多轮对话场景优化
文本生成图像
Transformers
支持多种语言
P
BUAADreamer
80
9
Cogvlm2 Llama3 Chat 19B Int4
其他
CogVLM2是基于Meta-Llama-3-8B-Instruct构建的多模态对话模型,支持中英文,具备8K上下文长度和1344*1344分辨率图像处理能力。
文本生成图像
Transformers
英语
C
THUDM
467
28
Minicpm 1B Sft Bf16
MiniCPM是面壁智能与清华大学自然语言处理实验室联合研发的端侧大语言模型系列,核心模型仅含12亿非词嵌入参数,在多项评测中超越更大规模的开源模型。
大型语言模型
Transformers
支持多种语言
M
openbmb
638
18
Minicpm V
MiniCPM-V是一款高效轻量级多模态模型,专为终端设备部署优化,支持中英双语交互,性能超越同规模模型。
文本生成图像
Transformers
M
openbmb
19.74k
173
Minicpm 2B Dpo Bf16
MiniCPM是由面壁智能与清华大学自然语言处理实验室联合开源的一系列端侧大语言模型,核心语言模型MiniCPM-2B仅含24亿非词嵌入参数。
大型语言模型
Transformers
支持多种语言
M
openbmb
463
48
Minicpm 2B Sft Fp32
其他
MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧语言大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。
大型语言模型
Transformers
支持多种语言
M
openbmb
218
296
Nanbeige 16B Base 32K GGUF
Apache-2.0
Nanbeige 16B Base 32K是由Nanbeige LLM Lab开发的大语言模型,支持中英文,具有32K上下文长度,适用于多种文本生成任务。
大型语言模型
支持多种语言
N
TheBloke
1,451
4
Lingowhale 8B
深言科技联合清华大学NLP实验室开源的中英双语大语言模型,基于数万亿token高质量数据预训练,具备8K上下文窗口处理能力
大型语言模型
Transformers
支持多种语言
L
deeplang-ai
98
21
Chinese Llama 2 1.3b
Apache-2.0
Chinese-LLaMA-2-1.3B是基于Meta发布的Llama-2模型的中文基础模型,扩充了中文词表并进行了中文预训练,提升了中文基础语义理解能力。
大型语言模型
Transformers
支持多种语言
C
hfl
1,074
19
Codellama Chat 13b Chinese
Openrail
CodeLlaMa是专为代码辅助设计的模型,擅长处理编程类问题解答,支持中英文多轮对话。
大型语言模型
Transformers
支持多种语言
C
shareAI
16
21
Vicuna Baichuan 13b Chat
Apache-2.0
基于Baichaun-13B-chat的Vicuna微调对话模型,在通用对话和医疗咨询方面表现优异。
大型语言模型
Transformers
支持多种语言
V
shibing624
44
19
Ziya Writing LLaMa 13B V1
Gpl-3.0
姜子牙写作大模型V1是基于LLaMa的130亿参数指令微调模型,专注于写作任务,擅长处理公文报告、讲稿书信、创意文案等多类写作任务。
大型语言模型
Transformers
支持多种语言
Z
IDEA-CCNL
23
17
Moss Moon 003 Sft
MOSS是一个支持插件增强的开源对话语言模型,参数量160亿,支持中英文对话及工具调用能力。
大型语言模型
Transformers
支持多种语言
M
fnlp
98
127