轻量级大模型
Qwen3 0.6B ONNX
Qwen3-0.6B是一个轻量级大语言模型,已转换为ONNX格式以便在网页端使用。
大型语言模型
Transformers
Q
onnx-community
5,051
8
Minicpm O 2 6 Gguf
MiniCPM-o 2.6是一个多模态模型,支持视觉和语言任务,专为llama.cpp设计。
图像生成文本
M
openbmb
5,660
101
Sapie Gemma2 9B IT
基于Google Gemma-2-9b-it模型优化的韩语版本,由Saltware开发,适用于韩语自然语言处理任务。
大型语言模型
Transformers
韩语
S
hometax
171
4
Gemma 2 9b
Gemma是Google推出的轻量级前沿开放模型系列,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
45.11k
655
Gemma 2 9b It
Gemma是Google推出的轻量级开放大语言模型系列,基于创建Gemini模型的相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
336.05k
705
Phi 3 Mini 4k Instruct Q4
Phi-3 4k Instruct 是一个轻量级但功能强大的语言模型,经过4位量化处理以降低资源需求。
大型语言模型
Transformers
P
bongodongo
39
1
Minicpm 2B 128k
MiniCPM是由面壁智能与清华大学自然语言处理实验室联合开发的端侧大语言模型,非词嵌入参数量仅24亿(2.4B),支持128k上下文窗口。
大型语言模型
Transformers
支持多种语言
M
openbmb
145
42
Gemma 1.1 2b It
Gemma是Google推出的轻量级开放模型系列,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
71.01k
158
Internlm2 1 8b
其他
InternLM2-1.8B是第二代书生·浦语系列的18亿参数版本,具有高质量和高适应灵活性的基础模型,支持长达20万字符的超长上下文。
大型语言模型
Transformers
I
internlm
7,980
32