128K长文本
Llama 3.1 Nemotron Nano 4B V1.1
其他
Llama-3.1-Nemotron-Nano-4B-v1.1 是一个基于Llama 3.1 8B压缩而来的大型语言模型,优化了推理能力和任务执行效率,适用于单块RTX显卡本地运行。
大型语言模型
Transformers
英语
L
unsloth
219
4
Typhoon2.1 Gemma3 4b
泰语大语言模型(指令调优版),拥有40亿参数、128K上下文长度且具备函数调用能力
大型语言模型
T
scb10x
2,083
3
Typhoon2.1 Gemma3 12b
Typhoon2.1-Gemma3-12B 是一个基于Gemma3架构的120亿参数泰语大语言模型,支持128K上下文长度和函数调用功能。
大型语言模型
Safetensors
T
scb10x
159.13k
2
Phi 4 Mini Reasoning
MIT
Phi-4-mini-reasoning是一个轻量级的开源模型,专注于高质量、密集推理的数据,并进一步微调以获得更高级的数学推理能力。
大型语言模型
Transformers
支持多种语言
P
microsoft
18.93k
152
R01 Gemma 3 1b It
Gemma 3是谷歌推出的轻量级开源多模态模型,基于与Gemini相同技术构建,支持文本和图像输入并生成文本输出。
文本生成图像
Transformers
英语
R
EpistemeAI
17
1
Phi 4 Mini Instruct Abliterated
MIT
Phi-4-mini-instruct是基于合成数据和精选公开网站构建的轻量级开源模型,专注于高质量、强推理能力的数据。
大型语言模型
Transformers
支持多种语言
P
lunahr
250
8
Phi 4 Mini Instruct
MIT
Phi-4-mini-instruct是一个轻量级开源模型,基于合成数据和过滤后的公开网站数据构建,专注于高质量、富含推理能力的数据。
大型语言模型
Transformers
支持多种语言
P
microsoft
346.30k
455
Chocolatine 2 14B Instruct V2.0.3
Apache-2.0
Chocolatine-2-14B-Instruct-v2.0.3 是一个基于 Qwen-2.5-14B 架构的大语言模型,经过 DPO 微调,专注于法语和英语任务,在法语 LLM 排行榜中表现优异。
大型语言模型
Transformers
支持多种语言
C
jpacifico
329
14