# 轻量级指令微调

Phi 3.5 Mini Instruct
MIT
Phi-3.5-mini-instruct是一款轻量级、先进的开源模型,基于Phi-3使用的数据集构建,专注于高质量、富含推理的数据。支持128K令牌上下文长度,具有强大的多语言能力和长上下文处理能力。
大型语言模型 Transformers 其他
P
Lexius
129
1
Solarav2 Coder 0511
Apache-2.0
SolaraV2是原始Solara模型的升级版,它是一个轻量级、经过指令微调的语言模型,由高中生开发,适用于日常对话和教育任务。
大型语言模型 Transformers 英语
S
summerstars
1,766
1
Phi 4 Mini Instruct GGUF
本项目提供了microsoft/Phi-4-mini-instruct模型的GGUF格式文件,助力文本生成任务,为相关应用提供便利与高效的支持。
大型语言模型
P
MaziyarPanahi
183.94k
5
Doge 160M Instruct
Apache-2.0
Doge 160M 是一个基于动态掩码注意力机制的小型语言模型,采用监督微调(SFT)和直接偏好优化(DPO)训练而成。
大型语言模型 Transformers 英语
D
SmallDoge
2,223
12
Phi 3 Mini 4k Instruct Q4 K M GGUF
MIT
该模型是通过ggml.ai的GGUF-my-repo空间,使用llama.cpp从microsoft/Phi-3-mini-4k-instruct转换而来的GGUF格式模型。
大型语言模型 支持多种语言
P
matrixportal
67
3
Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instruct 是一个拥有 38 亿参数的轻量级、先进的开源模型,使用高质量数据集训练,在多项基准测试中表现出色。
大型语言模型 Transformers 支持多种语言
P
SanctumAI
675
17
Phi 3 Mini 4k Instruct Onnx
MIT
Phi-3 Mini 是一款轻量级、前沿的开源模型,专注于高质量、高推理密度的数据,支持4K上下文长度。
大型语言模型 Transformers
P
microsoft
370
137
Gemma 2b It Pytorch
Gemma是谷歌开发的轻量级开源大语言模型,提供20亿参数版本,适用于文本生成任务。
大型语言模型
G
google
76
11
AIbase
智启未来,您的人工智能解决方案智库
简体中文