Dmind 1
MIT
DMind-1是基于Qwen3-32B打造的Web3专家模型,通过监督式指令微调与人类反馈强化学习专为Web3生态系统优化,在任务准确性、内容安全性和专家级交互对齐方面实现显著提升。
大型语言模型
Transformers
支持多种语言
D
DMindAI
129
21
Llama 3.2 1B GGUF
Llama 3.2 是 Meta 发布的 1B 和 3B 参数规模的多语言生成模型集合,针对对话场景优化,支持多种语言任务。
大型语言模型
支持多种语言
L
Mungert
643
3
Llama 3.1 Nemotron 70B Instruct HF
英伟达定制的大型语言模型,旨在提升大语言模型生成回复对用户查询的有用性。
大型语言模型
Transformers
英语
L
nvidia
29.98k
2,033
Llama 3 8B Japanese Instruct
这是一个基于日语对话数据集微调的Meta-Llama-3-8B-Instruct模型,专注于日语对话任务。
大型语言模型
Transformers
支持多种语言
L
haqishen
33
22
Fialka 13B V4
Apache-2.0
紫罗兰系列语言模型专为遵循指令和维持俄语对话而训练,第四代通过RLHF优化,具有更强的响应能力和更丰富的信息量。
大型语言模型
Transformers
其他
F
0x7o
95
5
Starling LM 11B Alpha
Starling-7B是一个通过AI反馈强化学习(RLAIF)训练的开源大语言模型,基于Openchat 3.5微调,在MT Bench中表现优异。
大型语言模型
Transformers
英语
S
CallComply
103
15
Eleuther Pythia2.8b Hh Sft
Apache-2.0
基于Pythia-2.8b的因果语言模型,使用Anthropic人类偏好数据集进行监督式微调
大型语言模型
Transformers
英语
E
lomahony
205
1
Eleuther Pythia6.9b Hh Sft
Apache-2.0
基于Pythia-6.9b基础模型,使用Anthropic的hh-rlhf数据集进行监督式微调训练的因果语言模型
大型语言模型
Transformers
英语
E
lomahony
58
1
Llama 2 7b Hf
Llama 2是由Meta开发的70亿参数规模预训练生成文本模型,属于开源大语言模型系列
大型语言模型
Transformers
英语
L
meta-llama
914.57k
2,038
Llama 2 70b Hf
Llama 2是由Meta开发的开源大语言模型系列,包含70亿至700亿参数规模,支持英文文本生成任务。
大型语言模型
Transformers
英语
L
meta-llama
33.86k
849
Stable Vicuna 13B GPTQ
StableVicuna-13B是基于Vicuna-13B v0模型,通过RLHF进行微调的对话模型,采用4位GPTQ量化格式
大型语言模型
Transformers
英语
S
TheBloke
49
219
Stable Vicuna 13b Delta
StableVicuna-13B是基于Vicuna-13B v0模型,通过人类反馈强化学习(RLHF)和近端策略优化(PPO)在多种对话和指令数据集上进行微调的产物。
大型语言模型
Transformers
英语
S
CarperAI
31
455
Deepspeed Chat Step3 Rlhf Actor Model Opt1.3b
基于OPT-1.3b模型,通过DeepSpeed-Chat框架进行RLHF训练优化的对话生成模型
大型语言模型
Transformers
英语
D
zen-E
30
1
Bloom 560m RLHF SD2 Prompter
Openrail
基于RLHF微调的Stable Diffusion 2.0提示生成模型,可自动扩展或生成高质量图像描述
文本生成
Transformers
B
crumb
31
12