Dmind 1
MIT
DMind-1是基于Qwen3-32B打造的Web3专家模型,通过监督式指令微调与人类反馈强化学习专为Web3生态系统优化,在任务准确性、内容安全性和专家级交互对齐方面实现显著提升。
大型语言模型
Transformers

支持多种语言
D
DMindAI
129
21
Llama 3.2 1B GGUF
Llama 3.2 是 Meta 发布的 1B 和 3B 参数规模的多语言生成模型集合,针对对话场景优化,支持多种语言任务。
大型语言模型
支持多种语言
L
Mungert
643
3
Llama 3.1 Nemotron 70B Instruct HF
英伟达定制的大型语言模型,旨在提升大语言模型生成回复对用户查询的有用性。
大型语言模型
Transformers

英语
L
nvidia
29.98k
2,033
Llama 3 8B Japanese Instruct
这是一个基于日语对话数据集微调的Meta-Llama-3-8B-Instruct模型,专注于日语对话任务。
大型语言模型
Transformers

支持多种语言
L
haqishen
33
22
Fialka 13B V4
Apache-2.0
紫罗兰系列语言模型专为遵循指令和维持俄语对话而训练,第四代通过RLHF优化,具有更强的响应能力和更丰富的信息量。
大型语言模型
Transformers

其他
F
0x7o
95
5
Starling LM 11B Alpha
Starling-7B是一个通过AI反馈强化学习(RLAIF)训练的开源大语言模型,基于Openchat 3.5微调,在MT Bench中表现优异。
大型语言模型
Transformers

英语
S
CallComply
103
15
Eleuther Pythia2.8b Hh Sft
Apache-2.0
基于Pythia-2.8b的因果语言模型,使用Anthropic人类偏好数据集进行监督式微调
大型语言模型
Transformers

英语
E
lomahony
205
1
Eleuther Pythia6.9b Hh Sft
Apache-2.0
基于Pythia-6.9b基础模型,使用Anthropic的hh-rlhf数据集进行监督式微调训练的因果语言模型
大型语言模型
Transformers

英语
E
lomahony
58
1
Llama 2 7b Hf
Llama 2是由Meta开发的70亿参数规模预训练生成文本模型,属于开源大语言模型系列
大型语言模型
Transformers

英语
L
meta-llama
914.57k
2,038
Llama 2 70b Hf
Llama 2是由Meta开发的开源大语言模型系列,包含70亿至700亿参数规模,支持英文文本生成任务。
大型语言模型
Transformers

英语
L
meta-llama
33.86k
849
Stable Vicuna 13B GPTQ
StableVicuna-13B是基于Vicuna-13B v0模型,通过RLHF进行微调的对话模型,采用4位GPTQ量化格式
大型语言模型
Transformers

英语
S
TheBloke
49
219
Stable Vicuna 13b Delta
StableVicuna-13B是基于Vicuna-13B v0模型,通过人类反馈强化学习(RLHF)和近端策略优化(PPO)在多种对话和指令数据集上进行微调的产物。
大型语言模型
Transformers

英语
S
CarperAI
31
455
Deepspeed Chat Step3 Rlhf Actor Model Opt1.3b
基于OPT-1.3b模型,通过DeepSpeed-Chat框架进行RLHF训练优化的对话生成模型
大型语言模型
Transformers

英语
D
zen-E
30
1
Bloom 560m RLHF SD2 Prompter
Openrail
基于RLHF微调的Stable Diffusion 2.0提示生成模型,可自动扩展或生成高质量图像描述
文本生成
Transformers

B
crumb
31
12
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文