Qwen3 0.6B GGUF
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供了一系列密集型和混合专家(MoE)模型。
大型语言模型
英语
Q
prithivMLmods
290
1
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct 是一个基于 Qwen2.5 架构的 7B 参数规模的代码生成模型,专注于指令微调,适用于代码生成和编程辅助任务。
大型语言模型
PyTorch
A
averntech
87
1
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
基于Qwen2.5架构的3B参数指令微调模型,使用Unsloth和Huggingface TRL库优化训练速度
大型语言模型
Transformers

英语
Q
hailong18102002
30
1
Esotericknowledge 24B
这是一个24B参数规模的合并语言模型,采用TIES方法融合了多个24B规模的预训练模型,专注于提供高质量的文本生成和理解能力。
大型语言模型
Transformers

E
yamatazen
122
4
Llama381binstruct Summarize Short Merged
其他
基于Meta-Llama-3.1-8B-Instruct的合并模型,针对法律领域摘要任务进行了微调,能将法律术语转换为简短易懂的摘要。
大型语言模型
L
FlamingNeuron
42
0
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super 是一个通过合并基础模型和微调模型优化的开源大语言模型,专注于提升指令跟随、数学和编码能力。
大型语言模型
Transformers

支持多种语言
Q
YOYO-AI
17
3
Space Voice Label Detect Beta
Apache-2.0
基于Qwen2.5-VL-3B模型的微调版本,使用Unsloth和Huggingface TRL库进行训练,推理速度提升2倍
文本生成图像
Transformers

英语
S
devJy
38
1
Qwen2.5 14B Dpo It Ties
基于Qwen2.5-14B模型通过TIES方法融合的增强版本,专注于指令跟随和对话优化
大型语言模型
Transformers

Q
mergekit-community
30
2
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五代模型,整合了多个先进模型的特点,优化了模型合并公式,支持100万token上下文。
大型语言模型
Safetensors
支持多种语言
Q
YOYO-AI
33
3
Etherealaurora 12B V2
基于ChatML架构的对话模型,通过mergekit工具合并预训练语言模型生成
大型语言模型
Transformers

支持多种语言
E
yamatazen
859
16
Multilingual E5 Large Instruct GGUF
MIT
多语言E5大型指令模型,支持多种语言的文本嵌入和分类任务
大型语言模型
支持多种语言
M
Impulse2000
58
1
Multilingual E5 Large Instruct Q5 K M GGUF
MIT
多语言E5大型指令模型,支持多种语言和任务,包括分类、检索和聚类等。
大型语言模型
支持多种语言
M
JHJHJHJHJ
18
1
Multilingual E5 Large Instruct Q3 K S GGUF
MIT
多语言E5大型指令模型,支持多种语言和任务,包括分类、检索、聚类等。
大型语言模型
支持多种语言
M
yoeven
14
1
Multilingual E5 Large Instruct Q5 0 GGUF
MIT
多语言E5大型指令模型,支持多种语言的文本嵌入和分类任务
大型语言模型
支持多种语言
M
yoeven
14
2
Meta Llama 3.3 70B Instruct AWQ INT4
Llama 3.3 70B Instruct AWQ INT4 是 Meta Llama 3.3 70B Instruct 模型的 4 位量化版本,适用于多语言对话用例,优化了文本生成任务。
大型语言模型
Transformers

支持多种语言
M
ibnzterrell
6,410
22
Llama 3.1 Nemotron 70B Instruct HF
英伟达定制的大型语言模型,旨在提升大语言模型生成回复对用户查询的有用性。
大型语言模型
Transformers

英语
L
nvidia
29.98k
2,033
Sales Conversations Unsloth Llama 3.1 8B Instruct
Apache-2.0
基于Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和TRL库进行高效训练
大型语言模型
Transformers

英语
S
vakodiya
22
1
Qwen2 0.5B Reward
Apache-2.0
基于Qwen/Qwen2-0.5B-Instruct微调的奖励模型,用于评估和优化生成内容的质量
大型语言模型
Transformers

Q
trl-lib
916
1
Llama 3.1 Storm 8B GGUF
Llama-3.1-Storm-8B是基于Llama-3.1-8B-Instruct构建的改进模型,在多项基准测试中表现优异,适用于对话和函数调用任务。
大型语言模型
支持多种语言
L
akjindal53244
654
41
Multilingual E5 Large Instruct GGUF
MIT
多语言e5系列是多语言嵌入模型的最佳选择之一,支持多种语言和任务。
文本嵌入
M
Ralriki
13.17k
5
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
基于Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和Huggingface TRL库进行训练,速度提升2倍。
大型语言模型
英语
L
raaec
107
0
Llama 3.1 8B Instruct Abliterated Via Adapter GGUF
这是一个基于Llama-3.1-8B-Instruct模型通过LoRA技术消除拒绝行为的改进版本
大型语言模型
L
grimjim
311
27
Meta Llama 3.1 8B Instruct AWQ INT4
Llama 3.1 8B Instruct的INT4量化版本,基于AutoAWQ工具进行量化,适用于多语言对话场景。
大型语言模型
Transformers

支持多种语言
M
hugging-quants
348.23k
67
Badger Lambda Llama 3 8b
Badger是通过递归最大成对不相交归一化去噪傅里叶插值方法生成的Llama3 8B指令模型,融合了多个优秀模型的特性。
大型语言模型
Transformers

B
maldv
24
11
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3 的量化版本,提供多种量化选项以适应不同硬件需求
大型语言模型
M
gaianet
137
1
Merge Mayhem L3 V2.1
这是一个使用mergekit工具合并的预训练语言模型集合,基于Llama-3-8B架构和多个衍生模型合并而成。
大型语言模型
Transformers

M
saishf
19
1
Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instruct是一个38亿参数的轻量级前沿开源模型,使用Phi-3数据集训练而成,注重高质量和推理密集特性。
大型语言模型
P
brittlewis12
170
1
Suzume Llama 3 8B Multilingual
其他
Suzume 8B是基于Llama 3的多语言微调版本,在近90,000个多语言对话上进行训练,增强了多语言交流能力,同时保持了Llama 3的智能水平。
大型语言模型
Transformers

S
lightblue
9,494
112
Noro Hermes 3x7B
Apache-2.0
Noro-Hermes-3x7B 是一个采用懒人融合工具包构建的混合专家模型(MoE),融合了三个7B参数的Mistral变体模型,具备智能助手、创意角色扮演和通用任务处理能力。
大型语言模型
Transformers

N
ThomasComics
16
1
Codellama 7b GQL Hf
Apache-2.0
这是一个基于CodeLlama-7b-Instruct-hf微调的GQL语言模型,专为TuGraph Analytics图计算系统设计。
大型语言模型
Transformers

C
tugraph
24
4
IF PromptMKR Phi
基于microsoft/phi-1_5模型使用IFprompMKR数据集进行qlora微调的版本,主要用于文本生成任务。
大型语言模型
Transformers

I
impactframes
23
2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文