Qwen2.5 7B Fuse Exp
这是一个使用mergekit工具通过SCE方法合并多个7B参数规模模型的语言模型
大型语言模型
Transformers

Q
bunnycore
22
2
Llama 3.1 8B Instuct Uz Q8 0 GGUF
这是一个基于Llama-3.1架构的8B参数模型,支持乌兹别克语和英语的指令理解和文本生成任务。
大型语言模型 支持多种语言
L
azimjon
31
0
Blabbertron 1.2
基于Qwen2.5-7B-Instruct基础模型,融合了多个7B规模模型的优势,通过模型库存法进行整合的混合模型。
大型语言模型
Transformers

B
bunnycore
39
2
Multilingual E5 Large Instruct Q6 K GGUF
MIT
多语言E5大型指令模型,支持超过100种语言的文本嵌入和分类任务
大型语言模型 支持多种语言
M
kcccat
27
1
Velvet 2B
Apache-2.0
Velvet-2B是一个20亿参数的意大利语-英语双语大语言模型,基于Transformer架构从头训练,专注于文本生成和理解任务。
大型语言模型
Transformers 支持多种语言

V
Almawave
3,784
37
Cognitivecomputations Dolphin3.0 R1 Mistral 24B GGUF
Dolphin3.0-R1-Mistral-24B 是一个基于 Mistral 架构的 24B 参数大语言模型,由 Eric Hartford 训练,专注于推理和第一性原理分析。
大型语言模型 英语
C
bartowski
10.24k
72
Aceinstruct 72B
AceInstruct 是一系列先进的 SFT 模型,基于 Qwen 改进,适用于编码、数学和通用任务。
大型语言模型
Safetensors 支持多种语言
A
nvidia
1,584
18
Dolphin3.0 Llama3.2 3B GGUF
基于Llama3.2架构的3B参数大语言模型,支持英文文本生成任务,采用llama.cpp进行imatrix量化
大型语言模型 英语
D
bartowski
5,665
15
EVA Qwen2.5 72B V0.2
其他
基于Qwen2.5-72B微调的大语言模型,专注于文本生成和指令跟随任务
大型语言模型
Transformers

E
EVA-UNIT-01
392
19
Stockqwen 2.5 7B
基于Qwen2.5-7B基础模型,融合了代码、数学和通用指令能力的多语言大语言模型
大型语言模型
Transformers 支持多种语言

S
Locutusque
24
5
Mistral 7B Instruct Uz
Apache-2.0
针对乌兹别克语优化的Mistral-7B指令微调模型,支持乌兹别克语和英语的多种NLP任务
大型语言模型
Transformers 支持多种语言

M
behbudiy
49
13
Phi 3 Small 8k Instruct Onnx Cuda
MIT
Phi-3 Small是一个70亿参数的轻量级前沿开源模型,针对NVIDIA GPU优化的ONNX版本,支持8K上下文长度,具备强推理能力。
大型语言模型
Transformers

P
microsoft
115
12
Llama 3 KafkaLM 8B V0.1
KafkaLM 8b是基于Llama3 8b模型微调而成的德语大语言模型,专注于德语商业场景应用
大型语言模型
Transformers 支持多种语言

L
seedboxai
17
13
Bagel 8b V1.0
其他
基于Meta的Llama-3构建的8B参数模型,使用贝果数据集微调,采用单一的llama-3指令格式。
大型语言模型
Transformers

B
jondurbin
14.11k
53
Meta Llama 3 70B
Meta发布的Llama 3系列大语言模型,包含8B和70B两种规模的预训练及指令调优生成式文本模型,针对对话场景优化,在行业基准测试中表现优异。
大型语言模型
Transformers 英语

M
meta-llama
15.32k
857
Bagel 34b V0.2
Apache-2.0
基于yi-34b-200k的实验性微调模型,适用于创意写作、角色扮演等任务,尚未应用DPO阶段。
大型语言模型
Transformers

B
jondurbin
265
41
Mistral 7b Yo Instruct
一个专注于约鲁巴语文本生成的模型,基于多个数据集微调而成。
大型语言模型
Transformers 其他

M
seyabde
18
2
Flan T5 Xl Gguf
Apache-2.0
FLAN-T5是T5模型的指令微调版本,通过1000多项多语言任务微调,在相同参数量下性能更优。
大型语言模型 支持多种语言
F
deepfile
61
8
Capytessborosyi 34B 200K DARE Ties
其他
这是一个通过mergekit的DARE Ties方法合并的34B参数大语言模型,基于Yi-34B-200K架构,融合了Nous-Capybara-34B、Tess-M-v1.3和airoboros-3_1-yi-34b-200k三个模型的能力。
大型语言模型
Transformers 英语

C
brucethemoose
88
16
Agentlm 7b
AgentLM-7B是基于Llama-2-chat模型,通过混合训练AgentInstruct数据集和ShareGPT数据集得到的智能体增强型语言模型。
大型语言模型
Transformers

A
THUDM
196
51
Platypus2 70B Instruct
Platypus2-70B-instruct 是基于 LLaMA 2 架构的大型语言模型,由 garage-bAInd 和 upstageAI 的模型合并而成,专注于指令遵循和逻辑推理任务。
大型语言模型
Transformers 英语

P
garage-bAInd
1,332
175
Manticore 13b
Manticore 13B是基于Llama 13B模型在多个高质量数据集上微调的大语言模型,擅长文本生成任务。
大型语言模型
Transformers 英语

M
openaccess-ai-collective
201
116
Redpajama INCITE 7B Chat
Apache-2.0
由Together联合多个AI研究机构开发的69亿参数对话专用语言模型,基于RedPajama-Data-1T数据集训练,通过OASST1和Dolly2数据微调增强对话能力
大型语言模型
Transformers 英语

R
togethercomputer
178
93
Flan Ul2
Apache-2.0
基于T5架构的编码器-解码器模型,通过Flan提示调优优化,支持多语言任务处理
大型语言模型
Transformers 支持多种语言

F
google
3,350
554
GPT JT 6B V1
Apache-2.0
GPT-JT是基于GPT-J(6B)微调的大语言模型,采用UL2训练目标,在分类任务上表现优异
大型语言模型
Transformers 英语

G
togethercomputer
4,299
302
Flan T5 Xxl
Apache-2.0
FLAN-T5是基于T5改进的指令微调语言模型,在相同参数量下通过1000多项多语言任务微调实现更优性能
大型语言模型 支持多种语言
F
google
157.41k
1,238
Flan T5 Large
Apache-2.0
FLAN-T5是基于T5改进的指令微调语言模型,支持60+种语言,在相同参数量下通过1000+任务微调实现更强性能
大型语言模型 支持多种语言
F
google
589.25k
749
Flan T5 Small
Apache-2.0
FLAN-T5是T5模型的指令微调版本,在1000多个额外任务上进行了微调,支持多种语言,性能优于原始T5。
大型语言模型 支持多种语言
F
google
587.92k
340
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文