文本生成优化
Arshstory
MIT
基于Llama架构的5亿参数文本生成模型,专为创作故事而设计。
文本生成
Transformers
A
arshiaafshani
131
1
Sarvamai Sarvam M GGUF
Apache-2.0
这是Sarvam-m模型的量化版本,支持多种印度语言和英语的文本生成任务。
大型语言模型
支持多种语言
S
bartowski
845
1
Seed Coder 8B Instruct GGUF
MIT
该模型经过自行量化处理,输出和嵌入张量量化为f16格式,其余张量量化为q5_k或q6_k格式,体积更小且性能与纯f16相当。
大型语言模型
英语
S
ZeroWw
434
1
Magtie V1 12B
Apache-2.0
MagTie-v1-12B是一个基于DARE TIES算法合并的12B参数语言模型,融合了多个预训练模型的优势
大型语言模型
Transformers
M
grimjim
32
2
Mistral Small 24B Instruct 2501 GGUF
Apache-2.0
Mistral-Small-24B-Instruct-2501 是一个24B参数规模的指令微调大语言模型,支持多语言文本生成任务。
大型语言模型
支持多种语言
M
bartowski
48.61k
111
Acip Llama2 13b
ACIP项目提供的Llama-2-13b可压缩版本,支持动态调整压缩率
大型语言模型
Transformers
英语
A
MerantixMomentum
27
1
Salesforce.llama Xlam 2 70b Fc R GGUF
Llama-xLAM-2-70b-fc-r 是由 Salesforce 发布的大型语言模型,基于 Llama 2 架构,具有 700 亿参数。
大型语言模型
S
DevQuasar
238
1
Academic Ds 9B
Apache-2.0
基于DeepSeek-V3架构的90亿参数大语言模型,使用完全开源且仅含英文的3500亿+token数据集从头训练而成,专为开源社区开发和调试设计。
大型语言模型
Transformers
英语
A
ByteDance-Seed
39
3
MT3 Gen10 Gemma 2 9B
这是一个基于Gemma-2-9B系列模型的融合模型,采用DARE TIES方法融合了多个Gemma变体,旨在提升文本生成能力。
大型语言模型
Transformers
M
zelk12
30
3
MT Gen10 Gemma 2 9B
这是一个基于Gemma-2-9B系列模型通过DARE TIES方法合并的多模型融合版本,整合了多个Gemma变体的优势。
大型语言模型
Transformers
M
zelk12
26
2
Mtmme Merge Gemma 2 9B
基于Gemma-2B和Gemma-9B模型通过SLERP方法合并的文本生成模型
大型语言模型
Transformers
M
zelk12
19
2
Fibonacci 2 14B
MIT
基于Phi 4架构的大型语言模型,拥有140亿参数,针对自然语言处理和文本对话任务进行了优化。
大型语言模型
支持多种语言
F
fibonacciai
97
13
Irix 12B Model Stock
这是一个使用mergekit工具通过模型库存方法合并多个12B参数规模语言模型的结果
大型语言模型
Transformers
I
DreadPoor
373
9
Qwen2.5 7B Olm V1.5
Apache-2.0
基于Qwen2.5-7B的优化层合并(OLM)模型,通过自动化层重组技术提升性能
大型语言模型
Transformers
英语
Q
jeffmeloy
123
3
L3.3 Cu Mai R1 70b
基于Llama3架构的70B参数大语言模型,经过特殊优化处理
大型语言模型
Safetensors
L
Steelskull
164
14
Diffullama
Apache-2.0
基于Llama-2-7b微调的扩散语言模型
大型语言模型
Transformers
D
diffusionfamily
10.88k
8
L3 8B Lunar Stheno
L3-8B-Lunar-Stheno 是基于 L3-8B-Lunaris-v1 和 L3-8B-Stheno-v3.2 合并的模型,修复了响应过长和行动力不足的问题,提升了情境感知和文本生成能力。
大型语言模型
Transformers
L
HiroseKoichi
44
35
Wizardlm 2 7B Abliterated GGUF
Apache-2.0
WizardLM-2-7B-abliterated的Llamacpp imatrix量化版本,提供多种量化选项,适用于不同硬件配置。
大型语言模型
W
bartowski
2,561
13
Lola V1
LOLA是基于稀疏混合专家(Mixture-of-Experts)Transformer架构、支持160多种语言的超大规模多语言大模型,在自然语言生成与理解任务中具有竞争优势。
大型语言模型
Transformers
其他
L
dice-research
867
10
Prodigy 7B GGUF Imatrix
Prodigy_7B的GGUF-Imatrix量化版本,采用重要性矩阵技术提升量化质量
大型语言模型
P
Lewdiculous
58
7
Fusellm 7B
Apache-2.0
FuseLLM-7B是一个融合了多个开源大型语言模型知识的统一模型,通过知识融合技术将不同架构的LLM能力整合到一个模型中。
大型语言模型
Transformers
支持多种语言
F
Wanfq
45
22
Laser Dolphin Mixtral 2x7b Dpo
Apache-2.0
基于Dolphin-2.6-Mistral-7B-DPO-Laser的中等规模混合专家(MoE)实现,在评估性能上平均提升约1分
大型语言模型
Transformers
L
macadeliccc
133
57
Caplattessdolxaboros Yi 34B 200K DARE Ties HighDensity
其他
这是一个基于Yi-34B-200K基础模型,通过DARE Ties方法合并多个同源模型的高密度合并模型,具有200K长上下文处理能力。
大型语言模型
Transformers
英语
C
brucethemoose
94
12
GPT Prompt Expansion Fooocus V2
基于GPT2的提示词扩展模型,用于增强文本生成提示的质量和多样性
大型语言模型
Transformers
G
LykosAI
225
10
Tiny Vicuna 1B GGUF
Tiny-Vicuna-1B是基于TinyLLama 1.1B使用WizardVicuna数据集微调的轻量级模型,专为早期实验迭代设计。
大型语言模型
T
afrideva
208.74k
6
Spelling Correction Multilingual Base
MIT
一个实验性模型,用于修正英语和德语的拼写错误及标点符号
文本生成
Transformers
支持多种语言
S
oliverguhr
655
11
Flan T5 Xxl Sharded Fp16
Apache-2.0
FLAN-T5 XXL 是Google发布的T5模型变体,在超过1000个额外任务上进行了微调,支持多种语言,性能优于原始T5模型。
大型语言模型
Transformers
F
philschmid
531
54
Reward Model Deberta V3 Large
MIT
该奖励模型经过训练,能够预测在给定问题下人类评判者会认为哪个生成的答案更好。
大型语言模型
Transformers
英语
R
OpenAssistant
796
23
Distilroberta Base Finetuned Wikitext2
Apache-2.0
该模型是基于distilroberta-base在wikitext2数据集上微调的版本,主要用于文本生成任务。
大型语言模型
Transformers
D
lamyae
79
0
Tinybert L 4 H 312 V2 Finetuned Wikitext103
该模型是在wikitext数据集上对TinyBERT_L-4_H-312_v2进行微调的版本,主要用于文本相关任务。
大型语言模型
Transformers
T
saghar
20
0
Tinybert General 6L 768D Finetuned Wikitext103
该模型是在wikitext数据集上对TinyBERT_General_6L_768D进行微调的版本,主要用于文本相关任务。
大型语言模型
Transformers
T
saghar
16
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
该模型是基于distilroberta-base在wikitext2数据集上微调的版本,主要用于文本生成任务。
大型语言模型
Transformers
D
Rawat29
47
0
Simctg Wikitext103
基于SimCTG框架训练的GPT-2语言模型,采用对比搜索方法生成更连贯的文本
大型语言模型
Transformers
S
cambridgeltl
19
1
T5 Small Paraphrase Pubmed
Apache-2.0
该模型是基于t5-small在未知数据集上微调的版本,主要用于文本改写任务,特别针对PubMed相关文本。
大型语言模型
Transformers
T
gayanin
20
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
该模型是基于distilroberta-base在wikitext2数据集上微调的版本,主要用于文本生成任务。
大型语言模型
Transformers
D
lucius
37
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
该模型是基于distilroberta-base在wikitext2数据集上微调的版本,主要用于文本生成任务。
大型语言模型
Transformers
D
Roy029
26
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
基于distilroberta-base模型在wikitext2数据集上微调的版本,适用于文本相关任务
大型语言模型
Transformers
D
Rocketknight1
17
0
Gpt2 Medium Dutch Embeddings
基于GPT-2中等规模版本的荷兰语模型,仅重新训练词汇嵌入层以适应荷兰语。
大型语言模型
其他
G
GroNLP
27
3