LoRA高效训练
Thinkygemma 4b
基于Google Gemma-3-4b-pt微调的伪推理专家模型,专为结构化推理/伪诱导推理设计
大型语言模型
Transformers
T
xsanskarx
19
1
T3Q Qwen2.5 14b V1.0 E3
Apache-2.0
基于Qwen/Qwen2.5-14B-Instruct-1M模型进行后训练的版本,采用LoRA-8-4-0.0001-cosine-32-16配置,训练数据为train_data_v1.0。
大型语言模型
Transformers
支持多种语言
T
JungZoona
1,557
25
Wiroai Finance Qwen 1.5B
Apache-2.0
基于Qwen架构的金融领域专用语言模型,通过50万+金融指令微调
大型语言模型
Transformers
W
WiroAI
886
16
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基于Meta-Llama-3.1-8B-Instruct剪枝至1.4B参数规模,并采用LLM-Neo方法(结合LoRA与知识蒸馏)微调的高效语言模型。
大型语言模型
Transformers
L
yang31210999
39
2
Llama 3 Gutenberg 8B
其他
基于Llama-3-8b的微调模型,使用Gutenberg DPO数据集进行优化,适用于文本生成任务。
大型语言模型
Transformers
L
nbeerbower
18
9
Qra 1b Dolly Instruction 0.1
这是一个基于Qra-1b模型在波兰语指令数据集上微调的问答模型,主要用于回答用户提出的问题。
大型语言模型
Transformers
其他
Q
nie3e
16
2
Indic Gemma 2b Finetuned Sft Navarasa 2.0
其他
基于Gemma-2b微调的多语言指令模型,支持15种印度语言及英语
大型语言模型
Transformers
支持多种语言
I
Telugu-LLM-Labs
166
24
Indic Gemma 7b Finetuned Sft Navarasa 2.0
其他
基于Gemma-7b模型,在15种印度语言和英语的指令数据集上进行LoRA微调的多语言文本生成模型
大型语言模型
Transformers
支持多种语言
I
Telugu-LLM-Labs
400
19
Gemma2b Turkish Instruction
基于Gemma-2b模型针对土耳其语指令-响应对进行微调的文本生成模型,支持约75k训练数据规模
大型语言模型
Transformers
其他
G
erythropygia
136
2
Zhilu 13B Instruct
Apache-2.0
ZhiLu是基于中文Alpaca2-13B二次开发的金融大语言模型,通过海量中英文语料增量预训练与高质量指令数据对齐实现能力跃升,重点强化金融领域专业表现。
大型语言模型
Transformers
Z
SYSU-MUCFC-FinTech-Research-Center
26
3
Camel Platypus2 70B
Camel-Platypus2-70B 是由 Platypus2-70B 和 qCammel-70-x 合并而成的大型语言模型,基于 LLaMA 2 架构,专注于 STEM 和逻辑推理任务。
大型语言模型
Transformers
英语
C
garage-bAInd
114
15