轻量级微调
Thinkedit Deepseek Qwen 14b
其他
ThinkEdit是一种轻量级权重编辑方法,通过识别并编辑少量注意力头,缓解大语言模型在推理任务中生成过度简短思维链的问题,提升推理准确性。
大型语言模型
Transformers
T
cesun
46
2
Hermes 3 Llama 3.2 3B Abliterated
Hermes 3 3B 是 Nous Research 的 Hermes 系列 LLM 中一个虽小但强大的新成员,专注于将 LLM 与用户对齐,赋予最终用户强大的引导和控制能力。
大型语言模型
Transformers
英语
H
lunahr
33
5
Qwen2.5 0.5b Test Ft
Apache-2.0
Qwen 2.5 0.5B 是一款紧凑而强大的语言模型,基于Qwen/Qwen2.5-0.5B-Instruct微调,支持多种语言,性能接近Llama 3.2 1B模型。
大型语言模型
Transformers
支持多种语言
Q
KingNish
1,004
11
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
基于google/mt5-small在gazeta数据集上微调的俄语摘要生成模型
文本生成
TensorBoard
M
sansmislom
33
0
Mamba 1.4b Hf
Mamba是基于状态空间模型(SSM)架构的高效语言模型,具有1.4B参数规模,支持文本生成任务
大型语言模型
Transformers
M
state-spaces
5,431
11
Mamba 2.8b Hf
基于Mamba架构的28亿参数语言模型,兼容HuggingFace Transformers库
大型语言模型
Transformers
M
state-spaces
8,731
103
Tinyllama Tarot V1
Apache-2.0
基于TinyLlama-1.1B微调的塔罗牌解读模型,能够根据塔罗牌进行预测和解读。
大型语言模型
TensorBoard
T
barissglc
13.64k
6
Med BLIP 2 QLoRA
BLIP2是基于OPT-2.7B的视觉语言模型,专注于视觉问答任务,能够理解图像内容并回答相关问题。
文本生成图像
M
NouRed
16
1
Tiny Vicuna 1B GGUF
Tiny-Vicuna-1B是基于TinyLLama 1.1B使用WizardVicuna数据集微调的轻量级模型,专为早期实验迭代设计。
大型语言模型
T
afrideva
208.74k
6
Tiny Vicuna 1B
Apache-2.0
Tiny Vicuna 1B是基于TinyLlama在WizardVicuna数据集上微调的版本,与Vicuna-v1.5系列兼容,适合早期实验迭代。
大型语言模型
Transformers
英语
T
Jiayi-Pan
1,247
15
Mistral 7b Guanaco
Apache-2.0
基于Llama2架构的预训练语言模型,适用于英语文本生成任务
大型语言模型
Transformers
英语
M
kingabzpro
67
3
Blip Test
Bsd-3-clause
基于Salesforce/blip-image-captioning-base微调的图像描述生成模型
图像生成文本
Transformers
B
mooncakex
15
0
T5 Spanish Efficient Tiny
Apache-2.0
这是一个专为西班牙语优化的高效微型T5模型,体积小(<29MB),适合CPU使用,需要微调后使用
大型语言模型
Transformers
西班牙语
T
jalbarracin
269
4
Codet5 Small Generate Docstrings For Python Condensed
Apache-2.0
基于Salesforce/codet5-small微调的模型,用于为Python函数生成文档字符串
文本生成
Transformers
英语
C
DunnBC22
20
4
Tiny Random T5ForConditionalGeneration Calibrated
一个经过优化校准的微型T5模型,适用于文本生成和转换任务,具有轻量化和高效的特点。
大型语言模型
Transformers
T
ybelkada
581.45k
1
Sentence Similarity Semantic Search
Apache-2.0
该模型是基于新闻数据集微调的句子转换器,专门用于语义搜索和句子相似度计算。
文本嵌入
英语
S
Sakil
801
25
Simpledataset
Apache-2.0
基于distilroberta-base微调的模型,具体用途和训练数据未明确说明
大型语言模型
Transformers
S
DioLiu
174
0
Distilbert Base Turkish Cased Clip
基于dbmdz/distilbert-base-turkish-cased微调的土耳其语文本编码器,用于与CLIP的ViT-B/32图像编码器配合使用
文本生成图像
Transformers
D
mys
2,354
1
Electra Small Discriminator Finetuned Ner
Apache-2.0
基于ELECTRA-small架构的命名实体识别模型,在wikiann数据集上微调
序列标注
Transformers
E
dbsamu
16
1