Thinkedit Deepseek Qwen 14b
其他
ThinkEdit是一种轻量级权重编辑方法,通过识别并编辑少量注意力头,缓解大语言模型在推理任务中生成过度简短思维链的问题,提升推理准确性。
大型语言模型
Transformers

T
cesun
46
2
Hermes 3 Llama 3.2 3B Abliterated
Hermes 3 3B 是 Nous Research 的 Hermes 系列 LLM 中一个虽小但强大的新成员,专注于将 LLM 与用户对齐,赋予最终用户强大的引导和控制能力。
大型语言模型
Transformers

英语
H
lunahr
33
5
Qwen2.5 0.5b Test Ft
Apache-2.0
Qwen 2.5 0.5B 是一款紧凑而强大的语言模型,基于Qwen/Qwen2.5-0.5B-Instruct微调,支持多种语言,性能接近Llama 3.2 1B模型。
大型语言模型
Transformers

支持多种语言
Q
KingNish
1,004
11
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
基于google/mt5-small在gazeta数据集上微调的俄语摘要生成模型
文本生成
TensorBoard

M
sansmislom
33
0
Mamba 1.4b Hf
Mamba是基于状态空间模型(SSM)架构的高效语言模型,具有1.4B参数规模,支持文本生成任务
大型语言模型
Transformers

M
state-spaces
5,431
11
Mamba 2.8b Hf
基于Mamba架构的28亿参数语言模型,兼容HuggingFace Transformers库
大型语言模型
Transformers

M
state-spaces
8,731
103
Tinyllama Tarot V1
Apache-2.0
基于TinyLlama-1.1B微调的塔罗牌解读模型,能够根据塔罗牌进行预测和解读。
大型语言模型
TensorBoard

T
barissglc
13.64k
6
Med BLIP 2 QLoRA
BLIP2是基于OPT-2.7B的视觉语言模型,专注于视觉问答任务,能够理解图像内容并回答相关问题。
文本生成图像
M
NouRed
16
1
Tiny Vicuna 1B GGUF
Tiny-Vicuna-1B是基于TinyLLama 1.1B使用WizardVicuna数据集微调的轻量级模型,专为早期实验迭代设计。
大型语言模型
T
afrideva
208.74k
6
Tiny Vicuna 1B
Apache-2.0
Tiny Vicuna 1B是基于TinyLlama在WizardVicuna数据集上微调的版本,与Vicuna-v1.5系列兼容,适合早期实验迭代。
大型语言模型
Transformers

英语
T
Jiayi-Pan
1,247
15
Mistral 7b Guanaco
Apache-2.0
基于Llama2架构的预训练语言模型,适用于英语文本生成任务
大型语言模型
Transformers

英语
M
kingabzpro
67
3
Blip Test
Bsd-3-clause
基于Salesforce/blip-image-captioning-base微调的图像描述生成模型
图像生成文本
Transformers

B
mooncakex
15
0
T5 Spanish Efficient Tiny
Apache-2.0
这是一个专为西班牙语优化的高效微型T5模型,体积小(<29MB),适合CPU使用,需要微调后使用
大型语言模型
Transformers

西班牙语
T
jalbarracin
269
4
Codet5 Small Generate Docstrings For Python Condensed
Apache-2.0
基于Salesforce/codet5-small微调的模型,用于为Python函数生成文档字符串
文本生成
Transformers

英语
C
DunnBC22
20
4
Tiny Random T5ForConditionalGeneration Calibrated
一个经过优化校准的微型T5模型,适用于文本生成和转换任务,具有轻量化和高效的特点。
大型语言模型
Transformers

T
ybelkada
581.45k
1
Sentence Similarity Semantic Search
Apache-2.0
该模型是基于新闻数据集微调的句子转换器,专门用于语义搜索和句子相似度计算。
文本嵌入
英语
S
Sakil
801
25
Simpledataset
Apache-2.0
基于distilroberta-base微调的模型,具体用途和训练数据未明确说明
大型语言模型
Transformers

S
DioLiu
174
0
Distilbert Base Turkish Cased Clip
基于dbmdz/distilbert-base-turkish-cased微调的土耳其语文本编码器,用于与CLIP的ViT-B/32图像编码器配合使用
文本生成图像
Transformers

D
mys
2,354
1
Electra Small Discriminator Finetuned Ner
Apache-2.0
基于ELECTRA-small架构的命名实体识别模型,在wikiann数据集上微调
序列标注
Transformers

E
dbsamu
16
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文