小规模高效
Tinyllava Video R1
Apache-2.0
TinyLLaVA-Video-R1是基于可溯源训练模型TinyLLaVA-Video的小规模视频推理模型,通过强化学习显著提升了推理与思维能力,并展现出'顿悟时刻'的涌现特性。
视频生成文本
Transformers
T
Zhang199
123
2
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small在亚马逊英西数据集上微调的摘要生成模型,支持英语到西班牙语的文本摘要任务。
机器翻译
Transformers
M
QHWU1228
17
0
Fikri 3.1 8B Instruct
Fikri是一个专为土耳其语任务定制的语言模型,基于Llama 3.1架构,具有80亿参数。
大型语言模型
Safetensors
F
BrewInteractive
3,226
6
Mt5 Vi News Summarization
Apache-2.0
基于google/mt5-small在越南新闻摘要数据集上微调的文本摘要模型,支持越南语新闻自动摘要生成
文本生成
Transformers
其他
M
ntkhoi
354
0
Flan T5 Portuguese Small Summarization
Apache-2.0
基于google/flan-t5-small微调的葡萄牙语摘要生成模型,适用于葡萄牙语文本摘要任务,模型规模较小但表现良好。
文本生成
Transformers
其他
F
rhaymison
45
0
Polka 1.1b
Apache-2.0
polka-1.1b是基于TinyLlama-1.1B模型,通过继续在57亿波兰语token上进行预训练而增强的双语(波兰语和英语)文本生成模型。
大型语言模型
Transformers
支持多种语言
P
eryk-mazus
174
8
Pivot 0.1 Early
PiVoT是基于Mistral 7B微调的模型,从Synatra v0.3 RP衍生出的变体,展现出不错的性能表现。
大型语言模型
Transformers
支持多种语言
P
maywell
1,851
8
Nli Deberta V3 Small
基于DeBERTa-v3的小型自然语言推理模型,适用于零样本分类任务
文本分类
Transformers
N
Xenova
423
0
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBR是一个面向巴西葡萄牙语的基础大语言模型,属于BERT家族的编码器,基于Transformer神经网络架构,并在DeBERTa模型基础上开发。
大型语言模型
Transformers
其他
A
PORTULAN
131
7
Electricidad Small Finetuned Restaurant Sentiment Analysis
基于Electricidad-small微调的餐厅评论情感分析模型,用于判断评论情感倾向
文本分类
Transformers
西班牙语
E
mrm8488
27
5
Gpt Neo 125M Apps
MIT
基于GPT-Neo-125M在APPS数据集上微调的编程任务解决模型
大型语言模型
支持多种语言
G
flax-community
81
0
Roberta Urdu Small
MIT
roberta-urdu-small 是一个针对乌尔都语的小型语言模型,基于RoBERTa架构,专门用于处理乌尔都语文本任务。
大型语言模型
其他
R
urduhack
1,131
8
Sentencetransformer Roberta Hinglish Small
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers
S
aditeyabaral
17
0
Bert Small Japanese Fin
这是一个基于日语文本预训练的BERT模型,特别针对金融领域进行了优化。
大型语言模型
Transformers
日语
B
izumi-lab
4,446
2