文本摘要
Finetuned T5 Small Abstract Summarizer
一个专注于文本摘要生成任务的模型,能够从长文本中提取关键信息生成简洁摘要
文本生成
F
JyothiYaga
15
0
T5 Small Finetuned Xsum
Apache-2.0
基于T5-small模型在XSum数据集上微调的文本摘要模型
文本生成
Transformers
T
bdwjaya
103
0
T5 Small Title Ft
Apache-2.0
T5 Small 是 Google 发布的 T5(Text-to-Text Transfer Transformer)模型的小型版本,适用于多种自然语言处理任务。
文本生成
Transformers
英语
T
swarup3204
25
0
Jina Embeddings V3 Gguf
该模型是一个摘要生成模型,能够自动生成输入文本的简洁摘要。
文本生成
J
jetuned
221
0
GPT2 Summarizer
MIT
基于GPT-2架构微调的文本摘要模型,支持PyTorch和CoreML框架,适用于生成简洁准确的文本摘要。
文本生成
Transformers
G
c2p-cmd
30
0
Summllama3.2 3B GGUF
SummLlama3.2-3B是基于Llama3架构优化的3.2B参数摘要生成模型,提供多种量化版本以适应不同硬件需求。
大型语言模型
S
tensorblock
95
1
Bart Large Cnn
MIT
这是facebook/bart-large-cnn模型的ONNX优化版本,主要用于文本摘要任务。
文本生成
Transformers
B
philipp-zettl
15
0
T5 Small Common Corpus Topic Batch
Apache-2.0
基于T5-small架构微调的文本处理模型,专注于特定任务的文本生成与转换
大型语言模型
Transformers
T
Pclanglais
21
2
T5 Small
基于T5-small架构的微调模型,主要用于文本生成任务,在ROUGE指标上表现一般
大型语言模型
Transformers
T
Hafis123
30
1
Distilbart Cnn 12 6
DistilBART-CNN-12-6是BART模型的蒸馏版本,专为文本摘要任务优化,体积更小但保持较高性能。
文本生成
Transformers
D
Xenova
218
0
Flan T5 Base Summarization
基于FLAN-T5的文本摘要模型,适用于英文文本的自动摘要生成。
文本生成
Transformers
英语
F
marianna13
148
3
Bart Large Cnn
基于BART架构的大型文本摘要模型,专为CNN/DailyMail数据集优化
文本生成
Transformers
B
Xenova
173
8
Distilbart Cnn 12 6 Finetuned Weaksup 1000
Apache-2.0
基于distilbart-cnn-12-6模型微调的文本摘要生成模型,在弱监督数据上训练1000步
文本生成
Transformers
D
cammy
79
1
Swe Gpt Wiki
这是一个基于Flax CLM流程训练的瑞典语GPT2风格模型,训练数据来自wiki40b数据集的瑞典语部分。
大型语言模型
其他
S
flax-community
24
3
Kogpt2 Base V2
KoGPT2 是由 SKT-AI 开发的韩语 GPT-2 模型,基于 Transformer 架构,适用于多种韩语文本生成任务。
大型语言模型
韩语
K
skt
105.25k
47
Distilbart Cnn 6 6
Apache-2.0
DistilBART是BART模型的蒸馏版本,专为文本摘要任务优化,在保持较高性能的同时显著提升推理速度。
文本生成
英语
D
sshleifer
48.17k
31
Pino Bigbird Roberta Base
Pino是基于BigBird架构的荷兰语预训练模型,采用稀疏注意力机制处理长序列文本,支持最长4096的序列长度。
大型语言模型
其他
P
flax-community
17
2
Pegasus Large
PEGASUS是一种基于预训练和提取间隙句子的抽象摘要生成模型,由Google Research开发。
文本生成
英语
P
google
43.35k
103
Distilbart Xsum 1 1
Apache-2.0
DistilBART是BART模型的蒸馏版本,专为文本摘要任务优化,在保持较高性能的同时显著减少模型大小和推理时间。
文本生成
英语
D
sshleifer
2,198
0
Distilroberta Base Model Transcript
Apache-2.0
基于distilroberta-base模型微调的文本处理模型,适用于通用NLP任务
大型语言模型
Transformers
D
mahaamami
14
0
Bart Tl Ng
Apache-2.0
基于BART的弱监督主题标签生成模型,通过生成而非选择方式解决主题标注任务
文本生成
Transformers
英语
B
cristian-popa
189
4
Keybart
Apache-2.0
KeyBART是基于BART架构预训练的文本生成模型,专门用于生成符合CatSeqD格式的串联关键短语序列。
大型语言模型
Transformers
K
bloomberg
737
40
T5 Small Finetuned Xsum
Apache-2.0
基于T5-small模型在未知数据集上微调的文本摘要模型,擅长生成简洁摘要
大型语言模型
Transformers
T
Rocketknight1
38
0