对话摘要
Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
基于google/flan-t5-base模型在对话摘要任务上的微调版本,使用PEFT方法进行参数高效微调
文本生成
TensorBoard
英语
F
agoor97
20
0
Pegasus Finetuned Samsum
该模型是基于google/pegasus-cnn_dailymail在samsum数据集上微调的文本摘要模型,专门用于对话摘要任务。
文本生成
Transformers
英语
P
avanishd
20
0
Summarisation Model
这是一个基于SAMSum数据集微调的T5文本摘要模型,适用于对话和会话的摘要任务。
文本生成
Transformers
S
Saravanankumaran
16
0
T5 Small Finetuned Samsum
基于T5 Small架构微调的对话摘要模型,专门针对Samsung/samsum数据集优化,能够生成简洁准确的对话摘要。
文本生成
TensorBoard
T
user10383
11
0
Conversation Summarizer V2
MIT
基于微调的 Llama 3.2 (3B) 的对话摘要模型,专门用于生成对话的简洁摘要。
文本生成
英语
C
dkp2701
17
1
Summllama3.1 8B
SummLlama3.1-8B是基于Llama3.1-8B-Instruct初始化的文本摘要模型,通过大规模摘要反馈的直接偏好优化(DPO)训练,在忠实性、完整性和简洁性方面表现优异。
文本生成
Transformers
S
DISLab
116
10
Summllama3 70B
SummLlama3-70B是基于Llama3-70B-Instruct初始化的文本摘要模型,通过大规模摘要反馈的DPO训练优化,在忠实性、完整性和简洁性方面表现优异。
大型语言模型
S
DISLab
15
7
Chat Summarization
Apache-2.0
这是一个基于T5-base架构,使用LoRA技术微调的对话摘要模型,专为高效生成对话摘要而设计。
文本生成
英语
C
dnzblgn
15
0
Samsuntextsum
MIT
该模型是基于 Pegasus 架构,在 SAMSUM 数据集上微调得到的英语对话摘要模型。
文本生成
Transformers
英语
S
neuronstarml
20
0
Flan T5 Base Samsum
Apache-2.0
该模型是基于google/flan-t5-base在samsum对话摘要数据集上微调的版本,专门用于生成对话摘要任务。
文本生成
Transformers
F
sharmax-vikas
26
0
Bart Large Cnn Samsum
MIT
基于BART-large-cnn微调的英语对话摘要模型,专门针对Samsung/samsum数据集优化
文本生成
Transformers
英语
B
jngan
20
0
Pegasus Samsum
该模型是在samsum数据集上对google/pegasus-cnn_dailymail进行微调的版本,主要用于文本摘要任务。
文本生成
Transformers
P
Feluda
98
3
Bart Finetuned Samsum
基于BART-large-xsum微调的对话摘要模型,专门针对SamSum对话数据集优化
文本生成
Transformers
英语
B
luisotorres
177
3
Bart Large Cnn Samsum
Apache-2.0
基于BART-large架构微调的对话摘要生成模型,在SAMSum数据集上训练
文本生成
Transformers
B
AdamCodd
18
2
Long T5 Base Sumstew
基于Long-T5架构的摘要生成模型,支持多语言文本摘要任务。
文本生成
Transformers
支持多种语言
L
Joemgu
27
1
Flan T5 Base Samsum
Apache-2.0
基于Google的flan-t5-base模型在samsum对话摘要数据集上微调的文本生成模型,擅长对话摘要任务
大型语言模型
Transformers
英语
F
achimoraites
15
3
Bart Large Xsum Finetuned Samsum V2
MIT
该模型是基于facebook/bart-large-xsum在samsum数据集上微调的文本摘要生成模型,擅长生成对话摘要。
文本生成
Transformers
B
amagzari
48
1
Flan T5 Large Stacked Samsum 1024
Apache-2.0
基于google/flan-t5-large在stacked-samsum-1024数据集上微调的摘要生成模型,采用堆叠摘要方法改进信息提炼能力
文本生成
Transformers
英语
F
stacked-summaries
16
10
T5 Dialogue Summarization
Apache-2.0
基于t5-small微调的对话摘要生成模型,在samsum数据集上训练
文本生成
Transformers
T
chanifrusydi
22
2
Bart Summarisation
Apache-2.0
基于BART-large架构的对话摘要模型,专门针对SAMSum对话数据集进行微调,能够生成高质量的对话摘要。
文本生成
Transformers
英语
B
slauw87
4,225
59
Bart Large Samsum
Apache-2.0
基于BART-large架构微调的对话摘要生成模型,在SAMSum数据集上训练,专为对话文本摘要优化
文本生成
Transformers
英语
B
linydub
670
16
Bart Base Samsum
Apache-2.0
该模型是基于BART架构,在SAMSum对话数据集上微调的抽象文本摘要模型,专门用于生成对话摘要。
文本生成
Transformers
英语
B
lidiya
77
4
Distilbart Cnn 12 6 Samsum
Apache-2.0
基于SAMSum数据集微调的轻量级对话摘要模型,使用亚马逊SageMaker和Hugging Face容器训练
文本生成
Transformers
英语
D
philschmid
284
20
Bart Base Samsum
Apache-2.0
基于BART-base架构的对话摘要模型,使用Amazon SageMaker和Hugging Face深度学习容器训练,适用于SAMSum数据集。
文本生成
Transformers
英语
B
philschmid
23
3
Dialogled Large 5120
DialogLM是基于长文本编码器-解码器(LED)架构的预训练模型,专为长对话理解与摘要任务设计。
大型语言模型
Transformers
其他
D
MingZhong
441
7
Dialogled Base 16384
DialogLM是基于Longformer-Encoder-Decoder(LED)架构的预训练模型,专为长对话理解与摘要任务设计。
大型语言模型
Transformers
其他
D
MingZhong
566
6