Meetingscript
Apache-2.0
基于BigBird-Pegasus架构优化的会议转录文本摘要生成模型,支持处理长达4096标记的会议记录并生成简洁摘要
文本生成
Transformers

英语
M
Shaelois
21
1
Mistral 7B Summarizer SFT GGUF
MIT
基于Mistral 7B架构的文本摘要模型,采用LoRA技术优化微调效率和性能。
文本生成
英语
M
SURESHBEEKHANI
65
0
Flan T5 Xl Summary Map Reduce 1024
Apache-2.0
基于FLAN-T5-XL微调的文本摘要模型,专门用于映射归约摘要任务中的归约步骤
文本生成
英语
F
pszemraj
139
0
Pegasus X Base Synthsumm Open 16k
Apache-2.0
基于pegasus-x-base微调的文本摘要模型,使用合成数据训练,擅长处理长文档摘要任务。
文本生成
Transformers

英语
P
BEE-spoke-data
115
2
Legal Summarizer
Apache-2.0
基于t5-base微调的法律文档摘要生成模型,能将复杂的法律术语转化为通俗易懂的表述
文本生成
Safetensors
英语
L
VincentMuriuki
124
0
Qwen2 1.5B Summarize
Apache-2.0
基于Qwen2-1.5B-Instruct模型进行2轮微调的摘要生成专用模型
文本生成
Transformers

英语
Q
thepowerfuldeez
228
1
Bart Finetuned Conversational Summarization
MIT
基于BART架构微调的文本摘要模型,专门用于生成对话和新闻文章的简洁摘要。
文本生成
Transformers

英语
B
Mr-Vicky-01
41
7
Bart Finetuned Text Summarization
MIT
基于BART架构微调的文本摘要模型,专为生成简洁准确的摘要而设计
文本生成
Transformers

英语
B
suriya7
1,547
9
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
基于Long-T5架构的文本摘要模型,使用合成数据集synthsumm微调,专注于长文本摘要任务。
文本生成
Transformers

英语
L
pszemraj
15
1
Llama 2 7B 32K
基于Meta原版Llama-2 7B模型微调的开源长上下文语言模型,支持32K上下文长度
大型语言模型
Transformers

英语
L
togethercomputer
5,411
538
Long T5 Base Sumstew
基于Long-T5架构的摘要生成模型,支持多语言文本摘要任务。
文本生成
Transformers

支持多种语言
L
Joemgu
27
1
Pegasus X Sumstew
Apache-2.0
基于Pegasus-x-large微调的英语长文本摘要模型,支持学术文稿、会议记录等复杂文本的抽象摘要生成
文本生成
Transformers

英语
P
Joemgu
31
1
Autotrain Summarization Bart Longformer 54164127153
基于AutoTrain平台训练的文本摘要生成模型,采用BART-Longformer架构
文本生成
Transformers

其他
A
Udit191
16
0
Long T5 Tglobal Xl 16384 Book Summary
Bsd-3-clause
基于BookSum数据集微调的LongT5-XL模型,专为长文本摘要设计,能生成类似SparkNotes的摘要。
文本生成
Transformers

L
pszemraj
58
19
Led Base 16384 Billsum Summarization
该模型是在billsum数据集上对led-base-16384进行微调的版本,专门用于长文档摘要生成任务。
文本生成
Transformers

支持多种语言
L
AlgorithmicResearchGroup
15
1
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
基于Long-T5架构的大规模摘要生成模型,专门针对书籍和长文档摘要任务进行优化
文本生成
Transformers

L
pszemraj
17
0
Long T5 Tglobal Base 16384 Booksum V12
Bsd-3-clause
基于T5架构优化的长文本摘要生成模型,支持处理长达16384个token的输入,在书籍摘要任务上表现优异。
文本生成
Transformers

L
pszemraj
109
4
Longt5 Base Global Mediasum
基于google/long-t5-tglobal-base微调的文本摘要模型,在XSum和CNN/DailyMail数据集上表现良好。
文本生成
Transformers

L
nbroad
19
0
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
Apache-2.0
基于Long-T5架构的大规模摘要生成模型,专门针对长文档摘要任务优化,支持16384个token的上下文长度。
文本生成
Transformers

L
pszemraj
65
1
Lsg Bart Base 16384 Mediasum
基于LSG技术的BART模型,专为处理长序列摘要生成任务优化,支持16384长度的输入序列
文本生成
Transformers

英语
L
ccdv
22
2
Longt5 Tglobal Large 16384 Pubmed 3k Steps
Apache-2.0
LongT5是基于T5扩展的长序列文本到文本Transformer模型,采用transient-global注意力机制,适用于处理长文本任务。
文本生成
英语
L
Stancld
1,264
22
Lsg Bart Base 4096 Mediasum
基于LSG技术的BART-base模型,针对长文本摘要任务在MediaSum数据集上微调,支持4096长度的序列处理
文本生成
Transformers

英语
L
ccdv
44
0
Lsg Bart Base 4096 Multinews
基于LSG技术的BART-base模型,专为长文本摘要任务设计,支持4096长度的输入序列
文本生成
Transformers

英语
L
ccdv
26
4
Lsg Bart Base 16384 Pubmed
基于BART架构的长序列文本摘要模型,专门针对PubMed科学论文数据集微调,支持处理长达16384个标记的输入序列
文本生成
Transformers

英语
L
ccdv
22
6
Lsg Bart Base 4096 Pubmed
基于LSG注意力机制的长序列处理模型,专为科学论文摘要生成任务微调
文本生成
Transformers

英语
L
ccdv
21
3
Lsg Bart Base 16384 Arxiv
基于BART架构的长序列处理模型,专为科学论文摘要生成任务优化,支持16384长度的长文本输入
文本生成
Transformers

英语
L
ccdv
29
5
Pegasus Large Summary Explain
Apache-2.0
基于PEGASUS架构的大型摘要生成模型,在booksum数据集上微调,擅长生成易于理解的SparkNotes风格摘要
文本生成
Transformers

英语
P
pszemraj
19
4
Bigbird Pegasus Large K Booksum
Apache-2.0
基于booksum数据集训练的BigBird Pegasus模型,专注于生成解释性摘要,旨在提供易于阅读和理解的摘要内容。
文本生成
Transformers

英语
B
pszemraj
71
6
Bigbird Pegasus Large Bigpatent
Apache-2.0
BigBird是一种基于稀疏注意力的Transformer模型,能够处理长达4096的序列,适用于长文档摘要等任务。
文本生成
Transformers

英语
B
google
945
40
Bigbird Pegasus Large Pubmed
Apache-2.0
BigBirdPegasus 是一种基于稀疏注意力的 Transformer 模型,能够处理更长的序列,特别适用于长文档摘要任务。
文本生成
Transformers

英语
B
google
2,031
47
Bigbird Pegasus Large Arxiv
Apache-2.0
BigBird是一种基于稀疏注意力的Transformer模型,能够处理更长的序列,适用于长文档摘要等任务。
文本生成
Transformers

英语
B
google
8,528
61
Pegasus Summarization
Pegasus是一个基于Transformer的序列到序列模型,专门用于文本摘要任务。
文本生成
Transformers

P
AlekseyKulnevich
34
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文