Arxiver Insightsumm T5 Finetuned Model GGUF
Apache-2.0
基于T5架构的静态量化模型,专注于学术论文摘要生成任务
文本生成
英语
A
mradermacher
131
0
Arsh Llm
MIT
Arsh LLM是为科研设计的开源大语言模型,基于olmo混合数据集在T4 GPU上完成预训练,总耗时约4-5天。
大型语言模型
A
arshiaafshani
162
3
Bio Medical Llama 3 2 1B CoT 012025
其他
基于Llama-3.2-1B-Instruct微调的生物医学专用模型,包含62.5万样本训练数据,特别加入2.5万条思维链(CoT)指导样本增强推理能力
大型语言模型
Transformers

B
ContactDoctor
3,941
29
Extractive Summarization
MIT
该模型是基于t5-small微调的版本,专为使用PubMed数据集总结科学和医学文本而优化。
文本生成
英语
E
nyamuda
94
0
TF ID Large
MIT
TF-ID是专门用于提取学术论文中表格和图表的视觉目标检测模型,基于Florence-2微调而成
目标检测
Transformers

T
yifeihu
9,893
21
Pubmed Summarization
Apache-2.0
基于T5-small微调的PubMed文献摘要生成模型,用于自动生成医学文献的简洁摘要。
文本生成
Transformers

P
mreisman
17
1
Led Pubmed Sumpubmed 1
这是一个基于LED架构的生物医学论文摘要生成模型,专门针对PubMed文献进行优化。
文本生成
Transformers

支持多种语言
L
Blaise-g
13
0
Biomednlp PubMedBERT Base Uncased Abstract Fulltext Pub Section
Apache-2.0
基于PubMedBERT微调的生物医学文献章节分类模型,用于识别文本所属的文献章节类型
文本分类
Transformers

英语
B
ml4pubmed
748
5
Scifive Base Pubmed PMC
SciFive是一个专门针对生物医学文献的文本到文本转换模型,基于PubMed和PMC开放获取期刊全文库训练。
大型语言模型
英语
S
razent
754
6
Scifive Base PMC
SciFive是一个专门针对生物医学文献的文本到文本转换模型,基于PMC开放获取数据集训练。
大型语言模型
Transformers

英语
S
razent
52
0
Arxiv27k T5 Abst Title Gen
Apache-2.0
基于mt5-small微调的论文摘要生成标题模型,在arxiv数据集上训练4小时完成
文本生成
Transformers

A
emre
22
0
Bart Large Finetuned Pubmed
Apache-2.0
基于BART-large架构在生物医学论文摘要数据集上微调的文本生成模型
文本生成
Transformers

B
Kevincp560
20
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文