生物医学文本处理
Modernbert Base Tr Uncased
MIT
基于ModernBERT架构的土耳其语预训练模型,支持8192上下文长度,在多个领域表现优异
大型语言模型
Transformers
其他
M
artiwise-ai
159
9
Extractive Summarization
MIT
该模型是基于t5-small微调的版本,专为使用PubMed数据集总结科学和医学文本而优化。
文本生成
英语
E
nyamuda
94
0
Med T5 Summ Ru
用于俄语生物医学文本抽象摘要生成的序列到序列模型
文本生成
Transformers
其他
M
sacreemure
27
0
Biomednlp BiomedBERT Large Uncased Abstract
MIT
BiomedBERT是基于PubMed摘要文本从头预训练的生物医学领域大型语言模型,专注于提升生物医学自然语言处理任务表现。
大型语言模型
Transformers
英语
B
microsoft
637
18
Med KEBERT
Openrail
这是一个基于BERT架构的生物医学领域预训练语言模型,适用于处理生物医学文本数据。
大型语言模型
Transformers
英语
M
xmcmic
769
1
Roberta Es Clinical Trials Ner
基于RoBERTa的西班牙语临床试验文本命名实体识别模型,可检测4种医学语义组
序列标注
Transformers
西班牙语
R
lcampillos
277
10
Bio Bert Ft
基于BioBERT的生物医学领域微调模型,在特定任务上取得了0.8621的F1分数
大型语言模型
Transformers
B
ericntay
15
0
Stanford Deidentifier With Radiology Reports And I2b2
MIT
基于转换器模型的放射学报告自动化去标识系统,通过检测受保护健康信息(PHI)并替换为拟真替代值实现隐私保护
序列标注
Transformers
英语
S
StanfordAIMI
126
6
Stanford Deidentifier Only I2b2
MIT
基于转换器模型的放射学报告自动去标识化系统,结合规则方法实现高精度PHI识别与替换
序列标注
Transformers
英语
S
StanfordAIMI
98
5
Mt5 Chinese Small
基于mT5-small微调的摘要生成模型,支持中文文本摘要任务
文本生成
Transformers
中文
M
yihsuan
36
7
Biolinkbert Large
Apache-2.0
BioLinkBERT是基于PubMed摘要及文献引用链接信息预训练的生物医学语言模型,通过整合跨文档知识提升性能。
大型语言模型
Transformers
英语
B
michiyasunaga
3,152
35
Biobertpt Clin
BioBERTpt是基于BERT架构的葡萄牙语临床与生物医学模型,专门针对临床命名实体识别任务优化。
大型语言模型
其他
B
pucpr
109
11
Covidbert Nli
基于冠状病毒研究论文数据集CORD19训练的BERT模型,通过自然语言推理任务微调生成通用句子嵌入表示
文本嵌入
C
gsarti
26
0
Rubiobert
RuBioRoBERTa 是一个针对俄语生物医学文本预训练的 RoBERTa 模型,专门用于处理生物医学领域的自然语言处理任务。
大型语言模型
Transformers
R
alexyalunin
686
1
Biobertpt All
基于BERT的葡萄牙语临床与生物医学模型,在临床记录和生物医学文献上训练
大型语言模型
其他
B
pucpr
1,460
23
Pubmedbert Abstract Cord19
MIT
基于PubMedBERT在CORD-19摘要数据集上微调的生物医学文本处理模型
大型语言模型
Transformers
P
pritamdeka
16
0