S

Scholarbert

由 globuslabs 开发
基于大规模科研论文集合预训练的BERT-large变体,参数量3.4亿,专注于科学文献理解
下载量 25
发布时间 : 5/22/2022
模型介绍
内容详情
替代品

模型简介

ScholarBERT_100是基于2210亿词元科学文献预训练的语言模型,采用BERT-large架构,适用于科学文本处理任务

模型特点

科学文献优化
专门针对科学文献进行预训练,涵盖艺术人文、生命科学、物理科学等多学科领域
大规模训练
基于2210亿词元的超大规模科学文献数据集训练
区分大小写
保留原始文本大小写信息,对科学术语识别尤为重要

模型能力

科学文本理解
学术文献分析
多学科知识处理

使用案例

学术研究
文献综述生成
自动分析大量科研论文并生成领域综述
科学术语识别
准确识别科研文献中的专业术语和概念
教育技术
智能学术写作辅助
帮助学生和研究人员改进学术写作