领域专用BERT
DA BERT Old News V1
MIT
首个基于丹麦专制时期(1660-1849年)历史文本训练的变压器模型,由奥尔堡大学研究人员开发,用于处理与现代丹麦语差异较大的历史文本语义。
大型语言模型
其他
D
CALDISS-AAU
48
2
Langcache Embed Medical V1
这是一个基于阿里巴巴NLP/gte-modernbert-base微调的句子转换器模型,专门用于医疗领域的语义文本相似度计算,支持语义缓存功能。
文本嵌入
L
redis
103
1
Tsdae Lemone Mbert Base
Apache-2.0
这是一个基于mBERT的句子转换器模型,专门针对法国法律领域进行优化,能够将法律文本转换为768维向量表示。
文本嵌入
法语
T
louisbrulenaudet
22
4
Industry Bert Sec V0.1
Apache-2.0
专为金融与监管领域优化的BERT句向量转换模型,基于SEC文件训练
文本嵌入
Transformers
I
llmware
8,587
9
Agriculture Bert Base Chinese
这是一个专为农业领域优化的BERT模型,采用MLM(掩码语言模型)自监督学习方法进行训练。
大型语言模型
Transformers
中文
A
gigilin7
14
2
Legalbertpt Fp
Openrail
Legalbert-pt 是针对葡萄牙语法律领域的语言模型,通过预训练获得领域专业化能力,可进一步微调用于特定任务。
大型语言模型
Transformers
L
raquelsilveira
738
6
Biomednlp BiomedBERT Large Uncased Abstract
MIT
BiomedBERT是基于PubMed摘要文本从头预训练的生物医学领域大型语言模型,专注于提升生物医学自然语言处理任务表现。
大型语言模型
Transformers
英语
B
microsoft
637
18
Biosimcse BioLinkBERT BASE
基于BioLinkBERT的生物医学句子嵌入模型,专为生物医学文本相似度计算设计
文本嵌入
Transformers
B
kamalkraj
774
0
Nps Psb Lds
基于PatentSBERTa的专利问题与解决方案句子识别模型,可将句子和段落映射到768维稠密向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers
N
nategro
18
0
Chemical Bert Uncased Pharmaceutical Chemical Classifier
基于13K化学和14K制药维基百科文章段落微调的化学领域语言模型,用于区分制药和化学领域的文本。
文本分类
Transformers
英语
C
recobo
35
2
Matscibert
MIT
MatSciBERT是一个基于BERT架构的预训练语言模型,专门针对材料科学领域的文本挖掘和信息提取任务进行优化。
大型语言模型
Transformers
英语
M
m3rg-iitd
11.98k
19
Batterybert Cased Abstract
Apache-2.0
BatteryBERT-cased是一个专门用于电池相关论文摘要分类的预训练语言模型,基于BERT架构,针对电池领域文本进行了优化。
文本分类
Transformers
英语
B
batterydata
37
0
Batteryonlybert Uncased Abstract
Apache-2.0
这是一个基于BatteryOnlyBERT-uncased的文本分类模型,专门用于电池相关论文摘要的分类任务。
文本分类
Transformers
英语
B
batterydata
19
0
Biomednlp BiomedBERT Base Uncased Abstract Fulltext
MIT
BiomedBERT是基于PubMed摘要和PubMedCentral全文预训练的生物医学领域专用语言模型,在多项生物医学NLP任务中达到最先进水平。
大型语言模型
英语
B
microsoft
1.7M
240
Agri Sentence Transformer
这是一个基于sentence-transformers的模型,专门针对农业领域文本优化,能将句子和段落映射到512维向量空间,适用于聚类和语义搜索等任务。
文本嵌入
Transformers
英语
A
recobo
184
4
Bert Small Japanese Fin
这是一个基于日语文本预训练的BERT模型,特别针对金融领域进行了优化。
大型语言模型
Transformers
日语
B
izumi-lab
4,446
2