Chinesebert Base
ChineseBERT是一个融合字形与拼音信息的中文预训练模型,针对中文文本处理进行了优化。
大型语言模型
Transformers
中文
C
iioSnail
118
7
News Category Classifier Distilbert
Apache-2.0
基于BERT-base-uncased的新闻分类模型,能够对多种新闻类别进行准确分类。
文本分类
Transformers
N
dima806
342
7
OPT PET Impression
这是一个基于BERT的医学文本摘要模型,支持英文文本处理,适用于医学文献和报告的自动摘要生成。
文本生成
Transformers
英语
O
xtie
15
0
Dj
基于bert-base-chinese的BERT模型,在百万级语义相似度数据集SimCLUE上训练而成,专为通用语义匹配场景设计,展现出优异的泛化能力。
文本嵌入
Transformers
D
TaoH
14
0
Bert Semantic Similarity
针对SNLI语料库微调的BERT模型,用于预测两个句子的语义相似度得分。
文本嵌入
B
keras-io
22
9
Kosimcse Bert
韩语句子嵌入模型,基于BERT架构优化,用于计算句子语义相似度
文本嵌入
Transformers
韩语
K
BM-K
444
5
Bert Chinese Mc Base
ChineseBLUE 是一个中文医学自然语言理解基准测试集,旨在评估模型在中文医学文本上的表现。
大型语言模型
B
junnyu
18
3
Demo
Apache-2.0
基于bert-base-uncased在GLUE MRPC数据集上微调的文本分类模型
文本分类
Transformers
英语
D
junzai
15
0
Unsup Simcse Bert Base Uncased
基于BERT架构的无监督对比学习模型,通过简单有效的对比学习框架提升句子嵌入质量
文本嵌入
U
princeton-nlp
9,546
5
Bert Base Uncased Finetuned Sst2
Apache-2.0
基于BERT基础模型在GLUE数据集SST-2任务上微调的情感分析模型
文本分类
Transformers
B
doyoungkim
36
2
Sup Simcse Bert Large Uncased
基于BERT架构的句子嵌入模型,通过对比学习优化句子表示,适用于特征提取任务
文本嵌入
S
princeton-nlp
1,545
0