Chinesebert Base
ChineseBERT是一个融合字形与拼音信息的中文预训练模型,针对中文文本处理进行了优化。
大型语言模型
Transformers

中文
C
iioSnail
118
7
News Category Classifier Distilbert
Apache-2.0
基于BERT-base-uncased的新闻分类模型,能够对多种新闻类别进行准确分类。
文本分类
Transformers

N
dima806
342
7
OPT PET Impression
这是一个基于BERT的医学文本摘要模型,支持英文文本处理,适用于医学文献和报告的自动摘要生成。
文本生成
Transformers

英语
O
xtie
15
0
Dj
基于bert-base-chinese的BERT模型,在百万级语义相似度数据集SimCLUE上训练而成,专为通用语义匹配场景设计,展现出优异的泛化能力。
文本嵌入
Transformers

D
TaoH
14
0
Bert Semantic Similarity
针对SNLI语料库微调的BERT模型,用于预测两个句子的语义相似度得分。
文本嵌入
B
keras-io
22
9
Kosimcse Bert
韩语句子嵌入模型,基于BERT架构优化,用于计算句子语义相似度
文本嵌入
Transformers

韩语
K
BM-K
444
5
Bert Chinese Mc Base
ChineseBLUE 是一个中文医学自然语言理解基准测试集,旨在评估模型在中文医学文本上的表现。
大型语言模型
B
junnyu
18
3
Demo
Apache-2.0
基于bert-base-uncased在GLUE MRPC数据集上微调的文本分类模型
文本分类
Transformers

英语
D
junzai
15
0
Unsup Simcse Bert Base Uncased
基于BERT架构的无监督对比学习模型,通过简单有效的对比学习框架提升句子嵌入质量
文本嵌入
U
princeton-nlp
9,546
5
Bert Base Uncased Finetuned Sst2
Apache-2.0
基于BERT基础模型在GLUE数据集SST-2任务上微调的情感分析模型
文本分类
Transformers

B
doyoungkim
36
2
Sup Simcse Bert Large Uncased
基于BERT架构的句子嵌入模型,通过对比学习优化句子表示,适用于特征提取任务
文本嵌入
S
princeton-nlp
1,545
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文