Pearl Small
Apache-2.0
珍珠小模型是一款轻量级字符串嵌入模型,专门用于处理字符串语义相似度计算,为字符串匹配、实体检索等任务生成优质嵌入向量。
文本嵌入
Transformers

英语
P
Lihuchen
1,824
13
Compositional Bert Large Uncased
Apache-2.0
CompCSE 和 SimCSE 是基于对比学习的句子嵌入模型,用于计算句子相似度。
文本嵌入
Transformers

英语
C
perceptiveshawty
754
2
Roberta Ko Small Tsdae
MIT
这是一个基于sentence-transformers的韩语小型RoBERTa模型,能够将句子和段落映射到256维稠密向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers

韩语
R
smartmind
39
2
Laprador Untrained
这是一个基于sentence-transformers的句子相似度模型,可将文本映射到768维向量空间
文本嵌入
Transformers

L
gemasphi
31
0
All T5 Base V1
Apache-2.0
基于T5的doc2query模型,用于文档扩展和训练数据生成
文本生成
Transformers

英语
A
doc2query
171
10
Mirror Roberta Base Sentence Drophead
基于RoBERTa的无监督句子编码器,采用drophead技术增强特征空间,适用于句子相似度计算。
文本嵌入
Transformers

M
cambridgeltl
25
1
Unsup Simcse Bert Base Uncased
基于BERT架构的无监督对比学习模型,通过简单有效的对比学习框架提升句子嵌入质量
文本嵌入
U
princeton-nlp
9,546
5
Simcse Chinese Roberta Wwm Ext
基于简单对比学习的简体中文语句嵌入编码模型,使用中文RoBERTa WWM扩展版作为预训练模型。
文本嵌入
Transformers

S
cyclone
188
32
Tsdae Bert Base Dv News Title
这是一个基于sentence-transformers框架的语义向量模型,能够将迪维希语句子和段落映射到768维稠密向量空间,适用于文本聚类或语义搜索等任务。
文本嵌入
Transformers

其他
T
ashraq
13
1
Contriever Msmarco
基于Contriever预训练模型的微调版本,专为密集信息检索任务优化,采用对比学习方法训练
文本嵌入
Transformers

C
facebook
24.08k
27
Distilbert Base Uncased Go Emotions Student
MIT
通过零样本分类流程从无标注GoEmotions数据集蒸馏而来的情感分类模型,作为计算高效的概念验证模型
文本分类
Transformers

英语
D
joeddav
143.01k
76
SBERT Large Nli V2
SBERT-large-nli-v2 是一个基于BERT的大型句子转换器模型,专门用于句子相似度计算和特征提取。
文本嵌入
Transformers

S
Muennighoff
43
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文