模型介绍
内容详情
替代品
模型简介
该模型是一个英语文本嵌入模型,主要用于文本分类和检索任务,在多个标准数据集上展示了优秀的性能。
模型特点
高性能文本分类
在Amazon产品评论分类任务上达到97.19%的准确率
强大的文本检索能力
在ArguAna检索任务上达到64.24的NDCG@10分数
多任务适应性
在多种文本处理任务上表现均衡,包括分类和检索
模型能力
文本分类
文本检索
语义相似度计算
文本嵌入生成
使用案例
电子商务
产品评论分类
对Amazon产品评论进行正面/负面分类
准确率97.19%
产品评论多分类
对Amazon产品评论进行星级分类
准确率59.53%
信息检索
论点检索
在ArguAna数据集上进行论点检索
NDCG@10 64.24
model-index:
- name: stella_en_400M_v5
results:
- dataset:
config: en
name: MTEB AmazonCounterfactualClassification (en)
revision: e8379541af4e31359cca9fbcf4b00f2671dba205
split: test
type: mteb/amazon_counterfactual
metrics:
- type: accuracy value: 92.35820895522387
- type: ap value: 70.81322736988783
- type: ap_weighted value: 70.81322736988783
- type: f1 value: 88.9505466159595
- type: f1_weighted value: 92.68630932872613
- type: main_score value: 92.35820895522387 task: type: Classification
- dataset:
config: default
name: MTEB AmazonPolarityClassification
revision: e2d317d38cd51312af73b3d32a06d1a08b442046
split: test
type: mteb/amazon_polarity
metrics:
- type: accuracy value: 97.1945
- type: ap value: 96.08192192244094
- type: ap_weighted value: 96.08192192244094
- type: f1 value: 97.1936887167346
- type: f1_weighted value: 97.1936887167346
- type: main_score value: 97.1945 task: type: Classification
- dataset:
config: en
name: MTEB AmazonReviewsClassification (en)
revision: 1399c76144fd37290681b995c656ef9b2e06e26d
split: test
type: mteb/amazon_reviews_multi
metrics:
- type: accuracy value: 59.528000000000006
- type: f1 value: 59.21016819840188
- type: f1_weighted value: 59.21016819840188
- type: main_score value: 59.528000000000006 task: type: Classification
- dataset:
config: default
name: MTEB ArguAna
revision: c22ab2a51041ffd869aaddef7af8d8215647e41a
split: test
type: mteb/arguana
metrics:
- type: main_score value: 64.24
- type: map_at_1 value: 40.398
- type: map_at_10 value: 56.215
- type: map_at_100 value: 56.833999999999996
- type: map_at_1000 value: 56.835
- type: map_at_20 value: 56.747
- type: map_at_3 value: 52.181
- type: map_at_5 value: 54.628
- type: mrr_at_1 value: 41.25177809388336
- type: mrr_at_10 value: 56.570762491815216
- type: mrr_at_100 value: 57.17548614361504
- type: mrr_at_1000 value: 57.176650626377466
- type: mrr_at_20 value: 57.08916253512566
- type: mrr_at_3 value: 52.47747747747754
- type: mrr_at_5 value: 54.94547178757718
- type: nauc_map_at_1000_diff1 value: 22.408086887100158
- type: nauc_map_at_1000_max value: -8.730419096847543
- type: nauc_map_at_1000_std value: -17.789262741255737
- type: nauc_map_at_100_diff1 value: 22.407371684274025
- type: nauc_map_at_100_max value: -8.732263549026266
- type: nauc_map_at_100_std value: -17.79550515579994
- type: nauc_map_at_10_diff1 value: 21.925005073301246
- type: nauc_map_at_10_max value: -8.990323944492134
- type: nauc_map_at_10_std value: -18.199246301671458
- type: nauc_map_at_1_diff1 value: 26.23276644969203
- type: nauc_map_at_1_max value: -12.376511389571245
- type: nauc_map_at_1_std value: -18.11411715207284
- type: nauc_map_at_20_diff1 value: 22.32455790850922
- type: nauc_map_at_20_max value: -8.664671547236034
- type: nauc_map_at_20_std value: -17.8290016125137
- type: nauc_map_at_3_diff1 value: 22.395462147465064
- type: nauc_map_at_3_max value: -8.206580750918844
- type: nauc_map_at_3_std value: -17.604490446911484
- type: nauc_map_at_5_diff1 value: 21.95307379904799
- type: nauc_map_at_5_max value: -8.03958102978443
- type: nauc_map_at_5_std value: -17.36578866595004
- type: nauc_mrr_at_1000_diff1 value: 20.124236798365587
- type: nauc_mrr_at_1000_max value: -9.587376069575898
- type: nauc_mrr_at_1000_std value: -17.79191612151833
- type: nauc_mrr_at_100_diff1 value: 20.123612603474033
- type: nauc_mrr_at_100_max value: -9.589187218607831
- type: nauc_mrr_at_100_std value: -17.7981617777748
- type: nauc_mrr_at_10_diff1 value: 19.723683875738075
- type: nauc_mrr_at_10_max value: -9.774151729178815
- type: nauc_mrr_at_10_std value: -18.168668675495162
- type: nauc_mrr_at_1_diff1 value: 23.945332059908132
- type: nauc_mrr_at_1_max value: -12.260461466152819
- type: nauc_mrr_at_1_std value: -18.007194922921148
- type: nauc_mrr_at_20_diff1 value: 20.04819461810257
- type: nauc_mrr_at_20_max value: -9.518368283588936
- type: nauc_mrr_at_20_std value: -17.831608149836136
- type: nauc_mrr_at_3_diff1 value: 19.8571785245832
- type: nauc_mrr_at_3_max value: -9.464375021240478
- type: nauc_mrr_at_3_std value: -17.728533927330453
- type: nauc_mrr_at_5_diff1 value: 19.670313652167827
- type: nauc_mrr_at_5_max value: -8.966372585728434
- type: nauc_mrr_at_5_std value: -17.468955834324817
- type: nauc_ndcg_at_1000_diff1 value: 21.863049281767417
- type: nauc_ndcg_at_1000_max value: -8.18698520924057
- type: nauc_ndcg_at_1000_std value: -17.634483364794804
- type: nauc_ndcg_at_100_diff1 value: 21.849924385738586
- type: nauc_ndcg_at_100_max value: -8.226437560889345
- type: nauc_ndcg_at_100_std value: -17.774648478087002
- type: nauc_ndcg_at_10_diff1 value: 19.888395590413573
- type: nauc_ndcg_at_10_max value: -8.968706085632382
- type: nauc_ndcg_at_10_std value: -19.31386964628115
- type: nauc_ndcg_at_1_diff1 value: 26.23276644969203
- type: nauc_ndcg_at_1_max value: -12.376511389571245
- type: nauc_ndcg_at_1_std value: -18.11411715207284
- type: nauc_ndcg_at_20_diff1 value: 21.38413342416933
- type: nauc_ndcg_at_20_max value: -7.636238194084164
- type: nauc_ndcg_at_20_std value: -17.946390844693028
- type: nauc_ndcg_at_3_diff1 value: 21.29169165029195
- type: nauc_ndcg_at_3_max value: -6.793840499730093
- type: nauc_ndcg_at_3_std value: -17.52359001586737
- type: nauc_ndcg_at_5_diff1 value: 20.238297656671364
- type: nauc_ndcg_at_5_max value: -6.424992706950072
- type: nauc_ndcg_at_5_std value: -17.082391132291356
- type: nauc_precision_at_1000_diff1 value: -7.05195108528572
- type: nauc_precision_at_1000_max value: 34.439879624882145
- type: nauc_precision_at_1000_std value: 68.72436351659353
- type: nauc_precision_at_100_diff1 value: -2.769464113932605
- type: nauc_precision_at_100_max value: 9.89562961226698
- type: nauc_precision_at_100_std value: -0.5880967482224028
- type: nauc_precision_at_10_diff1 value: 2.1371544726832323
- type: nauc_precision_at_10_max value: -11.93051325147756
- type: nauc_precision_at_10_std value: -30.83144187392059
- type: nauc_precision_at_1_diff1 value: 26.23276644969203
- type: nauc_precision_at_1_max value: -12.376511389571245
- type: nauc_precision_at_1_std value: -18.11411715207284
- type: nauc_precision_at_20_diff1 value: 3.780146814257504
- type: nauc_precision_at_20_max value: 17.06527540214615
- type: nauc_precision_at_20_std value: -20.36832563035565
- type: nauc_precision_at_3_diff1 value: 17.63894384012077
- type: nauc_precision_at_3_max value: -2.0220490624638887
- type: nauc_precision_at_3_std value: -17.285601413493918
- type: nauc_precision_at_5_diff1 value: 12.557855071944601
- type: nauc_precision_at_5_max value: 0.5840236463956658
- type: nauc_precision_at_5_std value: -15.827224420217846
- type: nauc_recall_at_1000_diff1 value: -7.051951085286463
- type: nauc_recall_at_1000_max value: 34.43987962487738
- type: nauc_recall_at_1000_std value: 68.724363516591
- type: nauc_recall_at_100_diff1 value: -2.769464113930314
- type: nauc_recall_at_100_max value: 9.895629612270017
- type: nauc_recall_at_100_std value: -0.58809674821745
- type: nauc_recall_at_10_diff1 value: 2.1371544726834495
- type: nauc_recall_at_10_max value: -11.930513251477253
- type: nauc_recall_at_10_std value: -30.83144187392047
- type: nauc_recall_at_1_diff1 value: 26.23276644969203
- type: nauc_recall_at_1_max value: -12.376511389571245
- type: nauc_recall_at_1_std value: -18.11411715207284
- type: nauc_recall_at_20_diff1 value: 3.7801468142575922
- type: nauc_recall_at_20_max value: 17.0652754021456
- type: nauc_recall_at_20_std value: -20.36832563035559
- type: nauc_recall_at_3_diff1 value: 17.63894384012074
- type: nauc_recall_at_3_max value: -2.02204906246383
- type: nauc_recall_at_3_std value: -17.28560141349386
- type: nauc_recall_at_5_diff1 value: 12.55785507194463
- type: nauc_recall_at_5_max value: 0.5840236463957296
- type: nauc_recall_at_5_std value: -15.827224420217856
- type: ndcg_at_1 value: 40.398
- type: ndcg_at_10 value: 64.24
- type: ndcg_at_100 value: 66.631
- type: ndcg_at_1000 value: 66.65100000000001
- type: ndcg_at_20 value: 66.086
- type: ndcg_at_3 value: 55.938
- type: ndcg_at_5 value: 60.370000000000005
- type: precision_at_1 value: 40.398
- type: precision_at_10 value: 8.962
- type: precision_at_100 value: 0.9950000000000001
- type: precision_at_1000 value: 0.1
- type: precision_at_20 value: 4.836
- type: precision_at_3 value: 22.262
- dataset:
config: en
name: MTEB AmazonCounterfactualClassification (en)
revision: e8379541af4e31359cca9fbcf4b00f2671dba205
split: test
type: mteb/amazon_counterfactual
metrics:
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型
支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型
英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型
英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型
英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型
英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型
英语
O
facebook
6.3M
198
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers

支持多种语言
L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型
支持多种语言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
5.3M
431
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文