Amber Base
Apache-2.0
Amber Base 是基于 modernbert-ja-130m 的日语-英语句子转换器模型,专注于句子相似度计算和特征提取任务。
文本嵌入
支持多种语言
A
retrieva-jp
213
3
Nomic Embed Text V2 Moe Unsupervised
这是一个多语言混合专家(MoE)文本嵌入模型的中间版本,经过多阶段对比训练得到
文本嵌入
N
nomic-ai
161
5
Context Skill Extraction Base
这是一个基于sentence-transformers训练的模型,能够将句子和段落映射到768维的密集向量空间,适用于语义文本相似度计算、语义搜索等多种任务。
文本嵌入
C
TechWolf
189
5
Snowflake Arctic Embed M V1.5
Apache-2.0
Snowflake Arctic Embed M v1.5 是一个高效的句子嵌入模型,专注于句子相似度计算和特征提取任务。
文本嵌入
S
Snowflake
219.46k
58
Tybert
Apache-2.0
由Trendyol预训练的土耳其语Bert模型,适用于多种自然语言理解任务。
大型语言模型
Transformers

其他
T
Trendyol
54
6
Snowflake Arctic Embed M
Apache-2.0
Snowflake Arctic Embed M 是一个专注于句子相似度任务的句子转换器模型,能够高效提取文本特征并计算句子间的相似度。
文本嵌入
Transformers

S
Snowflake
722.08k
154
Bge Micro V2
bge_micro 是一个基于 sentence-transformers 的句子嵌入模型,专注于句子相似度计算和特征提取任务。
文本嵌入
Transformers

B
SmartComponents
468
2
St Polish Kartonberta Base Alpha V1
这是一个基于KartonBERTa架构的波兰语句子转换器模型,主要用于句子相似度计算和特征提取任务。
文本嵌入
Transformers

其他
S
OrlikB
3,494
3
Labse En Ru Myv V2
这是一个基于LaBSE模型的多语言嵌入模型,支持俄语和莫克沙语,在myv_ru_2022数据集上进行了微调。
大型语言模型
Transformers

其他
L
slone
59
0
Bge Micro V2
MIT
bge_micro 是一个专注于句子相似度计算的轻量级模型,适用于多种自然语言处理任务。
文本嵌入
Transformers

B
TaylorAI
248.53k
46
Bge Micro
bge_micro 是一个轻量级的句子相似度计算模型,基于变换器架构,专为高效的特征提取和句子相似度任务设计。
文本嵌入
Transformers

B
TaylorAI
1,799
23
Star
STAR是一个基于监督对比预训练变换器的模型,用于社交媒体写作风格理解。
文本嵌入
Transformers

S
AIDA-UPM
186
2
Unsup Simcse Ja Base
这是一个基于无监督SimCSE方法的日语句子嵌入模型,专门用于生成高质量的日语句子嵌入表示。
文本嵌入
Transformers

日语
U
cl-nagoya
190
2
Simcse Ja Bert Base Clcmlp
这是一个基于BERT的日语SimCSE模型,专门用于从日语句子中提取高质量的句子嵌入表示。
文本嵌入
Transformers

日语
S
pkshatech
803
15
Distilbert Base Uncased Becas 2
Apache-2.0
基于distilbert-base-uncased在becasv2数据集上微调的模型,验证损失为5.9506
大型语言模型
Transformers

D
Evelyn18
16
0
Sbert Chinese General V1
Apache-2.0
一个通用的中文句子嵌入模型,用于计算句子相似度和语义搜索任务。
文本嵌入
Transformers

中文
S
DMetaSoul
388
6
Chinese Roberta L 8 H 256
基于CLUECorpusSmall预训练的中文RoBERTa模型,参数规模为8层512隐藏单元,适用于多种中文NLP任务。
大型语言模型
中文
C
uer
15
1
Finetune Data Skills
Apache-2.0
基于bert-base-uncased微调的数据技能模型,适用于特定NLP任务
大型语言模型
Transformers

F
dpasch01
26
0
Medium Base
Apache-2.0
基于英语语料预训练的Transformer模型,采用类似ELECTRA的自监督学习方式,通过预测被替换标记进行训练。
大型语言模型
Transformers

英语
M
funnel-transformer
69
0
Debertav2 Base Uncased
Apache-2.0
BERT是一个基于Transformer架构的预训练语言模型,通过掩码语言建模和下一句预测任务在英语语料上训练。
大型语言模型
英语
D
mlcorelib
21
0
Albert Base Chinese Cluecorpussmall
基于CLUECorpusSmall预训练的中文ALBERT模型,由UER-py框架训练,适用于中文文本处理任务。
大型语言模型
Transformers

中文
A
uer
7,203
37
Intermediate
Apache-2.0
基于英语语料库预训练的Transformer模型,采用ELECTRA相似的目标任务,通过自监督学习获取文本表征
大型语言模型
Transformers

英语
I
funnel-transformer
24
0
Small
Apache-2.0
基于英语语料库预训练的Transformer模型,采用ELECTRA类似目标训练,适用于文本特征提取和下游任务微调
大型语言模型
Transformers

英语
S
funnel-transformer
6,084
5
Large
Apache-2.0
基于英语语料预训练的Transformer模型,采用ELECTRA类似的目标函数,通过自监督方式学习英语语言的内在表示。
大型语言模型
Transformers

英语
L
funnel-transformer
190
2
Envibert
envibert是一个基于RoBERTa架构的双语模型,支持越南语和英语处理,专为生产环境优化。
大型语言模型
Transformers

其他
E
nguyenvulebinh
84
5
Xlarge
Apache-2.0
Funnel Transformer是一种基于自监督学习的英语文本预训练模型,采用类似ELECTRA的目标任务,通过过滤序列冗余实现高效语言处理。
大型语言模型
Transformers

英语
X
funnel-transformer
31
1
Distilbert Feature Extraction
DistilBERT 是 BERT 的轻量级蒸馏版本,保留了 BERT 97% 的性能,但体积缩小了 40%。
大型语言模型
Transformers

D
julien-c
2,223
2
Bert Base Irish Cased V1
gaBERT是一个基于BERT的爱尔兰语单语模型,训练于790万爱尔兰语句子上,适用于爱尔兰语的下游任务微调。
大型语言模型
Transformers

B
DCU-NLP
42
5
Gpt2 Large Bne
Apache-2.0
基于西班牙国家图书馆(BNE)数据训练的GPT2-large西班牙语语言模型
大型语言模型
Transformers

西班牙语
G
PlanTL-GOB-ES
899
12
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文