高召回率
Results
Apache-2.0
该模型是在bert-base-uncased基础上进行微调的版本,专注于提升特定任务的召回率表现
大型语言模型
Transformers
R
shank250
23
1
Marqo Fashionsiglip ST
Apache-2.0
Marqo-FashionSigLIP 是一款多模态嵌入模型,专为时尚产品搜索优化,相比 FashionCLIP 在 MRR 和召回率上提升了57%。
图像生成文本
Transformers
英语
M
pySilver
3,586
0
Distilhubert Finetuned Babycry V6
Apache-2.0
基于distilhubert微调的婴儿哭声分类模型,在音频分类任务上表现良好
音频分类
Transformers
D
Wiam
14
0
Baby Cry Classification Finetuned Babycry V4
Apache-2.0
基于wav2vec2-large-xlsr-53-english微调的婴儿哭声分类模型,准确率达81.5%
音频分类
Transformers
B
Wiam
120
2
Roberta Base Legal Multi Downstream Indian Ner
基于多语言法律文本预训练的RoBERTa模型,在印度法律命名实体识别任务上微调
序列标注
Transformers
R
MHGanainy
66
2
Marqo Fashionsiglip
Apache-2.0
Marqo-FashionSigLIP 是一种多模态嵌入模型,专为时尚产品搜索优化,相比 FashionCLIP 在 MRR 和召回率上提升了57%。
文本生成图像
Transformers
英语
M
Marqo
493.25k
44
Monobert Legal French
MIT
基于CamemBERT架构的法语文本分类模型,专为法律领域段落重排序任务设计
文本分类
法语
M
maastrichtlawtech
802
1
Splade Legal French
MIT
基于Camembert架构的SPLADEv2模型,专为法语段落检索和句子相似度任务优化
文本嵌入
Transformers
法语
S
maastrichtlawtech
19
1
Crossencoder Mdebertav3 Base Mmarcofr
MIT
这是一个基于mDeBERTa-v3-base的法语交叉编码器模型,专门用于段落重排序任务,在mMARCO-fr数据集上表现出色。
文本嵌入
法语
C
antoinelouis
111
1
Crossencoder Xlm Roberta Base Mmarcofr
MIT
这是一个基于XLM-RoBERTa的法语交叉编码器模型,专门用于语义搜索中的段落重排序任务。
文本嵌入
法语
C
antoinelouis
51
0
Crossencoder Me5 Base Mmarcofr
MIT
这是一个基于multilingual-e5-base的法语交叉编码器模型,专门用于段落重排序任务。
文本嵌入
法语
C
antoinelouis
49
1
Crossencoder Camembert Large Mmarcofr
MIT
这是一个法语交叉编码器模型,专门用于语义搜索中的段落重排序任务。
文本嵌入
法语
C
antoinelouis
108
1
Dragon Multiturn Query Encoder
其他
Dragon-multiturn是一款专为对话式问答场景设计的检索器,能处理将会话历史与当前查询相结合的对话式查询。
问答系统
Transformers
英语
D
nvidia
710
59
Sage Mt5 Large
MIT
基于mT5-large架构的俄语和英语拼写检查模型,通过规范化单词纠正拼写错误和打字错误。
大型语言模型
Transformers
支持多种语言
S
ai-forever
51
7
Dpr Legal French
MIT
基于CamemBERT的法语句子相似度计算模型,专为法律领域段落检索任务优化
文本嵌入
法语
D
maastrichtlawtech
122
2
Colbert Xm
MIT
ColBERT-XM 是一个基于 ColBERT 架构的多语言段落检索模型,支持多种语言的句子相似度计算和段落检索任务。
文本嵌入
Safetensors
支持多种语言
C
antoinelouis
29.07k
61
Solon Embeddings Base 0.1
MIT
Solon嵌入模型基础版0.1是当前最先进的开源法语嵌入模型,支持法语和英语,专注于句子相似度和特征提取任务。
文本嵌入
Transformers
支持多种语言
S
OrdalieTech
2,250
14
Beto Sentiment Analysis Spanish
基于BETO(西班牙语版BERT)构建的情感分析模型,支持西班牙语文本的情感分类。
文本分类
Transformers
西班牙语
B
ignacio-ave
1,708
6
Crossencoder Camembert Base Mmarcofr
MIT
这是一个基于CamemBERT的法语交叉编码器模型,专门用于段落重排序任务,在mMARCO-fr数据集上表现出色。
文本嵌入
法语
C
antoinelouis
622
5
Crossencoder Mminilmv2 L12 Mmarcofr
MIT
这是一个法语交叉编码器模型,用于对问题-段落对进行相关性评分,适用于语义搜索的重排序阶段。
文本嵌入
法语
C
antoinelouis
155
0
Crossencoder Electra Base Mmarcofr
MIT
这是一个基于ELECTRA架构的法语交叉编码器模型,专门用于语义搜索中的段落重排序任务。
文本嵌入
法语
C
antoinelouis
18
0
Msmarco Bert Base Dot V5 Fine Tuned AI
基于BERT架构的语义搜索模型,专为信息检索系统优化,可将文本映射到768维向量空间
文本嵌入
Transformers
英语
M
Adel-Elwan
18
0
Biencoder Mminilmv2 L12 Mmarcofr
MIT
这是一个用于法语的密集单向量双编码器模型,可用于语义搜索。
文本嵌入
法语
B
antoinelouis
346
2
Biencoder Electra Base Mmarcofr
MIT
这是一个用于法语的密集单向量双编码器模型,可用于语义搜索。
文本嵌入
法语
B
antoinelouis
31
2
Biencoder Distilcamembert Mmarcofr
MIT
这是一个用于法语的密集单向量双编码器模型,可用于语义搜索。
文本嵌入
法语
B
antoinelouis
160
2
Biencoder Camembert Base Mmarcofr
MIT
这是一个用于法语的密集单向量双编码器模型,可用于语义搜索任务。
文本嵌入
法语
B
antoinelouis
984
9
Cotmae Base Msmarco Reranker
基于CoT-MAE架构训练的MS-Marco段落重排序模型,用于提升密集段落检索性能
文本嵌入
Transformers
C
caskcsg
16
1
Roberta Base Tweetner7 All
基于roberta-base在tweetner7数据集上微调的命名实体识别模型,专门用于推特文本中的实体识别。
序列标注
Transformers
R
tner
30
0
Twitter Roberta Base Dec2021 Tweetner7 Random
该模型是基于Twitter数据预训练的RoBERTa模型,在tner/tweetner7数据集上微调,用于推文中的命名实体识别。
序列标注
Transformers
T
tner
43
2
Twitter Roberta Base Dec2021 Tweetner7 All
基于Twitter-RoBERTa模型在TweetNER7数据集上微调的命名实体识别模型,专门用于推文中的实体识别。
序列标注
Transformers
T
tner
6
0
Roberta Large Tweetner7 All
基于roberta-large在tner/tweetner7数据集上微调的命名实体识别模型,专门用于推特文本中的实体识别
序列标注
Transformers
R
tner
170.06k
1
Splade Cocondenser Ensembledistil
用于段落检索的SPLADE模型,通过知识蒸馏提升稀疏神经信息检索效果
文本嵌入
Transformers
英语
S
naver
606.73k
42
Splade Cocondenser Selfdistil
用于段落检索的SPLADE模型,通过稀疏潜在文档扩展和知识蒸馏技术提升检索效果
文本嵌入
Transformers
英语
S
naver
16.11k
10
Gpt2 Finetuned Comp2
MIT
基于GPT-2架构的微调模型,在特定任务上进行了优化
大型语言模型
Transformers
G
brad1141
75
0
Dpr Question Encoder Fr Qa Camembert
基于CamemBERT的法语DPR模型,专为法语问答任务优化,在PIAF、FQuAD和SQuAD-FR数据集上微调
问答系统
Transformers
法语
D
AgentPublic
229
8
Marker Associations Binary Base
MIT
基于PubMedBERT在生物医学文本上微调的二分类模型,用于标记关联分类任务
文本分类
Transformers
M
jambo
16
0
Biobert Base Cased V1.2 Finetuned Ner
基于BioBERT v1.2在jnlpba数据集上微调的命名实体识别模型,专注于生物医学文本处理
序列标注
Transformers
B
sciarrilli
83
2
Distilbert Base Cased Finetuned Chunk
Apache-2.0
该模型是基于distilbert-base-cased在未知数据集上微调的版本,主要用于文本分类任务。
大型语言模型
Transformers
D
RobW
15
0