Reranker Gte Multilingual Base Msmarco Bce Ep 2
基于sentence-transformers库在msmarco数据集上训练的交叉编码器模型,用于文本重排序和语义搜索
文本嵌入
支持多种语言
R
skfrost19
28
0
Col1 210M EuroBERT
Apache-2.0
这是一个基于EuroBERT-210m微调的ColBERT模型,专门用于西班牙语和英语的语义文本相似度计算。
文本嵌入
Safetensors
支持多种语言
C
fjmgAI
16
1
Ruri V3 Reranker 310m Preview
Apache-2.0
这是一个日语通用重排序模型的预览版本,基于cl-nagoya/ruri-v3-pt-310m基础模型训练,专门用于日语文本相关性排序任务。
文本嵌入
日语
R
cl-nagoya
79
0
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
89
4
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
这是一个基于MiniLM-L12-H384-uncased微调的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
1,019
3
Ruri Reranker Stage1 Large
Apache-2.0
Ruri-Reranker是一个基于sentence-transformers的日语文本重排序模型,专门用于优化查询与文档的相关性排序。
文本嵌入
日语
R
cl-nagoya
23
1
EEVE Korean Instruct 10.8B V1.0 Grade Retrieval
Apache-2.0
该模型是基于EEVE-韩语指导-10.8B-v1.0微调的,用于评估RAG(检索增强生成)中针对问题的检索上下文是否正确,并以'是'或'否'回答。
大型语言模型
Transformers

韩语
E
sinjy1203
1,764
2
Phi3 Rag Relevance Judge Merge
一个用于判断参考文本与问题相关性的二元分类模型,专为RAG系统优化
大型语言模型
Transformers

P
grounded-ai
21
1
Bloomz 560m Reranking
Openrail
基于Bloomz-560m构建的双语重排序模型,用于衡量查询与上下文的语义相关性,支持法语和英语
大型语言模型
Transformers

支持多种语言
B
cmarkea
17
1
All MiniLM L6 V2 GGUF
Apache-2.0
all-MiniLM-L6-v2是一个基于MiniLM架构的轻量级句子嵌入模型,适用于英文文本的特征提取和句子相似度计算。
文本嵌入
英语
A
leliuga
598
3
E5 Base Mlqa Finetuned Arabic For Rag
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维稠密向量空间,适用于聚类或语义搜索等任务。
文本嵌入
E
OmarAlsaabi
92
5
Silver Retriever Base V1.1
银色检索器模型将波兰语句子或段落编码为768维稠密向量空间,可用于文档检索或语义搜索等任务。
文本嵌入
Transformers

其他
S
ipipan
862
9
Sentence Transformers Alephbertgimmel Small
这是一个基于sentence-transformers的希伯来语句子相似度计算模型,可将文本映射到512维向量空间用于语义搜索和聚类任务
文本嵌入
Transformers

其他
S
imvladikon
39
1
Silver Retriever Base V1
Silver Retriever是一个针对波兰语的神经检索模型,专门用于句子相似度和段落检索任务。
文本嵌入
Transformers

其他
S
ipipan
554
11
Vectorizer V1 S En
由Sinequa开发的向量化器,能够根据段落或查询生成嵌入向量,用于句子相似度计算和特征提取。
文本嵌入
Transformers

英语
V
sinequa
304
0
Rubert Tiny Questions Classifier
MIT
这是一个基于ruBert-tiny的俄语问题分类模型,用于区分精确问题和非精确问题。
文本分类
Transformers

其他
R
Den4ikAI
20
3
Paraphrase Multilingual Mpnet Base V2 Embedding All
Apache-2.0
该模型是基于paraphrase-multilingual-mpnet-base-v2微调的版本,支持英语和德语句子相似度计算,适用于多语言文本嵌入任务。
文本嵌入
Transformers

支持多种语言
P
LLukas22
28
8
Roberta Finetuned City
基于deepset/roberta-base-squad2微调的模型,具体用途未明确说明
大型语言模型
Transformers

R
svo2
19
0
Bert Base Chinese Qa
Gpl-3.0
提供繁体中文的transformers模型及自然语言处理工具
问答系统
Transformers

中文
B
ckiplab
58
7
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
这是DistilBERT基础未编码模型的INT8量化版本,专为问答任务设计,通过训练后静态量化优化了模型大小和推理速度。
问答系统
Transformers

D
Intel
1,737
4
Bert Large Uncased Finetuned Squadv1
基于BERT-large模型在SQuADv1数据集上微调的问答模型,采用二阶剪枝技术优化
问答系统
Transformers

英语
B
RedHatAI
35
1
Nf Cats
MIT
基于RoBERTa的问答分类模型,用于识别非事实性问题的类别
文本分类
Transformers

英语
N
Lurunchik
245
5
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-cased-distilled-squad微调的版本,适用于问答任务
问答系统
Transformers

D
ms12345
14
0
Deberta Base Finetuned Squad1 Aqa Newsqa
MIT
基于DeBERTa-base模型在SQuAD1、AQA和NewsQA数据集上微调的问答模型
问答系统
Transformers

D
stevemobs
15
0
Deberta Base Combined Squad1 Aqa And Newsqa
MIT
基于DeBERTa-base架构的问答模型,在SQuAD1、AQA和NewsQA数据集上联合微调
问答系统
Transformers

D
stevemobs
15
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
该模型是基于distilbert-base-uncased在SQuAD对抗数据集上微调的版本,适用于问答任务。
问答系统
Transformers

D
stevemobs
15
0
Roberta Base Use Qa Bg
MIT
这是一个多语言Roberta模型,可用于生成保加利亚语句子的嵌入向量,训练灵感来源于Sentence-BERT,教师模型为谷歌的USE模型。
文本嵌入
Transformers

其他
R
rmihaylov
14
0
607 Project Adversarial
一个在 adversarial_qa 数据集上训练的问答模型,用于回答对抗性问题。
问答系统
Transformers

6
KrishnaAgarwal16
22
0
Sentence BERTino
Apache-2.0
基于sentence-transformers的意大利语句子嵌入模型,可将文本映射到768维向量空间
文本嵌入
Transformers

其他
S
efederici
51
5
Bert Large Uncased Squadv1.1 Sparse 80 1x4 Block Pruneofa
Apache-2.0
这是一个通过知识蒸馏对预训练的80% 1x4块稀疏Prune OFA BERT-Large模型进行微调得到的模型,在SQuADv1.1问答任务上表现优异。
问答系统
Transformers

英语
B
Intel
15
1
Linkbert Large
Apache-2.0
LinkBERT-large是基于英文维基百科及书籍语料库预训练的改进型BERT模型,通过整合文档链接信息增强跨文档知识理解能力。
大型语言模型
Transformers

英语
L
michiyasunaga
2,042
12
Bert Base Uncased Squadv1 X1.84 F88.7 D36 Hybrid Filled V1
MIT
这是一个通过nn_pruning库剪枝优化的问答模型,保留了50%原始权重,在SQuAD v1上微调,F1值达88.72
问答系统
Transformers

英语
B
madlag
30
0
Distilbert Base Uncased Squad2 With Ner With Neg With Multi
基于DistilBERT的问答与命名实体识别多任务模型,在conll2003数据集上微调
问答系统
Transformers

D
andi611
20
0
Bert Large Uncased Whole Word Masking Squad2 With Ner Mit Restaurant With Neg With Repeat
该模型是基于bert-large-uncased-whole-word-masking-squad2在squad_v2和mit_restaurant数据集上微调的版本,支持标记分类任务。
序列标注
Transformers

英语
B
andi611
18
0
Xlm Roberta Longformer Base 4096
Apache-2.0
基于XLM-R扩展的长序列处理模型,支持最长4096标记的序列处理,适用于多语言任务
大型语言模型
Transformers

其他
X
markussagen
9,499
37
Distilbert Base Squad2 Custom Dataset
基于Distilbert_Base微调的SQuAD2.0及自定义问答数据集模型,专注于高效问答任务
问答系统
Transformers

D
superspray
17
0
Dkrr Dpr Nq Retriever
FiD是一种基于知识蒸馏的问答系统模型,通过将阅读器模型的知识蒸馏到检索器中,提高问答系统的效率。
问答系统
Transformers

D
castorini
38
0
Question Vs Statement Classifier
该模型用于区分问题查询与陈述查询,专为通过Haystack分类功能实现神经搜索查询分类而训练。
文本分类
Transformers

英语
Q
shahrukhx01
71.37k
43
Distilbert Base Uncased Squad2 With Ner With Neg With Multi With Repeat
基于distilbert-base-uncased-squad2在conll2003数据集上微调的问答与命名实体识别模型
问答系统
Transformers

D
andi611
20
0
Distilbert Zwnj Wnli Mean Tokens
这是一个基于DistilBERT架构的句子嵌入模型,专门用于计算句子相似度任务。
文本嵌入
Transformers

D
m3hrdadfi
46
1
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文