Japanese Reranker Xsmall V2
MIT
这是一个非常小巧且快速的日语重排序模型,适用于提升RAG系统的精度。
文本嵌入
日语
J
hotchpotch
260
1
Nomic Embed Code GGUF
Apache-2.0
Nomic代码嵌入模型是一款顶尖的代码检索工具,支持多种编程语言,擅长代码检索任务。
文本嵌入
N
nomic-ai
1,300
4
Chonky Modernbert Large 1
MIT
Chonky是一款能够智能地将文本分割成有意义的语义块的Transformer模型,适用于RAG系统。
序列标注
Transformers

英语
C
mirth
54
2
Fin Mpnet Base
这是一个经过微调的sentence-transformers模型,专为金融文档检索任务优化,同时保持通用性能。
文本嵌入
其他
F
mukaj
131.16k
7
Chonky Modernbert Base 1
MIT
Chonky是一款能智能将文本分割成有意义语义块的Transformer模型,可用于RAG系统。
序列标注
Transformers

英语
C
mirth
221
1
Chonky Distilbert Base Uncased 1
MIT
Chonky是一款能够智能地将文本分割成有意义的语义块的Transformer模型,适用于RAG系统。
序列标注
Transformers

英语
C
mirth
1,486
12
Nomic Embed Multimodal 7b
Apache-2.0
70亿参数的多模态嵌入模型,专精于视觉文档检索任务,在Vidore-v2基准测试中表现卓越
文本生成图像
支持多种语言
N
nomic-ai
741
26
Embedder Collection
德语和英语的多语言嵌入模型,支持8192令牌的上下文长度
文本嵌入
支持多种语言
E
kalle07
6,623
10
Bert Chunker Chinese 2
MIT
基于BertForTokenClassification构建的中文文本分块工具,特别适用于处理非结构化杂乱文本
序列标注
支持多种语言
B
tim1900
41
1
Granite Question Classifier
MIT
基于 IBM Granite 嵌入模型微调的问题分类器,用于区分通用问题和定向问题
文本分类
Transformers

支持多种语言
G
cnmoro
22
2
Bert Chunker 2
Apache-2.0
基于BERT的文本分块器,通过分类器头部预测分块的起始标记,采用滑动窗口技术处理任意长度文档,适用于结构化和非结构化文本。
序列标注
Safetensors
支持多种语言
B
tim1900
81
1
ARA Reranker V1
Apache-2.0
专为阿拉伯语重排序任务设计的模型,能精准处理查询与段落的关系,直接评估问题与文档之间的相似性,输出相关性分数。
文本嵌入
Transformers

阿拉伯语
A
Omartificial-Intelligence-Space
795
3
Halong Embedding
Apache-2.0
专注于RAG(检索增强生成)和生产效率的越南语文本嵌入模型,基于intfloat/multilingual-e5-base微调
文本嵌入
支持多种语言
H
hiieu
7,651
29
Phi 3 Context Obedient RAG
基于microsoft/Phi-3-mini-128k-instruct优化的模型,专注于提升上下文遵循能力和减少幻觉现象,适用于RAG应用场景。
大型语言模型
Transformers

P
TroyDoesAI
19
28
Finance Embeddings Investopedia
这是FinLang团队为金融应用开发的Investopedia嵌入模型,基于BAAI/bge-base-en-v1.5微调,可将句子和段落映射到768维稠密向量空间,适用于金融领域的语义搜索等任务。
文本嵌入
F
FinLang
21.25k
32
Text2vec Base Chinese Rag
Apache-2.0
专为中文文本语义理解设计的CoSENT框架模型,适用于检索增强生成(RAG)任务
文本嵌入
Transformers

T
Mike0307
46.60k
9
Bce Embedding Base V1
Apache-2.0
BCEmbedding是网易有道研发的双语跨语言嵌入模型库,包含EmbeddingModel(语义向量生成)和RerankerModel(结果精排)两类模型。
文本嵌入
Transformers

支持多种语言
B
maidalun1020
69.82k
375
Ko Reranker
MIT
基于BAAI/bge-reranker-large针对韩语数据进行微调的Reranker模型,用于提升韩语检索增强生成(RAG)性能
文本嵌入
Transformers

支持多种语言
K
Dongjin-kr
34.08k
59
Loquace 7B Mistral
Apache-2.0
Loquace是一个会说意大利语、经过指令微调的大语言模型,旨在推动AI和LLM在意大利的民主化。
大型语言模型
Transformers

其他
L
cosimoiaia
17
15
Inkbot 13B 8k 0.2
Inkbot是一款专为解析和响应结构化提示而设计的对话式AI模型,支持含上下文和无上下文的动态对话。
大型语言模型
Transformers

I
Tostino
32
68
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文