All MiniLM L2 V2
Apache-2.0
该模型是从all-MiniLM-L12-v2蒸馏而来,推理速度提升近2倍,同时在CPU和GPU上保持较高的准确度。
文本嵌入
支持多种语言
A
tabularisai
5,063
2
Treehop Rag
MIT
TreeHop是一个轻量级的嵌入级框架,用于高效处理多跳问答中的查询嵌入生成与过滤,显著降低计算开销。
问答系统
T
allen-li1231
36
3
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RL 是一个基于未知数据集从头开始训练的7B参数规模的大语言模型,结合了检索增强生成(RAG)和强化学习(RL)技术。
大型语言模型
Transformers

Q
XXsongLALA
859
7
Jina Reranker V2 Base Multilingual Wiki Tr Rag Prefix
Apache-2.0
基于jina-reranker-v2-base-multilingual微调的交叉编码器模型,用于文本重排序和语义搜索
文本嵌入
J
SMARTICT
173
0
Pleias RAG 350M
Apache-2.0
Pleias-RAG-350M是一款3.5亿参数的小型推理模型,专为检索增强生成(RAG)、搜索和来源摘要任务而训练。
大型语言模型
Transformers

支持多种语言
P
PleIAs
292
13
Reasonir 8B
ReasonIR-8B是首个专为通用推理任务训练的检索模型,在BRIGHT基准上实现了最先进的检索性能,并在RAG应用中显著提升了MMLU和GPQA基准的表现。
文本嵌入
Transformers

英语
R
reasonir
13.43k
39
Colnomic Embed Multimodal 3b
ColNomic Embed多模态3B是一款30亿参数的多模态嵌入模型,专为视觉文档检索任务设计,支持多语言文本和图像的统一编码。
多模态融合
支持多种语言
C
nomic-ai
4,636
17
Mxbai Rerank Large V2 GGUF
Apache-2.0
本仓库包含mixedbread-ai/mxbai-rerank-large-v2的GGUF格式模型文件,由TensorBlock提供的机器进行量化,兼容llama.cpp。
文本嵌入
支持多种语言
M
tensorblock
150
1
Bge Reranker V2 M3 Q4 K M GGUF
Apache-2.0
本模型是基于BAAI/bge-reranker-v2-m3转换的GGUF格式模型,用于文本排序任务,支持多语言。
文本嵌入
其他
B
sabafallah
49
0
Finseer
首个专为金融时间序列预测设计的检索器,基于检索增强生成(RAG)框架
大型语言模型
Transformers

英语
F
TheFinAI
13
1
Stockllm
FinSeer StockLLM 是一个开源的10亿参数大语言模型,专为金融时间序列预测设计,采用检索增强生成(RAG)框架。
大型语言模型
Transformers

英语
S
TheFinAI
29
1
Gen 8B R2
Apache-2.0
Gen-8B-R2是一个专注于减少RAG系统中幻觉问题的生成模型,特别适用于处理检索噪声和信息过载的情况。
大型语言模型
Transformers

英语
G
DISLab
34
2
C4ai Command A 03 2025
Cohere Labs Command A 是一个开放权重的1110亿参数模型研究版本,专为需要快速、安全且高质量AI的严苛企业需求优化。
大型语言模型
Transformers

支持多种语言
C
CohereLabs
6,416
347
Trendyol LLM 7B Chat V4.1.0
Apache-2.0
Trendyol LLM v4.1.0 是一款基于 Trendyol LLM base v4.0(在130亿token上继续预训练的Qwen2.5 7B版本)的生成模型,专注于电商领域和土耳其语理解。
大型语言模型
其他
T
Trendyol
854
25
Jbaron34 SmolLM2 135M Bebop Reranker Gguf
一个轻量级的文本排序模型,适用于重新排序搜索结果或文档
文本排序
J
RichardErkhov
855
0
Kanana Nano 2.1b Embedding
Kanana是由Kakao开发的双语(韩语/英语)语言模型系列,在韩语任务上表现卓越,在英语任务上具备竞争力,相比同规模模型显著降低计算成本。
大型语言模型
Transformers

支持多种语言
K
kakaocorp
7,722
20
Gte Qwen2 7B Instruct GGUF
Apache-2.0
阿里巴巴NLP团队开发的7B参数规模的多语言文本嵌入模型,专注于句子相似度任务,提供多种量化版本
大型语言模型
英语
G
mradermacher
510
2
Pllum 12B Nc Chat
PLLuM-12B-chat是波兰大语言模型家族中的120亿参数对话优化版本,专为波兰语及斯拉夫/波罗的海语言设计,通过指令微调和偏好学习实现安全高效的交互能力。
大型语言模型
Transformers

P
CYFRAGOVPL
2,673
6
Bge Reranker V2 M3 Q4 K M GGUF
Apache-2.0
本模型是BAAI/bge-reranker-v2-m3的GGUF量化版本,用于文本重排序任务,支持多语言。
文本嵌入
其他
B
sikreutz
46
1
Fluxi AI Small Vision
Apache-2.0
Fluxi AI 是一款基于 Qwen2-VL-7B-Instruct 的多模态智能助手,具备文本、图像和视频处理能力,特别优化了葡萄牙语支持。
图像生成文本
Transformers

其他
F
JJhooww
25
2
Jina Embeddings GGUF
Apache-2.0
Jina Embeddings V2 Base 是一个高效的英文句子嵌入模型,专注于句子相似度和特征提取任务。
文本嵌入
英语
J
narainp
139
1
Lb Reranker 0.5B V1.0
Apache-2.0
LB重排序器是用于判断查询与文本片段相关性的模型,支持95+种语言,适用于检索任务中的排序和重排序。
大型语言模型
Transformers

支持多种语言
L
lightblue
917
66
Granite 3.1 3b A800m Instruct
Apache-2.0
基于Granite-3.1-3B-A800M-Base微调的30亿参数长上下文指令模型,支持多语言任务
大型语言模型
Transformers

G
ibm-granite
36.16k
24
Ruri Base V2
Apache-2.0
Ruri是一个针对日语优化的通用文本嵌入模型,基于Sentence Transformers架构,特别设计用于句子相似度计算和特征提取任务。
文本嵌入
日语
R
cl-nagoya
12.77k
4
GATE Reranker V1
Apache-2.0
专为阿拉伯语文档检索与排序优化的高性能重排序模型
文本嵌入
Transformers

阿拉伯语
G
NAMAA-Space
615
7
Bge Reranker V2 M3 Q4 K M GGUF
Apache-2.0
该模型是从BAAI/bge-reranker-v2-m3转换而来的GGUF格式模型,用于文本重排序任务,支持多语言。
文本嵌入
其他
B
puppyM
83
1
Vikhr Nemo 12B Instruct R 21 09 24
Apache-2.0
Vikhr-Nemo是基于Mistral-Nemo-Instruct-2407优化的双语大语言模型,专为俄语和英语优化,支持逻辑推理、文本摘要、代码生成等多种任务。
大型语言模型
Transformers

支持多种语言
V
Vikhrmodels
3,707
118
Bge Reranker V2 Gemma IQ4 NL GGUF
Apache-2.0
这是BAAI/bge-reranker-v2-gemma模型的GGUF格式转换版本,适用于llama.cpp框架,支持多语言文本分类任务。
文本嵌入
其他
B
zimajava
20
1
Datagemma Rag 27b It
DataGemma是基于Gemma 2微调的系列模型,专门用于帮助大语言模型访问和整合Data Commons中的可靠公共统计数据。
大型语言模型
Transformers

D
google
691
186
Gte Qwen2 7B Instruct
Apache-2.0
基于Qwen2架构的7B参数规模的大语言模型,专注于句子相似度计算和文本嵌入任务。
大型语言模型
Transformers

G
Alibaba-NLP
169.82k
398
Phi3 Rag Relevance Judge Merge
一个用于判断参考文本与问题相关性的二元分类模型,专为RAG系统优化
大型语言模型
Transformers

P
grounded-ai
21
1
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Llm2vec Meta Llama 3 8B Instruct Mntp
MIT
LLM2Vec是将仅解码器架构的大语言模型转化为文本编码器的简易方案,通过启用双向注意力机制、掩码下一词预测和无监督对比学习实现。
文本嵌入
Transformers

英语
L
McGill-NLP
3,885
16
Llama3 ChatQA 1.5 70B
Llama3-ChatQA-1.5是基于Llama-3基础模型开发的对话式问答和检索增强生成模型,在对话式QA和RAG任务中表现卓越。
大型语言模型
Transformers

英语
L
nvidia
205
333
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 是一个英文句子转换器模型,专注于句子相似度任务,在多个文本嵌入基准测试中表现优异。
文本嵌入
Transformers

支持多种语言
G
Alibaba-NLP
1.5M
63
Snowflake Arctic Embed M Long
Apache-2.0
Snowflake Arctic M Long 是一个基于 sentence-transformers 的句子嵌入模型,专注于句子相似度和特征提取任务。
文本嵌入
Transformers

S
Snowflake
23.79k
38
Openthaigpt 1.0.0 70b Chat
OpenThaiGPT 70b 1.0.0是基于LLaMA v2的700亿参数泰语聊天模型,专门针对泰语指令进行了微调,显著提升了泰语处理能力。
大型语言模型
支持多种语言
O
openthaigpt
137
12
Llm2vec Sheared LLaMA Mntp
MIT
LLM2Vec是将仅解码器架构的大语言模型转化为文本编码器的简易方案,通过启用双向注意力、掩码下一词预测和无监督对比学习实现。
文本嵌入
Transformers

英语
L
McGill-NLP
2,430
5
Openthaigpt 1.0.0 13b Chat
OpenThaiGPT 13b 1.0.0是基于LLaMA v2的130亿参数泰语聊天模型,专门针对泰语指令进行了优化
大型语言模型
支持多种语言
O
openthaigpt
181
7
Slimplm Query Rewriting
一个用于查询改写的轻量级语言模型,能够将用户输入解析为结构化格式,优化检索效果。
大型语言模型
Transformers

S
zstanjj
53
9
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文