Qwen2.5 Vl 7b Cam Motion Preview
其他
基于Qwen2.5-VL-7B-Instruct微调的摄像机运动分析模型,专注于视频中的摄像机运动分类和视频-文本检索任务
视频生成文本
Transformers

Q
chancharikm
1,456
10
Skywork VL Reward 7B
MIT
Skywork-VL-Reward-7B是一个7B参数的多模态奖励模型,基于Qwen2.5-VL-7B-Instruct架构,增加了用于训练奖励模型的价值头结构。
多模态融合
Transformers

S
Skywork
30
8
Reranker Gte Multilingual Base Msmarco Bce Ep 2
基于sentence-transformers库在msmarco数据集上训练的交叉编码器模型,用于文本重排序和语义搜索
文本嵌入
支持多种语言
R
skfrost19
28
0
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
ayushexel
30
0
Reranker Ms Marco MiniLM L6 V2 Gooaq Bce
Apache-2.0
这是一个从cross-encoder/ms-marco-MiniLM-L6-v2微调而来的交叉编码器模型,使用sentence-transformers库开发。
文本嵌入
英语
R
ayushexel
15
1
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
89
4
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
这是一个基于MiniLM-L12-H384-uncased微调的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
1,019
3
ARA Reranker V1
Apache-2.0
专为阿拉伯语重排序任务设计的模型,能精准处理查询与段落的关系,直接评估问题与文档之间的相似性,输出相关性分数。
文本嵌入
Transformers

阿拉伯语
A
Omartificial-Intelligence-Space
795
3
Fsfairx LLaMA3 RM V0.1
基于Meta-Llama-3-8B-Instruct训练的奖励模型,用于RLHF流程中的奖励建模,支持PPO、迭代SFT和迭代DPO方法。
大型语言模型
Transformers

F
sfairXC
4,157
56
BLEURT 20
BLEURT-20是一个基于Transformer架构的自动评估指标模型,用于评估机器生成文本的质量。
大型语言模型
Transformers

B
lucadiliello
17.76k
5
Cross Encoder Umberto Stsb
基于Umberto架构的意大利语句子相似度计算交叉编码器模型
文本嵌入
Transformers

其他
C
efederici
34
0
Korean Sentiment
这是一个用于韩文文本情感分析的模型,能够判断文本的情感倾向(积极/消极)。
文本分类
Transformers

K
matthewburke
3,049
17
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文