Qwen2.5 0.5B Instruct Gensyn Swarm Fierce Placid Whale
基于Gensyn/Qwen2.5-0.5B-Instruct微调的版本,采用TRL框架和GRPO算法训练
大型语言模型
Transformers

Q
gangchen
3,053
2
Videollama2 72B
Apache-2.0
VideoLLaMA 2是一个多模态大语言模型,专注于视频理解和时空建模,支持视频和图像输入,能够进行视觉问答和对话任务。
文本生成视频
Transformers

英语
V
DAMO-NLP-SG
26
10
Bloomz 560m Retriever V2
Openrail
基于Bloomz-560m-dpo-chat模型的双编码器,用于将文章和查询映射到同一向量空间,支持法语和英语的跨语言检索。
文本嵌入
Transformers

支持多种语言
B
cmarkea
17
2
JARVIS
Apache-2.0
基于因果语言建模(CLM)架构的对话AI,专为自然语言交互设计,能够生成连贯且符合上下文的响应。
大型语言模型
Transformers

支持多种语言
J
VAIBHAV22334455
38
12
CAG Mistral 7b
MIT
基于Mistral-7B微调的70亿参数可信度感知生成模型,具备理解并运用上下文可信度进行内容生成的能力。
大型语言模型
Transformers

英语
C
ruotong-pan
37
1
Bloomz 3b Reranking
Openrail
基于Bloomz-3b构建的跨语言重排序模型,用于衡量查询与上下文之间的语义相关性,支持法语和英语。
大型语言模型
Transformers

支持多种语言
B
cmarkea
115
1
Rtlcoder Deepseek V1.1
Apache-2.0
该模型的具体信息未在提供的论文中明确描述。
大型语言模型
Transformers

R
ishorn5
232
4
Blurdus 7b V0.1
Apache-2.0
Blurdus-7b-v0.1是通过LazyMergekit合并三个7B参数模型得到的混合模型,在多个基准测试中表现优异。
大型语言模型
Transformers

B
gate369
80
1
Smol Llama 101M Chat V1
Apache-2.0
一个101M参数的轻量级Llama聊天模型,基于smol_llama-101M-GQA微调,适用于对话生成任务。
大型语言模型
Transformers

英语
S
Felladrin
127
10
Q Align Iqa
MIT
这是一个通过arXiv论文2312.17090发布的多模态模型,可能具备文本和视觉处理能力
大型语言模型
Transformers

Q
q-future
43
1
Idefics 9b Instruct
其他
IDEFICS 是 Deepmind 开发的闭源视觉语言模型 Flamingo 的开源复现版本,是一个多模态模型,可以接受任意序列的图像和文本输入,并生成文本输出。
图像生成文本
Transformers

英语
I
HuggingFaceM4
28.34k
104
Instructblip Vicuna 7b
其他
InstructBLIP是基于BLIP-2的视觉指令调优版本,采用Vicuna-7B作为语言模型,专注于视觉语言任务。
图像生成文本
Transformers

英语
I
Salesforce
20.99k
91
Promptcap Coco Vqa
Openrail
PromptCap是一个可通过自然语言指令控制的图像描述生成模型,支持视觉问答和通用描述生成任务。
图像生成文本
Transformers

英语
P
tifa-benchmark
121
12
Bert Finetuned On Nq Short
一个在完整Natural Questions(NQ)数据集上训练的开放领域问答模型,能够回答各种事实性问题
大型语言模型
Transformers

B
eibakke
13
1
Spar Wiki Bm25 Lexmodel Query Encoder
基于BERT-base架构的密集检索器,在维基百科文章上训练,旨在模仿BM25的行为
文本嵌入
Transformers

S
facebook
80
2
Spar Wiki Bm25 Lexmodel Context Encoder
基于BERT-base架构的稠密检索器,通过维基百科文章训练以模仿BM25的行为
文本嵌入
Transformers

S
facebook
68
0
Kogpt2 Base V2
KoGPT2 是由 SKT-AI 开发的韩语 GPT-2 模型,基于 Transformer 架构,适用于多种韩语文本生成任务。
大型语言模型
韩语
K
skt
105.25k
47
BERT NLP
一个多功能的大语言模型,能够处理各种自然语言处理任务(推断信息)
大型语言模型
B
subbareddyiiit
18
0
Dpr Question Encoder Multiset Base
基于BERT的密集段落检索(DPR)问题编码器,用于开放领域问答研究,在多个QA数据集上训练
问答系统
Transformers

英语
D
facebook
17.51k
4
Sparta Msmarco Distilbert Base V1
SPARTA是基于稀疏Transformer匹配检索的高效开放域问答模型,用于信息检索任务。
问答系统
Transformers

S
BeIR
50
2
Reasonbert RoBERTa
基于RoBERTa架构的预训练模型,针对问答等任务进行了优化,具备更强的推理能力。
大型语言模型
Transformers

R
Anonymous
13
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文