小模型高效
Mimo 7B RL Zero
MIT
MiMo-7B 是小米推出的专为推理任务设计的语言模型系列,包括基础模型、SFT模型和RL模型,在数学和代码推理任务上表现优异。
大型语言模型
Transformers
M
XiaomiMiMo
216
14
Mimo 7B Base
MIT
小米推出的7B参数规模推理专用语言模型系列,通过优化预训练和后训练策略显著提升数学与代码推理能力
大型语言模型
Transformers
M
XiaomiMiMo
12.75k
101
Visualthinker R1 Zero
MIT
首个在仅一个非监督微调的2B模型上复现'顿悟时刻'和响应长度增加的多模态推理模型
图像生成文本
英语
V
turningpoint-ai
578
6
STILL 3 1.5B Preview
STILL-3-1.5B-preview是一款采用强化学习技术增强推理能力的慢思考模型,在AIME基准测试中达到39.33%准确率
大型语言模型
Transformers
S
RUC-AIBOX
2,186
10
Llava Phi2
MIT
Llava-Phi2是基于Phi2的多模态实现,结合了视觉和语言处理能力,适用于图像文本到文本的任务。
图像生成文本
Transformers
英语
L
RaviNaik
153
6
Codet5 Small Custom Functions Dataset Python
Apache-2.0
基于Salesforce/codet5-small微调的Python代码生成模型,专注于自定义函数生成任务
大型语言模型
Transformers
C
sharoz
43
1
Convnext Tiny 224 Wikiart
Apache-2.0
该模型是基于facebook/convnext-tiny-224在huggan/wikiart数据集上微调的图像分类模型,主要用于艺术作品分类任务。
图像分类
Transformers
C
davanstrien
16
0
Multilingual Minilm Amazon Massive Intent
MIT
基于Microsoft Multilingual-MiniLM模型在MASSIVE数据集上微调的意图分类模型,支持多语言理解
文本分类
Transformers
支持多种语言
M
cartesinus
32
5
Electra Small Finetuned Squadv2
Apache-2.0
基于Electra-small-discriminator模型在SQuAD v2.0数据集上微调的问答模型,适用于区分可回答与不可回答问题的场景
问答系统
Transformers
英语
E
mrm8488
51
1
T5 Small Finetuned Xsum
Apache-2.0
基于T5-small模型在xsum数据集上微调的文本摘要生成模型
文本生成
Transformers
T
aseda
16
0