Mimo 7B RL Zero
MIT
MiMo-7B 是小米推出的专为推理任务设计的语言模型系列,包括基础模型、SFT模型和RL模型,在数学和代码推理任务上表现优异。
大型语言模型
Transformers

M
XiaomiMiMo
216
14
Mimo 7B Base
MIT
小米推出的7B参数规模推理专用语言模型系列,通过优化预训练和后训练策略显著提升数学与代码推理能力
大型语言模型
Transformers

M
XiaomiMiMo
12.75k
101
Visualthinker R1 Zero
MIT
首个在仅一个非监督微调的2B模型上复现'顿悟时刻'和响应长度增加的多模态推理模型
图像生成文本
英语
V
turningpoint-ai
578
6
STILL 3 1.5B Preview
STILL-3-1.5B-preview是一款采用强化学习技术增强推理能力的慢思考模型,在AIME基准测试中达到39.33%准确率
大型语言模型
Transformers

S
RUC-AIBOX
2,186
10
Llava Phi2
MIT
Llava-Phi2是基于Phi2的多模态实现,结合了视觉和语言处理能力,适用于图像文本到文本的任务。
图像生成文本
Transformers

英语
L
RaviNaik
153
6
Codet5 Small Custom Functions Dataset Python
Apache-2.0
基于Salesforce/codet5-small微调的Python代码生成模型,专注于自定义函数生成任务
大型语言模型
Transformers

C
sharoz
43
1
Convnext Tiny 224 Wikiart
Apache-2.0
该模型是基于facebook/convnext-tiny-224在huggan/wikiart数据集上微调的图像分类模型,主要用于艺术作品分类任务。
图像分类
Transformers

C
davanstrien
16
0
Multilingual Minilm Amazon Massive Intent
MIT
基于Microsoft Multilingual-MiniLM模型在MASSIVE数据集上微调的意图分类模型,支持多语言理解
文本分类
Transformers

支持多种语言
M
cartesinus
32
5
Electra Small Finetuned Squadv2
Apache-2.0
基于Electra-small-discriminator模型在SQuAD v2.0数据集上微调的问答模型,适用于区分可回答与不可回答问题的场景
问答系统
Transformers

英语
E
mrm8488
51
1
T5 Small Finetuned Xsum
Apache-2.0
基于T5-small模型在xsum数据集上微调的文本摘要生成模型
文本生成
Transformers

T
aseda
16
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文