Flarenew
MIT
LaMini-Flan-T5-783M 是一个基于T5架构的轻量级文本生成模型,支持英语、俄语和乌克兰语,适用于多种自然语言处理任务。
大型语言模型
Transformers

支持多种语言
F
HaveAI
718
1
Openrs3 GRPO Ja
OpenRS3-GRPO-ja是基于SakanaAI/TinySwallow-1.5B-Instruct模型在日语数学指令数据集上微调的版本,采用GRPO方法训练,专注于数学推理任务。
大型语言模型
Transformers

O
EQUES
25
3
Flower Calvin Abc
MIT
FlowerVLA是一个针对机器人操作任务预训练的视觉-语言-动作模型,基于CALVIN ABC数据集训练,采用高效的流匹配架构,仅约10亿参数。
多模态融合
英语
F
mbreuss
20
3
Teacher Persona GGUF
Qwen2-1.5B-Instruct 是阿里云推出的一个15亿参数规模的指令微调大语言模型,适用于问答和对话任务。
大型语言模型
T
RyZhangHason
24
1
Reasonablellama3 3B Jr
基于LLaMA-3B构建的微调推理模型,增强推理能力,支持多语言处理
大型语言模型
支持多种语言
R
adeelahmad
1,173
6
Kanana Nano 2.1b Base
Kanana是由Kakao开发的双语大语言模型系列,在韩语任务上表现卓越,同时在英语任务上保持竞争力。
大型语言模型
Transformers

支持多种语言
K
kakaocorp
4,039
33
Cuckoo C4
MIT
布谷鸟是一个小型(3亿参数)信息抽取模型,通过模仿大语言模型的下一词预测范式进行高效信息抽取
大型语言模型
Transformers

C
KomeijiForce
15
1
Llave 0.5B
Apache-2.0
LLaVE是基于LLaVA-OneVision-0.5B模型的多模态嵌入模型,参数规模为0.5B,能够对文本、图像、多图像和视频进行嵌入。
多模态融合
Transformers

英语
L
zhibinlan
2,897
7
Lava Phi
MIT
基于微软Phi-1.5架构的视觉语言模型,结合CLIP实现图像处理能力
图像生成文本
Transformers

支持多种语言
L
sagar007
17
0
Prem 1B SQL
Apache-2.0
Prem-1B-SQL是Prem AI开发的10亿参数文本转SQL模型,专为本地化部署设计,支持低配GPU和CPU设备运行。
大型语言模型
Safetensors
英语
P
premai-io
521
35
Phi 3.5 Mini ITA
MIT
基于Microsoft/Phi-3.5-mini-instruct微调的版本,优化了意大利语性能的小型但强大的语言模型
大型语言模型
Transformers

支持多种语言
P
anakin87
8,495
13
Llava Phi 3 Mini Hf
基于Phi-3-mini-4k-instruct和CLIP-ViT-Large-patch14-336微调的LLaVA模型,支持图像转文本任务
图像生成文本
Transformers

L
xtuner
2,322
49
Phi 2 Sft Ultrachat Full
MIT
基于microsoft/phi-2在ultrachat_200k数据集上微调的大语言模型,适用于对话生成任务。
大型语言模型
Transformers

其他
P
lole25
68
2
EEVE Korean Instruct 2.8B V1.0
Apache-2.0
基于EEVE-Korean-2.8B-v1.0微调的韩语指令模型,采用DPO优化训练
大型语言模型
Transformers

其他
E
yanolja
2,197
24
Open Llama 3b V2 Wizard Evol Instuct V2 196k AWQ
Apache-2.0
这是一个基于Open Llama 3B V2架构的模型,使用WizardLM_evol_instruct_V2_196k数据集训练而成,适用于指令跟随任务。
大型语言模型
Transformers

英语
O
TheBloke
64
1
Cappy Large
Apache-2.0
Cappy是一款预训练的小型评分器,旨在提升多任务大语言模型(LLM)的性能与效率。
大型语言模型
C
btan2
72
21
Tinyllama 110M
MIT
这是一个基于TinyStories数据集训练的1.1亿参数Llama 2架构模型,适用于轻量级文本生成任务。
大型语言模型
Transformers

T
nickypro
1,472
5
Phi 1
MIT
Phi-1是一个13亿参数的Transformer模型,专为Python基础编程设计,在HumanEval基准测试中准确率超过50%
大型语言模型
Transformers

支持多种语言
P
microsoft
7,907
211
Open Cabrita3b GGUF
Apache-2.0
Open Cabrita 3B 是一个针对葡萄牙语优化的开源大语言模型,基于LLaMA架构,旨在缩小外语与英语模型之间的性能差距。
大型语言模型
其他
O
lucianosb
352
6
Tiny Starcoder Py
Openrail
这是一个拥有1.64亿参数的Python代码生成模型,基于StarCoder架构,专门针对Python代码生成任务进行了优化。
大型语言模型
Transformers

T
bigcode
1,886
74
Lamini T5 61M
LaMini-T5-61M是基于T5-small架构,在LaMini-instruction数据集上微调的指令跟随模型,参数规模为61M。
大型语言模型
Transformers

英语
L
MBZUAI
1,287
18
Norbert3 Xs
Apache-2.0
NorBERT 3 xs 是一个针对挪威语优化的BERT模型,属于新一代NorBERT语言模型系列中的最小版本,参数量为15M。
大型语言模型
Transformers

其他
N
ltg
228
4
Klue Roberta Small Nli Sts
这是一个基于KLUE-RoBERTa-small的韩语句子转换器模型,专门用于句子相似度计算和自然语言推理任务。
文本嵌入
Transformers

韩语
K
ddobokki
141
4
Gpt Neo 125M Code Search Py
基于GPT-Neo-125M微调的Python代码自动补全模型,专注于方法补全任务
大型语言模型
G
flax-community
17
0
Mt5 Multitask Qa Qg Turkish
Apache-2.0
这是一个基于mT5-small模型的多任务系统,专门针对土耳其语设计,能够执行答案提取、问题生成和问答三项任务。
问答系统
其他
M
ozcangundes
114
9
Gpt2 Small Indonesian
基于因果语言建模目标预训练的印尼语生成模型,使用Flax框架在TPUv3-8上训练
大型语言模型
其他
G
flax-community
290
5
Gpt2
基于因果语言建模目标预训练的印尼语生成模型,使用Flax框架训练
大型语言模型
其他
G
indonesian-nlp
130
11
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文