Arshstory
MIT
基于Llama架构的5亿参数文本生成模型,专为创作故事而设计。
文本生成
Transformers

A
arshiaafshani
131
1
OPENCLIP SigLIP Tiny 14 Distill SigLIP 400m Cc9m
MIT
一个基于SigLIP架构的轻量级视觉语言模型,通过蒸馏技术从更大的SigLIP-400m模型中提取知识,适用于零样本图像分类任务。
图像分类
O
PumeTu
30
0
Llama 3.2 400M Amharic
这是一个基于Meta公司Llama-3.2-1B模型的精简版本,专门针对阿姆哈拉语进行预训练,包含4亿参数,上下文长度为1024个标记。
大型语言模型
Transformers 其他

L
rasyosef
310
3
Vit Betwixt Patch32 Clip 224.tinyclip Laion400m
MIT
基于ViT架构的小型CLIP模型,适用于零样本图像分类任务,训练于LAION-400M数据集。
图像分类
V
timm
113
1
GPT NeoX 1.3B Viet Final GGUF
基于31.3GB越南语数据预训练的1.3B参数GPT-NeoX模型
大型语言模型 英语
G
afrideva
170
1
Twibert
MIT
TwiBERT是一款专为加纳及西非地区广泛使用的特威语设计的预训练语言模型
大型语言模型
Transformers 其他

T
sakrah
16
3
Kinyaroberta Small
这是一个基于基尼亚卢旺达语数据集、采用掩码语言建模(MLM)目标预训练的RoBERTa模型,使用无大小写区分标记进行预训练。
大型语言模型
Transformers

K
jean-paul
38
0
Roberta Med Small 1M 1
基于1M tokens小规模数据预训练的RoBERTa模型,采用MED-SMALL架构,适用于文本理解任务。
大型语言模型
R
nyu-mll
23
1
Roberta Base 100M 3
在1M至1B词元规模数据集上预训练的RoBERTa变体,包含BASE和MED-SMALL两种规格,适用于资源有限场景下的自然语言处理任务
大型语言模型
R
nyu-mll
18
0
Roformer Chinese Char Small
RoFormer是基于旋转位置编码(Rotary Position Embedding)增强的中文Transformer模型,适用于文本填充任务。
大型语言模型 中文
R
junnyu
24
0
It5 Small
Apache-2.0
IT5是首个针对意大利语进行大规模序列到序列Transformer模型预训练的模型家族,遵循原始T5模型的方法。
大型语言模型 其他
I
gsarti
220
2
Gpt2 Small Indonesian 522M
MIT
这是一个基于印尼语维基百科数据预训练的GPT2-small模型,专注于印尼语文本生成任务。
大型语言模型 其他
G
cahya
1,900
9
Roberta Base 10M 1
基于不同规模数据集(1M-1B词元)预训练的RoBERTa系列模型,包含BASE和MED-SMALL两种规格
大型语言模型
R
nyu-mll
13
1
Roberta Base 100M 1
基于1B词元规模预训练的RoBERTa基础模型,验证困惑度为3.93,适用于英语文本处理任务。
大型语言模型
R
nyu-mll
63
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文