预训练基础模型
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
气候模型
Safetensors
C
amazon
340.81k
10
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测值。
气候模型
C
amazon
392.39k
19
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列基于T5架构的预训练时间序列基础模型,通过创新分块编码和直接多步预测实现高效时序预测
气候模型
Safetensors
C
autogluon
6.2M
13
Chronos Bolt Mini
Apache-2.0
Chronos-Bolt是一系列可用于零样本预测的预训练时间序列预测模型,基于T5编码器-解码器架构,在近1000亿条时间序列观测数据上训练。
气候模型
Safetensors
C
autogluon
360.42k
7
Chronos Bolt Tiny
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
气候模型
Safetensors
C
autogluon
68.20k
11
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列预训练的时间序列预测模型,支持零样本预测,精度高且推理速度快。
气候模型
C
autogluon
4.7M
22
Test Patchtst
Apache-2.0
PatchTST是一个预训练的时间序列基础模型,专注于时间序列预测任务。
气候模型
T
ibm-research
5,593
0
Britllm 3b V0.1
BritLLM是一个未经加工的预训练模型,支持多种英国本土语言,适用于多种自然语言处理任务,但需要进一步微调以适应大多数使用场景。
大型语言模型
Transformers
支持多种语言
B
britllm
151
5
Moirai 1.1 R Large
Moirai-1.1-R是Salesforce推出的时间序列预测基础模型,针对低频数据预测性能显著提升。
气候模型
Transformers
M
Salesforce
14.11k
26
Zamba 7B V1 Phase1
Apache-2.0
Zamba-7B-v1-phase1是状态空间模型Mamba与Transformer的混合架构,以Mamba为主干网络,每6个模块共享一个Transformer层,通过下一词预测进行训练。
大型语言模型
Transformers
Z
Zyphra
22
5
Minerva 1B Base V1.0
Apache-2.0
Minerva-1B-base-v1.0是由Sapienza NLP与FAIR及CINECA合作开发的10亿参数意英双语大语言模型,基于2000亿token(各1000亿意/英)训练
大型语言模型
Transformers
支持多种语言
M
sapienzanlp
551
28
Mixtral 8x22B V0.1
Apache-2.0
Mixtral-8x22B是一个预训练的生成式稀疏混合专家模型,支持多种语言。
大型语言模型
Transformers
支持多种语言
M
mistralai
1,032
220
VBART Small Base
VBART 是首个基于土耳其语语料库从头开始大规模预训练的序列到序列大型语言模型,由 VNGRS 开发。
大型语言模型
Transformers
其他
V
vngrs-ai
92
4
VBART Medium Base
VBART是首个基于土耳其语语料库从头开始大规模预训练的序列到序列大型语言模型,由VNGRS开发。
大型语言模型
Transformers
其他
V
vngrs-ai
61
3
Chronos T5 Mini
Apache-2.0
Chronos-T5是基于语言模型架构的预训练时间序列预测模型,通过将时间序列转换为标记序列并利用交叉熵损失训练语言模型,实现概率预测。
气候模型
Transformers
C
amazon
61.15k
16