Consilience 40b J4iA6BRm
Nous Consilience 40B 是一个400亿参数的生成式文本模型,通过去中心化方式从零开始预训练,支持多种语言,旨在代表人类广泛的创造性产出。
大型语言模型
Safetensors
支持多种语言
C
PsycheFoundation
46
1
Vesselfm
其他
VesselFM 是一个基础模型,用于在任意成像领域中实现通用的 3D 血管分割。
图像分割
V
bwittmann
153
4
MOMENT 1 Small
MIT
MOMENT是一系列通用时间序列分析的基础模型,支持多种时间序列任务,具备开箱即用的有效性,并可通过微调提升性能。
材料科学
Transformers

M
AutonLab
38.03k
4
Timemoe 200M
Apache-2.0
TimeMoE-200M 是一个基于专家混合(Mixture of Experts, MoE)架构的十亿级时间序列基础模型,专注于时间序列预测任务。
气候模型
T
Maple728
14.01k
7
Timemoe 50M
Apache-2.0
TimeMoE是一个基于专家混合(MoE)架构的十亿级时间序列基础模型,专注于时间序列预测任务。
材料科学
T
Maple728
22.02k
13
Albertina 100m Portuguese Ptpt Encoder
MIT
Albertina 100M PTPT 是一个面向欧洲葡萄牙语(葡萄牙)的基础大语言模型,属于BERT家族的编码器,基于Transformer神经网络架构,并在DeBERTa模型基础上开发。
大型语言模型
Transformers

其他
A
PORTULAN
171
4
Gpt3 Finnish Large
Apache-2.0
图尔库大学开发的8.81亿参数芬兰语生成式预训练Transformer模型,基于BLOOM架构
大型语言模型
Transformers

其他
G
TurkuNLP
627
8
Doyying Bert First Again
这是一个由Keras回调生成的模型,具体信息未完全提供
大型语言模型
Transformers

D
DoyyingFace
16
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文