Pythia 1b
Apache-2.0
Pythia-1B是EleutherAI开发的可解释性研究专用语言模型,属于Pythia套件中的10亿参数规模版本,基于The Pile数据集训练。
大型语言模型
Transformers

英语
P
EleutherAI
79.69k
38
Pythia 12b
Apache-2.0
Pythia-12B是EleutherAI开发的可扩展语言模型套件中的最大模型,拥有120亿参数,专为促进大语言模型科学研究而设计
大型语言模型
Transformers

英语
P
EleutherAI
9,938
136
Pythia 6.9b
Apache-2.0
Pythia-6.9B是EleutherAI开发的大规模语言模型,属于Pythia可扩展套件的一部分,专为促进可解释性研究而设计。
大型语言模型
Transformers

英语
P
EleutherAI
46.72k
54
Pythia 1b Deduped
Apache-2.0
Pythia-10亿去重版是EleutherAI开发的可解释性研究专用语言模型,基于去重Pile数据集训练,采用Transformer架构,参数规模10亿
大型语言模型
Transformers

英语
P
EleutherAI
19.89k
19
Pythia 410m
Apache-2.0
Pythia是EleutherAI开发的一系列因果语言模型,专为可解释性研究设计,包含从7000万到120亿参数的8种规模,提供154个训练检查点
大型语言模型
Transformers

英语
P
EleutherAI
83.28k
25
Pythia 2.8b
Apache-2.0
Pythia-28亿是EleutherAI开发的可扩展语言模型套件中的一员,专为促进大语言模型的可解释性研究而设计。
大型语言模型
Transformers

英语
P
EleutherAI
40.38k
30
Pythia 1.4b
Apache-2.0
Pythia-1.4B是EleutherAI开发的12亿参数因果语言模型,属于Pythia规模套件的一部分,专为可解释性研究设计。
大型语言模型
Transformers

英语
P
EleutherAI
60.98k
23
Pythia 160m
Apache-2.0
Pythia-160M是EleutherAI开发的可解释性研究专用语言模型,属于Pythia套件中的160M参数规模版本,基于Transformer架构,训练于Pile数据集。
大型语言模型
Transformers

英语
P
EleutherAI
163.75k
31
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文