GP MoLFormer Uniq
Apache-2.0
GP-MoLFormer是基于ZINC和PubChem中6.5亿至11亿分子SMILES字符串表示进行预训练的化学语言模型,专注于分子生成任务。
分子模型
Transformers

G
ibm-research
122
1
Materials.selfies Ted
Apache-2.0
基于Transformer架构的编码器-解码器模型,专为使用SELFIES进行分子表征而设计
分子模型
Transformers

M
ibm-research
3,343
7
Bartsmiles
BARTSmiles是一个基于BART架构的生成式掩码语言模型,专门用于分子表征和SMILES字符串处理。
分子模型
Transformers

B
gayane
260
3
Molformer XL Both 10pct
Apache-2.0
MoLFormer是基于ZINC和PubChem中11亿分子SMILES字符串预训练的化学语言模型,本版本使用两个数据集各10%样本训练
分子模型
Transformers

M
ibm-research
171.96k
19
Molgen 7b
Apache-2.0
基于分子语言SELFIES构建的大型分子生成模型,可用于从头生成分子或补全部分分子结构。
分子模型
Transformers

M
zjunlp
150
8
Bert Base Smiles
Openrail
这是一个在SMILES(简化分子线性输入系统)字符串上预训练的双向转换器模型,主要用于分子相关任务。
分子模型
Transformers

B
unikei
3,688
7
Wgan Molecular Graphs
该模型使用WGAN-GP和R-GCN架构生成新型分子图结构,可加速药物发现过程。
分子模型
W
keras-io
28
5
Chemgpt 1.2B
ChemGPT是基于GPT-Neo模型的生成式分子建模工具,专注于化学领域的分子生成与研究。
分子模型
Transformers

C
ncfrey
409
14
Pretrained Smiles Pubchem10m
该模型是基于PubChem数据库中1000万SMILES字符串进行预训练的化学信息学模型,主要用于分子表示学习和化学性质预测。
分子模型
Transformers

P
pchanda
509
1
Smilestokenizer PubChem 1M
该模型是基于PubChem 77M数据集中的100万SMILES训练的RoBERTa模型,使用Smiles-Tokenizer工具进行分词,适用于分子表示学习和化学信息处理任务。
分子模型
Transformers

S
DeepChem
134
5
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文