药物发现
GP MoLFormer Uniq
Apache-2.0
GP-MoLFormer是基于ZINC和PubChem中6.5亿至11亿分子SMILES字符串表示进行预训练的化学语言模型,专注于分子生成任务。
分子模型
Transformers
G
ibm-research
122
1
Materials.selfies Ted
Apache-2.0
基于Transformer架构的编码器-解码器模型,专为使用SELFIES进行分子表征而设计
分子模型
Transformers
M
ibm-research
3,343
7
Bartsmiles
BARTSmiles是一个基于BART架构的生成式掩码语言模型,专门用于分子表征和SMILES字符串处理。
分子模型
Transformers
B
gayane
260
3
Molformer XL Both 10pct
Apache-2.0
MoLFormer是基于ZINC和PubChem中11亿分子SMILES字符串预训练的化学语言模型,本版本使用两个数据集各10%样本训练
分子模型
Transformers
M
ibm-research
171.96k
19
Molgen 7b
Apache-2.0
基于分子语言SELFIES构建的大型分子生成模型,可用于从头生成分子或补全部分分子结构。
分子模型
Transformers
M
zjunlp
150
8
Bert Base Smiles
Openrail
这是一个在SMILES(简化分子线性输入系统)字符串上预训练的双向转换器模型,主要用于分子相关任务。
分子模型
Transformers
B
unikei
3,688
7
Wgan Molecular Graphs
该模型使用WGAN-GP和R-GCN架构生成新型分子图结构,可加速药物发现过程。
分子模型
W
keras-io
28
5
Chemgpt 1.2B
ChemGPT是基于GPT-Neo模型的生成式分子建模工具,专注于化学领域的分子生成与研究。
分子模型
Transformers
C
ncfrey
409
14
Pretrained Smiles Pubchem10m
该模型是基于PubChem数据库中1000万SMILES字符串进行预训练的化学信息学模型,主要用于分子表示学习和化学性质预测。
分子模型
Transformers
P
pchanda
509
1
Smilestokenizer PubChem 1M
该模型是基于PubChem 77M数据集中的100万SMILES训练的RoBERTa模型,使用Smiles-Tokenizer工具进行分词,适用于分子表示学习和化学信息处理任务。
分子模型
Transformers
S
DeepChem
134
5