G

GP MoLFormer Uniq

由 ibm-research 开发
GP-MoLFormer是基于ZINC和PubChem中6.5亿至11亿分子SMILES字符串表示进行预训练的化学语言模型,专注于分子生成任务。
下载量 122
发布时间 : 4/30/2025
模型介绍
内容详情
替代品

模型简介

GP-MoLFormer是一个用于分子生成任务的大规模自回归化学语言模型,采用线性注意力和旋转位置编码的仅解码器Transformer架构。

模型特点

大规模预训练
基于ZINC和PubChem中6.5亿至11亿分子SMILES字符串进行预训练
唯一分子训练
本版本在两个数据集所有唯一分子上预训练
多功能分子生成
支持无条件分子从头生成、骨架补全/修饰和分子优化
高效架构
采用线性注意力和旋转位置编码的Transformer架构,提高计算效率

模型能力

无条件分子生成
骨架约束分子修饰
分子属性优化
SMILES字符串补全

使用案例

药物发现
从头分子设计
生成全新的潜在药物分子结构
可生成有效、独特且具有一定新颖性的分子
分子优化
通过微调或配对调优优化分子特性
可调整分子分布使其更接近类药物特性
化学研究
骨架修饰
基于给定分子骨架生成变体分子
可保持核心结构同时探索化学空间