S
Smilestokenizer PubChem 1M
由 DeepChem 开发
该模型是基于PubChem 77M数据集中的100万SMILES训练的RoBERTa模型,使用Smiles-Tokenizer工具进行分词,适用于分子表示学习和化学信息处理任务。
下载量 134
发布时间 : 3/2/2022
模型简介
该模型主要用于分子表示学习和化学信息处理任务,能够将SMILES字符串转换为有意义的向量表示,适用于药物发现、分子性质预测等应用。
模型特点
基于大规模化学数据集
模型在PubChem 77M数据集的100万SMILES上进行训练,具有广泛的化学结构覆盖。
使用Smiles-Tokenizer
采用专门的Smiles-Tokenizer工具进行分词,优化了对SMILES字符串的处理能力。
RoBERTa架构
基于RoBERTa架构,具有强大的序列建模和表示学习能力。
模型能力
SMILES字符串编码
分子表示学习
化学信息处理
使用案例
药物发现
分子性质预测
使用模型生成的分子表示预测分子的物理化学性质。
化学信息学
分子相似性计算
基于模型生成的分子表示计算分子之间的相似性。
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文