基于大规模单细胞转录组语料库预训练的Transformer模型,用于网络生物学预测
下载量 8,365
发布时间 : 3/12/2022
模型简介
Geneformer是通过大规模单细胞转录组预训练的基础Transformer模型,能够在网络生物学数据有限的场景下进行上下文感知预测,支持零样本学习和微调应用。
模型特点
上下文感知预测
通过注意力机制捕捉基因间的网络层级结构,实现上下文相关的生物学预测
非参数化表征
采用基因排序值编码方式,增强对技术噪音的鲁棒性并突出关键基因
多规模模型
提供6层到20层的不同规模预训练模型,适应不同计算需求
持续学习能力
支持通过额外数据(如癌症转录组)进行领域特异性调优
模型能力
单细胞转录组分词处理
虚拟扰动分析
基因网络动态建模
细胞状态分类
疾病靶点发现
批次效应校正
使用案例
基础研究
转录因子发现
通过零样本虚拟扰动识别心肌细胞新转录因子
实验验证对收缩功能至关重要
染色质动态分析
预测双价标记启动子的表观遗传状态
临床研究
疾病治疗靶点发现
基于有限患者数据提出心肌病靶点
在iPSC疾病模型中显著改善心肌细胞收缩能力
癌症特异性分析
通过癌症调优版识别肿瘤特异性网络变化
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文