PNAS | 基因调控之深度学习揭示免疫细胞分化的调节机制

本文涉及的产品
企业资质识别,企业资质识别 200次/月
自定义KV模板,自定义KV模板 500次/账号
OCR统一识别,每月200次
简介: PNAS | 基因调控之深度学习揭示免疫细胞分化的调节机制

image.png

今天给大家介绍的是加拿大不列颠哥伦比亚大学和哈佛大学、加拿大CIFAR AI高级研究院合作发表在PNAS的一篇论文。作者借助深度学习中的卷积神经网络提出一个训练网络“ AI-TAC”,该模型通过从头开始发现已知调控因子和一些未知调控因子的结合DNA功能域(Motifs),学习推断细胞型特异性的染色质可及性(染色质开放性)。经过小鼠数据训练的AI-TAC可以解析人的DNA,最终揭示了免疫系统完全分化的调节机制。


1


背景


基因调控是现代分子生物学研究的中心课题之一,目前虽然探索出一些转录因子能够调控哪些特异性序列,但是对于控制免疫细胞分化的调控机理我们尚未清楚。对于免疫系统来说,每种细胞类型都有自己的DNA编码解释,而这种差异是由组成型和细胞型特异性转录因子,调节性RNA分子以及可能还未知的序列解析分子实体之间的相互作用驱动的。具有调控功能的顺反元件通过结合染色质开放区域参与到生物转录调控的过程中以控制转录活性。比如,转录因子一旦结合到开放的染色质区域,就会招募其他蛋白,使附近的基因开始转录。染色质开放性是动态的,整体的调控过程与染色质核小体的动态定位相关,因此,高效精确地定位基因组上的开放染色质位点、搞清核小体位置的动态变化,为成功地发掘基因组调控元件,乃至揭示基因表达调控机制提供重要线索和有效手段。Motifs(DNA功能域)是一段特异性序列,可以和转录因子结合,确定DNA结合的motif通常是详细阐释转录因子功能的第一步,鉴定潜在的结合位点为进一步分析提供了途径。开放的染色质区域(OCR)十分密切地反映了相应细胞中的基因表达。下一步问题是从这些描述性图表转向对如何确定这些染色质模式的理解。分析这些有差别的活跃开放染色质区域中转录因子结合Motifs(TFBS)的表示,提供了可能导致细胞特异性的转录因子的相关线索,特别是通过将转录因子本身的细胞类型特异性表达用作相关先验知识,所以作者就小鼠免疫系统的81种免疫细胞的染色质可及性,旨在利用CNN仅通过调节DNA序列来学习推断细胞类型特异性的染色质可及性。结果表明, AI-TAC可以学习准确预测细胞类型特异性OCR的精细特异性,解释策略能够发现在计算机中具有影响力的Motifs,并在“真实”染色质免疫沉淀和测序(ChIP-seq)数据中概括其分子对应物的结合位点。因此,AI-TAC学习了构成免疫细胞分化全局性基础的序列语法。


2


方法


AI-TAC模型的输入数据是251个碱基对 OCR的DNA序列,以预测每个OCR在所有测得的细胞型上的ATAC-seq作为输出,整个模型由三个卷积层和两个全连接层组成,使用Pearson相关性作为损失函数进行训练,可以增强模型准确预测其活性随细胞类型而变化的序列的能力。为了进行参数解释,1)对于300个第一层filter中的每一个,作者提取了激活它的短序列Motifs,表示为位置权重矩阵(PWM),并定义了其鲁棒性的操作参数,以及2)应用了梯度反向传播策略(DeepLift和TFMoDisco)。可重现的filter(基于PWM表示)在11个单独训练的模型中使用“出现次数”进行了识别。使用TomTom对PWM进行注释,以搜索TFBS的Cis-BP数据库(FDR 0.05)。使用消融策略计算filter影响值:依次移除每个filter,并计算所有示例中模型误差的平方差平均值。为了进行生化验证,将从基因表达综合(GEO)下载的Pax5,Ebf1,Spi1和Tcf1(32)的原始ChIP-seq数据集,并与AI-TAC相交预测。为了可视化高阶序列逻辑,获得了由节点激活在最后一个共享层中捕获的AI-TAC嵌入(n = 1000),并使用t-SNE对其进行了二维投影。下图A为模型整体框架图。

image.png

3


结果


AI-TAC可以仅从序列预测增强子活性,通过这种方式,AI-TAC学习了嵌入在OCR中的序列Motifs的组合与其在各种免疫细胞类型中的可及性之间的关系。在实验中,通过使用作者最近的ATAC-seq成果定义的每个OCR的327,927个序列的90%作为输入来训练该模型,以预测每个OCR在所有测得的细胞型上的ATAC-seq谱作为输出。CNN学习输入和输出之间精确映射的能力取决于几个超参数(隐藏层的数量,filter及其长度,损失函数),并且对它们进行了系统地探讨。在下图B中的一个示例中,在保留的OCR的子集上,经过训练的AI-TAC模型在精确预测所有人群的粒度变量可访问性方面显示出良好的性能。

image.png

总体而言,预测有61%的测试OCR具有统计上显着的相关系数(错误发现率[FDR] 0.05)(下图C)。OCR的可预测性与其在各种免疫细胞类型中可及性之间的变化之间存在很大的单调关系,因为具有低预测性能的OCR通常具有较小的变异系数(下图D和E)。该图还表明,除了普遍存在的OCR之外,在特定类别的OCR上也没有缺少该模型(如图F的热力图所证实)。通过执行几个随机实验以创建3个不同的空模型(图C)以及进行染色体省略实验,评估了这些预测的鲁棒性。此外,作者进行了10次交叉验证的10次独立试验(即100个受过训练的模型),因此327927个OCR被视为10个不同测试集的一部分(D)。这些数据可以确认,在针对数据的不同子集训练的不同模型中,通常可以很好地预测出预测良好的OCR,这表明该模型所捕获的调节逻辑是可以推广的。

image.png

4

总结

总而言之,针对全基因组染色质可及性的深度学习方法揭示了直接源自DNA序列的免疫转录调节因子的模式和复杂模式。尽管仍然存在一些盲点,但该监管路线图草案应为嫁接其他层级的人为或机器生成的结果提供基础,并为进行实验探索提供跳板。

目录
相关文章
|
2月前
|
机器学习/深度学习 自然语言处理 计算机视觉
深度学习中的自注意力机制:理解与应用
在深度学习领域,自注意力机制(Self-Attention Mechanism)已成为推动模型性能飞跃的关键技术之一。本文将通过浅显易懂的方式,探讨自注意力机制的核心原理、实现方法及其在不同领域的应用实例,旨在为初学者和从业者提供一份简明扼要的指南。
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的自注意力机制:理论与实践
在深度学习的海洋中,自注意力机制犹如一艘破浪前行的帆船,引领着模型理解数据的新航向。本文将深入探讨自注意力机制的原理,解析其如何在各类任务中发挥作用,并分享一些实际应用案例,以期为读者提供对该技术更深层次的理解和应用启示。
97 3
|
3月前
|
机器学习/深度学习 自然语言处理 算法
深度学习的奥秘:探索神经网络的核心机制
在这篇文章中,我们将深入浅出地探讨深度学习背后的科学原理和实际应用。通过简化的语言和生动的比喻,我们将揭示神经网络如何模仿人脑处理信息的方式,以及它们如何在各种领域内实现惊人的成就。无论你是技术新手还是资深专家,这篇文章都将为你提供新的视角和深刻的见解。
|
4月前
|
机器学习/深度学习 自然语言处理 算法
深度学习中的自注意力机制:理解与应用
本文深入探讨了深度学习领域的一项关键技术——自注意力机制,旨在揭示其工作原理、优势以及在各类任务中的应用。通过分析自注意力机制如何使模型捕捉序列内部的动态依赖关系,本文阐明了其在提升模型性能方面的重要性。同时,文中还讨论了自注意力机制在自然语言处理、图像识别等领域的具体应用案例,并指出了当前研究的局限性和未来的发展方向。
104 2
|
4月前
|
机器学习/深度学习 自然语言处理 搜索推荐
深度学习中的自注意力机制:原理与应用
在深度学习领域,自注意力机制(Self-Attention Mechanism)已经成为一种强大的工具,它允许模型在处理序列数据时更加高效和灵活。本文将深入探讨自注意力机制的工作原理、数学基础以及在不同应用场景下的表现。我们将通过具体案例分析,展示自注意力如何提升神经网络对长距离依赖的捕捉能力,以及它在自然语言处理(NLP)、计算机视觉(CV)等领域的应用成效。
367 0
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的注意力机制:技术洞察与应用前景
在人工智能的浪潮下,深度学习技术以其强大的数据处理和模式识别能力引领着技术发展的前沿。特别是注意力机制的引入,它模仿人类视觉注意力的选择性聚焦,极大地提高了模型处理序列数据的效率和准确度。本文将深入解析注意力机制的原理,探讨其在自然语言处理、计算机视觉等领域的应用,并预测未来的发展趋势。通过严谨的逻辑推理和丰富的数据支撑,我们旨在展现注意力机制如何成为深度学习领域的重要创新点。
|
6月前
|
机器学习/深度学习 自然语言处理 TensorFlow
使用Python实现深度学习模型:注意力机制(Attention)
使用Python实现深度学习模型:注意力机制(Attention)
340 0
使用Python实现深度学习模型:注意力机制(Attention)
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘深度学习中的注意力机制
【5月更文挑战第21天】 在深度学习的广阔领域里,注意力机制以其独特的智能化特征成为研究的热点。不同于传统的序列处理模型,该机制赋予了网络对信息重要性评估的能力,类似于人类的选择性视觉注意。本文将深入探讨注意力机制的原理、关键变体以及其在不同任务中的应用。通过细致的分析与实例演示,我们旨在为读者提供一个清晰的视角,以理解并运用这一技术改善深度学习模型的性能。
71 1
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘深度学习中的注意力机制
【4月更文挑战第19天】 在深度学习领域,注意力机制(Attention Mechanism)已经成为推动模型性能突破的关键技术之一。不同于传统的序列处理模型,它能够动态地聚焦于输入数据的重要部分,赋予权重以实现更有效的信息提取。本文将探讨注意力机制的核心概念、不同变体以及在自然语言处理和图像识别中的应用实例。通过分析具体案例,我们将揭示注意力机制如何提升深度学习模型的处理能力,并讨论其面临的挑战与未来的发展方向。
|
机器学习/深度学习
《深度学习》李宏毅 -- task4深度学习介绍和反向传播机制
Step1:神经网络(Neural network) Step2:模型评估(Goodness of function) Step3:选择最优函数(Pick best function)
135 0
《深度学习》李宏毅 -- task4深度学习介绍和反向传播机制

热门文章

最新文章