1. AI新视界首页
  2. AI药物

Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

编·译作者 | 王建民

Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

过去的几年里人工智能(AI)的各种概念已被成功地应用到计算辅助药物发现中。这种进步主要归功于深度学习算法,即具有多个处理层的人工神经网络,能够对复杂的非线性输入输出关系进行建模,并从低级数据表示中进行模式识别和特征提取。某些深度学习模型在药物发现方面的性能已被证明可以媲美甚至超过人们熟悉的现有机器学习和定量构效关系(QSAR)方法。此外,深度学习还提升了计算机辅助发现的潜力,拓宽了其适用范围,如分子设计、化学合成设计、蛋白质结构预测和大分子靶点识别等方面。

捕捉输入数据和相关的输出之间复杂的非线性关系的能力通常是以结果模型的可理解性有限为代价的。尽管一直在努力在算法的解释和分子描述符的分析来解释QSAR,深层神经网络模型臭名昭著地躲避人类的直接访问。特别是在药物化学中,”经验法则 “的可用性与物理化学特性相关联的生物效应,强调了在某些情况下,愿意牺牲准确性,更好地贴合人的直觉。因此,模糊 “两个QSARs”(即机器学习上可解释的模型与高度精确的模型)之间的界限,可能是用AI加速药物发现的关键。

对医学和化学知识进行自动分析,以人类可理解的格式提取和表示特征,可以追溯到20世纪90年代,但由于神经网络在化学和医疗保健领域的重新出现,越来越受到关注。鉴于目前人工智能在药物发现和相关领域的发展速度,对帮助研究人员理解和解释底层模型方法的需求将越来越大。为了缓解某些机器学习模型缺乏可解释性的问题,并增强人类的推理和决策能力,可解释的人工智能(xAI)方法受到关注。

提供数学模型的同时,提供信息解释的目的是:(1)使潜在的决策过程透明化(“可理解”);(2)避免因错误的原因做出正确的预测(所谓聪明的汉斯效应;(3)避免不公平的偏见或不道德的歧视;(4)弥合机器学习界和其他科学学科之间的差距。此外,有效的xAI还能帮助科学家们跨越 “认知谷”,让他们在研究过程中磨练自己的知识和信念。

虽然xAI的确切定义仍在争论中,但作者认为xAI的几个方面在药物设计应用中肯定是可取的:

  1. 透明度,知道系统如何得出一个特定的答案。
  2. 理由,阐明为什么模型提供的答案是可以接受的。
  3. 信息性,为人类决策者提供新的信息。
  4. 不确定性,估计量化预测的可靠性。

一般来说,xAI产生的解释可以分为全局性的或局部性的。此外,xAI可以依赖于底层模型,也可以是不可知的,这反过来又会影响每种方法的潜在适用性。在这个框架中,不存在一个放之四海而皆准的xAI方法。

未来的人工智能辅助药物发现存在许多特定领域的挑战,例如反馈给所述方法的数据表示。与深度学习已被证明擅长的许多其他领域(如自然语言处理和图像识别)相比,没有天然适用的、完整的、”原始 “的分子表示。毕竟,分子正如科学家们所设想的那样, 本身就是模型。因此,这种从低阶模型建立高阶模型的’归纳’方法在哲学上是值得商榷的。分子 “表征模型 “的选择成为结果人工智能模型的可解释性和性能的限制因素,因为它决定了所保留的化学信息的内容、类型和可解释性。

药物设计不是简单的。它由于存在错误、非线性和看似随机的事件而有别于明确的工程。必须承认人们对分子病理学的不完全理解,以及无法为药物作用制定无懈可击的数学模型和相应的解释。在这种情况下,xAI承担着增强人类的直觉和技能,以设计具有理想特性的新型生物活性化合物的潜力。

新药的设计体现在是否可以从分子结构中推导出药理活性,以及这种结构中哪些元素是相关的问题。多目标设计提出了更多的挑战,有时会出现一些不好解决的问题,导致分子结构往往是折衷方案。实用的方法旨在限制寻找和优化新的命中化合物和先导化合物所需的合成和检测次数,特别是在进行精心和昂贵的测试时。xAI辅助药物设计有望帮助克服其中的一些问题,通过采取明智的行动,同时考虑药物化学知识、模型逻辑和对系统局限性的认识。xAI将促进药物化学家、化学信息学家和数据科学家之间的合作。事实上,xAI已经可以实现药物作用的机理解释,并有助于药物安全性的提升,以及有机合成设计。如果长期成功,xAI将为分析和解读日益复杂的化学数据,以及提出新的药理假说提供基础支持,同时避免人为偏见。迫于压力的药物发现挑战,如冠状病毒大流行,可能会促进应用定制的xAI方法的发展,以迅速应对与人类生物学和病理生理学相关的特定科学问题。

xAI领域仍处于起步阶段,但正以快速的步伐向前发展,预计在未来几年内,它的相关性将会增加。本篇综述中,研究人员旨在对近期的xAI研究进行全面概述,强调其在药物发现方面的优势、局限性和未来机会。接下来的内容中,在对最相关的xAI方法进行结构化的概念分类介绍后,将介绍现有的和一些潜在的药物发现应用。最后,讨论了当代xAI的局限性,并指出了为促进这些技术在药物研究中的实际应用所需的潜在方法改进。

技术现状和未来的方向

本节旨在简明扼要地概述现代xAI方法,并举例说明其在计算机视觉、自然语言处理和离散数学中的应用。然后,将重点介绍药物发现中的部分案例研究,并提出xAI在药物发现中的潜在未来领域和研究方向。下文中,在不失一般性的前提下,f将表示一个模型;x∈X将用来表示描述给定实例的特征集,这些特征被f用来进行预测y∈Y。

Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

特征归因方法

给定回归或分类模型 F:X ∈[Rķ→ R (哪里 [R指实数集,而K(作为[R)是指实数的k维集),特征归因方法是一个函数 Ë:X ∈[Rķ→[Rķ它接受模型输入并产生一个输出,该输出的值表示每个输入要素对于用f计算的最终预测的相关性。特征归因方法可分为以下三类。

Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现
  • 基于梯度的特征归因。
  • 代理模型特征归因。
  • 基于扰动的方法旨在修改或删除部分输入,以测量其在模型输出中的相应变化;然后,此信息将用于评估功能的重要性。

过去的几年中,特征归因方法一直是xAI系列技术中最常用于基于配体和结构的药物发现的技术。

应该注意的是,特征归因方法的可解释性受到原始特征集的限制。特别是在药物发现中,使用复杂或“不透明”的输入分子描述符通常会妨碍解释性。当使用特征归因方法时,建议选择可理解的分子描述符或模型构建模型。

xAI用于细胞色素P450介导的新陈代谢

该工作实例展示了xAI提供了一个图形解释,在分子基序方面,被认为是相关的神经网络模型预测药物与细胞色素P450的相互作用。综合梯度特征归因法与图卷积神经网络相结合,用于预测药物与CYP3A4相互作用。该网络模型用一组公开的CYP3A4底物和抑制剂进行训练。

Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

显然,xAI捕获了涉及CYP3A4介导的生物转化和大多数已知代谢位点的化学亚结构。还确定了与代谢有关的其他通用特征。

基于实例的方法

基于实例的方法计算相关特征的子集,这些特征必须存在才能保留给定模型的预测。实例可以是真实的,也可以是为了方法的目的而生成的。有人认为,基于实例的方法为人类提供了 “自然 “的模型解释,因为它们类似于反事实推理 。

  • 锚算法提供了分类器模型的可解释性解释。
  • 反事实实例搜索。
  • 对比解释方法通过生成“相关肯定”和“相关否定”集合来提供分类器的基于实例的解释性。
Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

药物发现中,基于实例的方法通过突出需要保证或改变模型预测的分子特征而必须存在或不存在,对于提高模型的透明度可能是有价值的。此外,反事实推理通过为人类决策者公开有关模型和基础训练数据的潜在新信息,进一步提高了信息量。

据作者所知,基于实例的方法尚未应用于药物发现。作者认为,他们在从头分子设计的几个领域都充满希望。

基于图卷积的方法

分子图是分子拓扑结构的自然数学表示,节点和边分别代表原子和化学键。自20世纪70年代末以来,它们在化学信息学和数学化学中的使用已经很普遍。因此,在这些领域中,目睹新型图卷积神经网络的应用越来越多并不令人惊讶,它正式属于神经消息传递算法的范畴。一般来说,卷积指的是对两个函数进行数学运算,产生第三个函数,表达一个函数的形状如何被另一个函数修改。这个概念被广泛应用于图像分析的卷积神经网络中。图卷积自然地将通常用于计算机视觉或自然语言处理应用中的卷积运算扩展到任意大小的图上。药物发现的背景下,图卷积已经被应用于分子属性预测和新药设计的生成模型中。

Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

探索用图卷积架构训练的模型的可解释性是当前特别活跃的研究主题。本文基于图卷积的xAI方法分为以下两类。

  • 子图识别方法旨在识别图的一个或多个部分,这些部分负责给定的预测。
  • 基于注意力的方法。图卷积神经网络的解释可以受益于注意力机制,注意力机制取自自然语言处理领域,在自然语言处理领域,它们的使用已成为标准。

基于图卷积的方法由于与化学家直观的表示具有直接和自然的联系,因此在药物发现中代表了强大的工具。此外,与知识结合使用时,突出显示与特定预测相关的原子的可能性可以改善模型论证以及其对基础生物学和化学的信息性流程。

由于其与分子的二维表示的直观联系,基于图卷积的xAI具有可应用于药物发现中其他几种常见建模任务的潜力。在作者看来,用于图卷积的xAI可能最有利于旨在找到相关分子基序的应用,例如结构警报识别和反应性或代谢预测的位点。

自我解释方法

到目前为止引入的xAI方法产生了深度学习模型的后验解释。尽管这种事后解释已被证明是有用的,但有些人认为,理想情况下,xAI方法应自动提供人类可解释的解释以及其预测。这样的方法将促进验证和错误分析,并且可以与领域知识直接链接。虽然自解释一词是为了指代特定的神经网络体系结构而提出的,但在本综述中,该术语的广义含义是指以可解释性为设计核心的方法。不言自明的xAI方法可以分为以下几类。

  • 基于原型的推理是指根据特别有用的已知数据点预测未来事件的任务。
  • 自我解释的神经网络旨在将输入或潜在特征与语义概念相关联。
  • 可人类解释的概念学习是指从数据中学习一类概念的任务,旨在实现类似于人类的概括能力。
  • 用概念激活向量进行的测试计算层相对于其输入朝着概念方向的激活的方向导数。这样的导数量化了后者与特定分类相关的程度。
  • 自然语言解释生成。可以将深度网络设计为以监督方式生成人类可理解的解释。

自我解释的方法具有xAI的多个理想方面,但作者特别强调了它们的固有透明性。通过将可解释的解释纳入其设计的核心,避免了事后解释方法的普遍需求。所产生的难以理解的解释也可能会为所提供的预测的合理性提供自然的见解。

自解释式深度学习尚未应用于化学或药物设计。通过设计包括可解释性可以帮助弥合机器表示和人类对药物发现中许多类型问题的理解之间的鸿沟。

不确定性评估

不确定性估计,即预测中误差的量化,构成了模型解释的另一种方法。虽然一些机器学习算法,如高斯过程,提供了内置的不确定性估计,但深度神经网络以不擅长量化不确定性而闻名。这也是为什么已经有一些努力致力于专门量化基于神经网络的预测中的不确定性的原因之一。不确定性估计方法可以归纳为以下几类。

  • 集成方法。模型集成改善了整体预测质量,并已成为不确定性估计的标准。
  • 概率方法旨在估计某个模型输出的后验概率或执行事后校准。
  • 其他方法。下上限估计(LUBE)方法训练具有两个输出的神经网络,这两个输出分别对应于预测的上限和下限。
Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

可用软件

鉴于深度学习应用目前受到的关注,已经开发了一些软件工具来促进模型解释。一个突出的例子是Captum,它是PyTorch深度学习和自动区分软件包的扩展,为本工作中描述的大多数特征归因技术提供支持。另一个流行的包是Alibi,它为某些用scikit-learn或TensorFlow包训练的模型提供特定实例的解释。实现的一些解释方法包括锚点、对比性解释和反事实实例。

结论与展望

药物发现的背景下,深度学习模型的完全可理解性可能很难实现,尽管提供的预测仍然可以证明对从业者有用。在努力寻求与人类直觉相匹配的解释时,认真设计一套控制实验来验证机器驱动的假说并提高其可靠性和客观性将是至关重要的。

鉴于适用于某项任务的可能解释和方法的多样性,目前的xAI也面临着技术挑战。大多数方法并不是现成的、”开箱即用 “的解决方案,而是需要针对每个应用进行定制。此外,对领域问题的深刻了解对于确定哪些模型决策需要进一步的解释,哪些类型的答案对用户有意义,哪些是琐碎的或预期的是至关重要的。对于人类决策来说,用xAI生成的解释必须是非琐碎的、非人工的,并且对各自的科学界有足够的信息量。至少在目前,找到这样的解决方案需要深度学习专家、化学信息学家和数据科学家、化学家、生物学家和其他领域专家的共同努力,以确保xAI方法达到预期目的并提供可靠的答案。

进一步探索既有的化学语言在表示这些模型的决策空间方面的机会和局限性将是特别重要的。前进的一步是建立在可解释的 “低级 “分子表征上,这些表征对化学家有直接的意义,并且适合机器学习。最近的许多研究依赖于成熟的分子描述符,它们捕捉了先验定义的结构特征。通常情况下,分子描述符在与后续建模相关的同时,还能捕获复杂的化学信息。因此,当追求xAI时,有一种可以理解的倾向,即采用分子表征,可以更容易地用已知的化学语言进行合理化。模型的可解释性取决于所选择的分子表示和所选择的机器学习方法。考虑到这一点,开发用于深度学习的新型可解释的分子表征将构成未来几年的关键研究领域,包括开发自我解释方法,通过在提供足够准确的预测的同时提供类似人类的解释来克服不可解释但信息丰富的描述符的障碍。

由于目前缺乏包含所概述的xAI所有理想特征的方法,在短期和中期将由协商一致的方法发挥主要作用,这些方法结合了单个(X)AI方法的优势并提高了模型的可靠性。从长远来看,xAI方法通过依靠不同的算法和分子表示将构成一种对建模的生化过程提供多方位有利点的方法。目前,药物发现中的大多数深度学习模型都没有考虑适用性域限制,即满足统计学习假设的化学空间区域。在作者看来,这些限制应该被视为xAI的一个组成部分,因为事实证明,对这些限制的评估和对模型准确性的严格评价比建模方法本身更有利于决策。知道什么时候应用哪种特定的模型,可能将有助于解决深度学习模型对错误预测的高置信度问题,同时避免不必要的推断。沿着这些思路,在时间和成本敏感的场景中,如药物发现,深度学习从业者有责任谨慎地检查和解释他们的建模选择所得出的预测。考虑到目前xAI在药物发现中的可能性和局限性,研究人员有理由认为,继续发展混合方法和更容易理解、计算能力更强的替代模型不会失去其重要性。

目前,药物发现中的xAI缺乏一个开放的社区平台,通过不同科学背景的研究人员的协同努力,共享和改进软件、模型解释和各自的训练数据。像MELLODDY(Machine Learning Ledger Orchestration for Drug Discovery,melloddy.eu)这样的倡议,在制药公司之间进行分散的、联合的模型开发和安全的数据处理,是朝着正确方向迈出的第一步。这种合作将有望促进xAI和这些工具提供的相关解释的发展、验证和接受。

参考资料

Jiménez-Luna, J., Grisoni, F. & Schneider, G. Drug discovery with explainable artificial intelligence. Nat Mach Intell 2, 573–584 (2020). 

https://doi.org/10.1038/s42256-020-00236-4

Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

原创文章,作者:DrugAI,如若转载,请注明出处:https://www.drugfoodai.com/xai_drug-discovery.html

注意:本站原创指的是原创编译,并不主张对所介绍的工作的版权,如有侵权,请联系删除!

发表评论

邮箱地址不会被公开。 必填项已用*标注