[论文翻译]BERTOLOGY 遇见生物学:解读蛋白质语言模型中的注意力机制
Transformer架构已被证明能有效学习蛋白质分类和生成任务的有用表征。然而,这些表征在可解释性方面存在挑战。本工作展示了一套通过注意力机制分析蛋白质Transformer模型的方法。我们发现注意力机制能够:(1) 捕捉蛋白质的折叠结构,连接底层序列中相距较远但在三维结构中空间邻近的氨基酸,(2) 靶向蛋白质关键功能组件——结合位点,(3) 随着网络层深的增加,逐步聚焦更复杂的生物物理特性。该行为在三种Transformer架构(BERT、ALBERT、XLNet)和两个不同蛋白质数据集中表现一致。我们还提供了注意力与蛋白质结构交互的三维可视化。可视化与分析代码详见https://github.com/salesforce/provis。