VP-Detector 三维颗粒定位和分类软件 冷冻电子断层三维重构技术(cryo-ET)允许以分子分辨率对蛋白质或大分子复合物在其原始环境中进行三维可视化,极大地促进了结构生物学的发展。电子断层三维重构是通过旋转生物样品的倾斜系列成像产生的。然而,电子断层三维重构的分辨率受到两个因素的限制:低电子剂量导致的图像低信噪比(SNR)和倾斜角缺失导致的楔形缺失。当一组电子断层图像中出现感兴趣的复合物的众多噪声副本时,子区域平均技术(STA)可以通过提取、分类、对齐和平均在原始生物环境中的子区域来显著提高其分辨率。作为STA过程的前两个步骤,子区域定位和分类对于提高子区域的最终分辨率至关重要。因为低分辨率的电子断层重构和生物大分子形状大小各异,从复杂和拥挤的原始环境中提取和分类大分子是一个挑战。为了解决STA结构测定的瓶颈问题,我们设计了一种基于三维多尺度密集卷积神经网络(3D MSDNet)的生物大分子定位及分类方法VP-Detector,首先,为了检测低信噪比的冷冻电镜图像中的三维颗粒,我们的网络中提出了三维混合膨胀卷积3D HDC技术,避免了缩放操作造成的分辨率损失。其次,为了在数量有限的冷冻电镜图像上进行训练,本方法采用三维稠密连接,以此鼓励重用特征图,减少可训练参数,实现小数据集上的训练。最后,为了缓解了尺寸各异的颗粒造成的类别不平衡,本方法使用加权焦点损失函数进行网络的训练。我们的VP-Detector在模拟数据集和真实世界数据集的实验中都取得了最先进的性能。VP-Detector在三维颗粒挑选方面取得了最高的F1得分,对于形态大小各异的蛋白质均有良好表现,且可代替手动三维颗粒挑选。VP-Detector可以在很少可训练参数的情况下获得较高的粒子检测精度,并支持小数据集上的训练。它还可以缓解形状大小各异的颗粒造成的类不平衡。

Introduction

本软件包含网络框架部分、模型训练部分、模型预测部分、预训练的网络部分。介绍数据的时间范围、时间精度、空间范围、空间精度、计算方式等。网络框架代码部分包含了三维多尺度密集卷积神经网络(3D MSDNet)模型和具体的参数设置。config.py,data_utils.py ,globalvar.py, model.py模型训练代码部分是针对公开数据集进行训练的具体方法。train_script.py,train.py模型预测代码部分是针对公开数据集进行预测的具体方法。predict_script.py, predict.py

Publications

  1. VP-Detector: A 3D multi-scale dense convolutional neural network for macromolecule localization and classification in cryo-electron tomograms
    Cite this
    Yu Hao, XiaohuaWan, RuiYan, ZhiyongLiu, JintaoLi, ShihuaZhang, XuefengCui, FaZhang, - Computer Methods and Programs in Biomedicine

Credits

  1. Yu Hao haoyu@ict.ac.cn
    Investigator

    High Performance Computer Research Center, Institute of computing technology, Chinese Academy of Sciences, China

  2. Fa Zhang zhangfa@ict.ac.cn
    Investigator

    High Performance Computer Research Center, Institute of computing technology, Chinese Academy of Sciences, China

Community Ratings

UsabilityEfficiencyReliabilityRated By
0 user
Sign in to rate
Summary
AccessionBT007327
Tool TypeApplication
CategoryProtein structure refinement
PlatformsLinux/Unix
TechnologiesPython3
User InterfaceDesktop GUI
Latest ReleaseVPD1.0 (September 6, 2022)
Download Count2059
Country/RegionChina
Submitted ByLingfei Kong
Fundings

2017YFA0504700