中文
ENGLISH
晁震

技术专家

医学智能辅助诊断系统实验室

研究领域

l 基于小样本特征先验前馈神经网络及其训练方法的创新研究

l 小样本浅层神经网络和大样本卷积神经网络的结合研究

l 将创新的神经网络应用到医学图像处理中,包括图像融合,图像分割,伪影去除,超分辨技术等时下热点方向

 

论文成果

发表SCI/EI 17篇,其中独立第一作者或独立通讯作者发表SCI 7篇,如下

 

Chao, Z., et al. "Medical image fusion via discrete stationary wavelet transform and an enhanced radial basis function neural network." Applied Soft Computing,118 (2022), 108542.

Chao, Zhen et al., "A New General Maximum Intensity Projection Technology via the hybrid of U-net and radial basis function neural network." Journal of digital imaging (2021);1264-1278.

Chao, Z., & Kim, H. J. (2020). Brain image segmentation based on the hybrid of back propagation neural network and AdaBoost system. Journal of Signal Processing Systems, 92(3), 289-298.

Chao, Zhen, Dohyeon Kim, and Hee-Joung Kim. "Multiplanar reconstruction with incomplete data via enhanced fuzzy radial basis function neural networks." Biomedical Signal Processing and Control 57 (2020): 101766.


Chao, Zhen, and Hee-Joung Kim. "Removal of computed tomography ring artifacts via radial basis function artificial neural networks." Physics in Medicine & Biology 64, no. 23 (2019): 235015.

Chao, Zhen et al., "Slice interpolation of medical images using enhanced fuzzy radial basis function neural networks." Computers in biology and medicine 110 (2019): 66-78

Chao, Zhen et al., "Multi-modality image fusion based on enhanced fuzzy radial basis function neural networks." Physica Medica 48 (2018): 11-20

 

 

 

基金


主持国家自然科学青年基金-强化径向基神经网络医学图像局部覆盖性伪影微创去除研究,项目获批编号82001905 (2021.01-2023.12)


课题要点:

1)针对先前方法导致无关正常组织受到破坏和图像分辨率下降的弱点,结合分析客观信息的固有属性,构建只作用于对伪影部分的像素级神经网络模型,将伪影像素转化成正常像素;

2)针对卷积神经网路处理伪影图像使用训练数据多,提出小样本训练集的强化径向基神经网络。通过上述研究,建立一种针对伪影有效去除的微创处理新思路。

 

参与国家自然科学基金数学天元基金“数学与医疗健康交叉重点专项”-胰腺癌手术规划与术后评估的数学方法与演化建模(2021.01-2025.12)

 

课题要点:

1)基于胰腺癌大数据,利用核函数逼近方法,精确分割胰腺癌三维图像,研究胰腺癌识别与三维成像,阐明胰腺癌边界界定机理和定量医学成像的不确定性;

2)利用卷积神经网络和在线学习方法,识别周边胰腺微小血管,阐明胰腺癌微小血管浸润机理;

3)结合先验知识,利用Stokes方程,构建胰腺癌边缘演化的数学模型,结合核函数与有限差分方法、有限元方法和有限体积方法,计算胰腺癌三维边缘演化过程,揭示胰腺癌边界演化规律。


 主持广东省海外青年博士后引进项目(项目资金24万)