<track id="yzxek"></track>
      1. <tr id="yzxek"><code id="yzxek"><div id="yzxek"></div></code></tr>

        您当前所在位置: 首页 > 首发论文
        动态公开评议须知

        1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

        2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

        3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

        4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

        5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

        勘误表

        上传勘误表说明

        • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
        • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
        • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

        示例:

        勘误表

        上传勘误表说明

        • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
        • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
        • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

        示例:

        上传后印本

        ( 请提交PDF文档 )

        * 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

        发邮件给 王小芳 *

        收件人:

        收件人邮箱:

        发件人邮箱:

        发送内容:

        0/300

        论文收录信息

        论文编号 202305-76
        论文题目 基于可解释性引导CNN的多任务学习模型
        文献类型
        收录
        期刊

        上传封面

        期刊名称(中文)

        期刊名称(英文)

        年, 卷(

        上传封面

        书名(中文)

        书名(英文)

        出版地

        出版社

        出版年

        上传封面

        书名(中文)

        书名(英文)

        出版地

        出版社

        出版年

        上传封面

        编者.论文集名称(中文) [c].

        出版地 出版社 出版年-

        编者.论文集名称(英文) [c].

        出版地出版社 出版年-

        上传封面

        期刊名称(中文)

        期刊名称(英文)

        日期--

        在线地址http://

        上传封面

        文题(中文)

        文题(英文)

        出版地

        出版社,出版日期--

        上传封面

        文题(中文)

        文题(英文)

        出版地

        出版社,出版日期--

        英文作者写法:

        中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

        作者之间用逗号“,”分隔,最后为实心圆点“.”,

        示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

        示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

        示例3:YELLAND R L,JONES S C,EASTON K S,et al.

        上传修改稿说明:

        1.修改稿的作者顺序及单位须与原文一致;

        2.修改稿上传成功后,请勿上传相同内容的论文;

        3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

        4.请选择DOC或Latex中的一种文件格式上传。

        上传doc论文   请上传模板编辑的DOC文件

        上传latex论文

        * 上传模板导出的pdf论文文件(须含页眉)

        * 上传模板编辑的tex文件

        回复成功!


        • 0

        基于可解释性引导CNN的多任务学习模型

        首发时间:2023-05-12

        刘佳 1    姚兰 2   

        姚兰(1978-),女,副教授, 主要研究方向:最优化方法及其应用,机器学习中的稀疏正则化方法,深度学习与医学影像分析。

        • 1、湖南大学数学学院,长沙 410082
        • 2、湖南大学数学学院,长沙 410082

        摘要:深度学习方法在医学影像的分类和分割任务中表现出色,但是由于决策过程缺乏可解释性,限制了它的临床应用。本文利用可解释方法引导卷积神经网络(CNN)提出一个端到端的、可解释的多任务学习模型(IGMTL)。IGMTL可以完成消化内镜病变图像的识别分类与分割任务。该模型首先利用CNN和可解释方法得到输入图像的注意力图,然后基于注意力图得到输入图像的掩膜图像,接着将掩膜图像送入CNN,最后针对IGMTL模型提出了新的损失函数训练模型。本文基于公开数据集Kvasir中息肉与正常盲肠两类图像来验证IGMTL模型的有效性。对于息肉图像的识别任务, IGMTL的召回率和准确率比未加可解释引导的CNN分别提高4\%和2\%。对于息肉图像弱监督分割任务,IGMTL弱监督分割的IoU比FCM聚类模型提高11.79\%。从弱监督分割的定性结果来看,IGMTL能够较准确的完成息肉图像的弱监督分割任务。因此,IGMTL模型不仅可用于病变图像识别,还可辅助医生的临床诊断,或者指导非专业人士标注消化内镜图像的病变区域。

        关键词: 深度学习 可解释性方法 图像分类 图像分割 医学影像

        For information in English, please click here

        A multi-tasking learning model based on interpretable guided CNN}%\authorCHN{刘佳, 姚兰}%\authorENG{LIU Jia}%\affiliationCHN{% 湖南大学数学学院,长沙 410082 %}%\affiliationENG{% School of Mathematics, University of Hunan, Changsha 410082 %

        LIU Jia 1    YAO Lan 1   

        姚兰(1978-),女,副教授, 主要研究方向:最优化方法及其应用,机器学习中的稀疏正则化方法,深度学习与医学影像分析。

        • 1、School of Mathematics, University of Hunan, Changsha 410082

        Abstract:Deep learning method performs well in the classification and segmentation tasks of medical images, but its clinical application is limited due to the lack of interpretability in the decision-making process. This paper uses interpretable methods to guide convolutional neural networks (CNN) to propose an end-to-end, interpretable multi-task learning model (IGMTL). IGMTL can complete gastrointestinal endoscopic lesion image classification and segmentation. The model first uses CNN and interpretability methods to obtain the attention map of the input image, then generates the mask image of the input image based on the attention map, and finally feeds the mask image into the CNN. A new loss function is proposed to train the IGMTL model. This paper verified the effectiveness of the IGMTL model on two types of images, polyps and normal cecum, in the public dataset Kvasir. For the polyp recognition task, the recall and accuracy of IGMTL were 4\% and 2\% higher than those of the CNN without interpretable guidance. For the weakly supervised segmentation task of polyp images, the IoU of IGMTL was 11.79\% higher than that of the FCM clustering model. From the qualitative results of weakly supervised segmentation, IGMTL can accurately complete the weakly supervised segmentation task of polyp images. Therefore, the IGMTL model can not only be used for lesion image recognition, but also can assist doctors in clinical diagnosis or guide non-professionals to annotate the lesion areas of endoscopic images.

        Keywords: Deep learning Interpretable method Image classification Image segmentation Medical image

        Click to fold

        点击收起

        基金:

        论文图表:

        引用

        导出参考文献

        .txt .ris .doc
        刘佳,姚兰. 基于可解释性引导CNN的多任务学习模型[EB/OL]. 北京:中国科技论文在线 [2023-05-12]. http://www.yfrlel.com/releasepaper/content/202305-76.

        No.****

        动态公开评议

        共计0人参与

        动态评论进行中

        评论

        全部评论

        0/1000

        勘误表

        基于可解释性引导CNN的多任务学习模型

        日韩AV毛片中文无码免费
          <track id="yzxek"></track>
            1. <tr id="yzxek"><code id="yzxek"><div id="yzxek"></div></code></tr>