<track id="yzxek"></track>
      1. <tr id="yzxek"><code id="yzxek"><div id="yzxek"></div></code></tr>

        您当前所在位置: 首页 > 首发论文
        动态公开评议须知

        1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

        2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

        3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

        4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

        5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

        勘误表

        上传勘误表说明

        • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
        • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
        • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

        示例:

        勘误表

        上传勘误表说明

        • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
        • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
        • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

        示例:

        上传后印本

        ( 请提交PDF文档 )

        * 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

        发邮件给 王小芳 *

        收件人:

        收件人邮箱:

        发件人邮箱:

        发送内容:

        0/300

        论文收录信息

        论文编号 202302-130
        论文题目 多层次融合与双模态感知的场景文本检测
        文献类型
        收录
        期刊

        上传封面

        期刊名称(中文)

        期刊名称(英文)

        年, 卷(

        上传封面

        书名(中文)

        书名(英文)

        出版地

        出版社

        出版年

        上传封面

        书名(中文)

        书名(英文)

        出版地

        出版社

        出版年

        上传封面

        编者.论文集名称(中文) [c].

        出版地 出版社 出版年-

        编者.论文集名称(英文) [c].

        出版地出版社 出版年-

        上传封面

        期刊名称(中文)

        期刊名称(英文)

        日期--

        在线地址http://

        上传封面

        文题(中文)

        文题(英文)

        出版地

        出版社,出版日期--

        上传封面

        文题(中文)

        文题(英文)

        出版地

        出版社,出版日期--

        英文作者写法:

        中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

        作者之间用逗号“,”分隔,最后为实心圆点“.”,

        示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

        示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

        示例3:YELLAND R L,JONES S C,EASTON K S,et al.

        上传修改稿说明:

        1.修改稿的作者顺序及单位须与原文一致;

        2.修改稿上传成功后,请勿上传相同内容的论文;

        3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

        4.请选择DOC或Latex中的一种文件格式上传。

        上传doc论文   请上传模板编辑的DOC文件

        上传latex论文

        * 上传模板导出的pdf论文文件(须含页眉)

        * 上传模板编辑的tex文件

        回复成功!


        • 0

        多层次融合与双模态感知的场景文本检测

        首发时间:2023-02-21

        朱佩雯 1   

        朱佩雯,江苏南通人,江南大学硕士研究生,主要研究方向为文本检测、计算机视觉

        吴秦 1   

        吴秦,江苏宜兴人,2011 年获得西弗吉尼亚大学数学博士学位,现为江南大学副教授、硕士生导师,CCF 会员,研究方向为计算机视觉和机器学习。

        周浩杰 1   
        • 1、江南大学人工智能与计算机学院, 江苏无锡 214122

        摘要:目前,卷积神经网络在场景文本检测中得到了普遍应用,很大程度上提升了场景文本检测的效果。然而,文本分布的分散性和文本尺度的差异性仍然给文本检测任务带来了挑战,复杂场景背景区域内的像素也容易被误判。针对文本尺度差异大的问题,提出多层次权重融合模块,对网络最深层的特征图生成具有不同感受野大小的特征图和权重,使得最终得到的特征图能够拥有更丰富的感受野,从而捕获不同尺度的文本特征。除此之外,提出双模态感知模块,从局部和全局的角度感知特征图文本区域的信息,有效缓解文本分布的分散性问题。针对背景误判的问题,提出前景背景强化分支,既强化对文本区域的监督,同时也抑制背景区域的噪声误判。在ICDAR2015,Total-Text和MSRA-TD500三个公开数据集上的实验结果验证了提出方法的有效性。

        关键词: 深度学习 场景文本检测 卷积神经网络 复杂场景 感受野 背景误判

        For information in English, please click here

        Scene text detection based on multi-layer fusion and dual-modal perception

        ZHU Peiwen 1   

        朱佩雯,江苏南通人,江南大学硕士研究生,主要研究方向为文本检测、计算机视觉

        WU Qin 1   

        吴秦,江苏宜兴人,2011 年获得西弗吉尼亚大学数学博士学位,现为江南大学副教授、硕士生导师,CCF 会员,研究方向为计算机视觉和机器学习。

        ZHOU Haojie 1   
        • 1、School of Artificial Intelligence and Computer Science, Jiangnan University, Wuxi 214122, China

        Abstract:Nowadays, convolutional neural network is wildly used in scene text detection, which has greatly improved the results of the scene text detection. However, the dispersion of text distribution and the difference of text scale still bring challenges to the text detection, and pixels in text regions may be mistaken as background in complex scenes, leading to the degradation of detection performance. In order to deal with the problem of large scaling gap between texts, this paper presented a multi-layer weight fusion module. In this module, the deepest feature of backbone is used to generate features and weights with different receptive fields, which makes the output of the module has a comprehensive receptive field to capture text instances with various scales. Besides, this paper put forward a dual-modal perception module to capture the information of the text regions from local and global perspectives of the feature map, which effectively alleviates the problem of the dispersion of text distribution. To solve the problem of background misjudgment, foreground and background enhancement branch is used to strength the supervision of text regions and suppress background noises. Extensive experiments are conducted on three datasets, and the results prove the effectiveness of the proposed method in this paper.

        Keywords: deep learning scene text detection neural network complex scenes receptive field background misjudgement

        Click to fold

        点击收起

        论文图表:

        引用

        导出参考文献

        .txt .ris .doc
        朱佩雯,吴秦,周浩杰. 多层次融合与双模态感知的场景文本检测[EB/OL]. 北京:中国科技论文在线 [2023-02-21]. http://www.yfrlel.com/releasepaper/content/202302-130.

        No.****

        同行评议

        共计0人参与

        评论

        全部评论

        0/1000

        勘误表

        多层次融合与双模态感知的场景文本检测

        日韩AV毛片中文无码免费
          <track id="yzxek"></track>
            1. <tr id="yzxek"><code id="yzxek"><div id="yzxek"></div></code></tr>