<track id="yzxek"></track>
      1. <tr id="yzxek"><code id="yzxek"><div id="yzxek"></div></code></tr>

        您当前所在位置: 首页 > 首发论文
        动态公开评议须知

        1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

        2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

        3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

        4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

        5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

        勘误表

        上传勘误表说明

        • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
        • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
        • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

        示例:

        勘误表

        上传勘误表说明

        • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
        • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
        • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

        示例:

        上传后印本

        ( 请提交PDF文档 )

        * 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

        发邮件给 王小芳 *

        收件人:

        收件人邮箱:

        发件人邮箱:

        发送内容:

        0/300

        论文收录信息

        论文编号 202303-127
        论文题目 基于分布相似性的轻量级个性化联邦学习
        文献类型
        收录
        期刊

        上传封面

        期刊名称(中文)

        期刊名称(英文)

        年, 卷(

        上传封面

        书名(中文)

        书名(英文)

        出版地

        出版社

        出版年

        上传封面

        书名(中文)

        书名(英文)

        出版地

        出版社

        出版年

        上传封面

        编者.论文集名称(中文) [c].

        出版地 出版社 出版年-

        编者.论文集名称(英文) [c].

        出版地出版社 出版年-

        上传封面

        期刊名称(中文)

        期刊名称(英文)

        日期--

        在线地址http://

        上传封面

        文题(中文)

        文题(英文)

        出版地

        出版社,出版日期--

        上传封面

        文题(中文)

        文题(英文)

        出版地

        出版社,出版日期--

        英文作者写法:

        中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

        作者之间用逗号“,”分隔,最后为实心圆点“.”,

        示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

        示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

        示例3:YELLAND R L,JONES S C,EASTON K S,et al.

        上传修改稿说明:

        1.修改稿的作者顺序及单位须与原文一致;

        2.修改稿上传成功后,请勿上传相同内容的论文;

        3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

        4.请选择DOC或Latex中的一种文件格式上传。

        上传doc论文   请上传模板编辑的DOC文件

        上传latex论文

        * 上传模板导出的pdf论文文件(须含页眉)

        * 上传模板编辑的tex文件

        回复成功!


        • 0

        基于分布相似性的轻量级个性化联邦学习

        首发时间:2023-03-10

        朱梦君 1    2   

        朱梦君(1998-),女,硕士研究生,研究方向为机器学习

        高博 1    2   

        高博,博士,副教授,研究方向为无线网络、移动计算、边缘计算与人工智能的深度融合

        • 1、北京交通大学计算机与信息技术学院
        • 2、北京交通大学高速铁路网络管理教育部工程研究中心

        摘要:联邦学习(FL)中的传统方法试图在中央服务器的编排下协作学习共享全局模型。然而客户端通常只有有限的通信带宽,并且在数据异构的情况下,学习单一的全局模型可能不适用于所有客户端。这种统计异质性和通信瓶颈是阻碍联邦学习发展的两个关键问题。针对以上问题,本文提出了一种基于分布相似性的轻量级个性化联邦学习框架。在不牺牲数据隐私的前提下,通过分析客户端数据子空间之间的余弦距离,将具有相似分布的客户端分组在一起,以便同一集群中的客户端可以彼此受益;通过应用非结构化修剪,为每个集群寻找一个小的子网,由于稀疏子网的紧凑规模,可以显著降低通信成本。实验结果表明本文的方法优于现有的方法,实现了高达33.73%的推理精度提升、2.33倍的通信成本降低。

        关键词: 联邦学习 个性化 聚类 分布相似性 通信瓶颈 数据异构

        For information in English, please click here

        Lightweight and Personalized Federated Learning via Distribution Similarity

        ZHU Mengjun 1    2   

        朱梦君(1998-),女,硕士研究生,研究方向为机器学习

        GAO Bo 1    2   

        高博,博士,副教授,研究方向为无线网络、移动计算、边缘计算与人工智能的深度融合

        • 1、School of Computer and Information Technology, Beijing Jiaotong University
        • 2、 Engineering Research Center of Network Management Technology for High-Speed Railway of Ministry of Education, Beijing Jiaotong University

        Abstract:Traditional approaches in federated learning (FL) attempt to collaboratively learn a shared global model under the orchestration of a central server. However, clients usually only have limited communication bandwidth, and in the case of heterogeneous data, learning a single global model may not be suitable for all clients. Such statistical heterogeneity and communication bottlenecks are two key issues that hinder the development of federated learning. To solve the above problems, this paper proposes a lightweight personalized federated learning framework based on distribution similarity. Without sacrificing data privacy, clients with similar distribution were grouped together by analyzing the cosine distance between client data subspaces, so that clients in the same cluster could benefit from each other. By applying unstructured pruning to find a small subnetwork for each cluster, the communication cost can be significantly reduced due to the compact size of the sparse subnetwork. Experimental results show that the proposed method outperforms the existing methods, achieving up to 33.73% improvement in inference accuracy and 2.33 times reduction in communication cost.

        Keywords: Federated learning Personalization Clustering Distribution similarity Communication efficiency Data heterogeneity

        Click to fold

        点击收起

        论文图表:

        引用

        导出参考文献

        .txt .ris .doc
        朱梦君,高博. 基于分布相似性的轻量级个性化联邦学习[EB/OL]. 北京:中国科技论文在线 [2023-03-10]. http://www.yfrlel.com/releasepaper/content/202303-127.

        No.****

        同行评议

        共计0人参与

        评论

        全部评论

        0/1000

        勘误表

        基于分布相似性的轻量级个性化联邦学习

        日韩AV毛片中文无码免费
          <track id="yzxek"></track>
            1. <tr id="yzxek"><code id="yzxek"><div id="yzxek"></div></code></tr>