- 博客(8)
- 资源 (23)
- 收藏
- 关注
原创 隐私保护的训练即服务(PTaaS):开启终端智能的新纪元
这篇论文不仅为学术界带来了新思路,也为工业界提供了实用的解决方案,帮助他们应对在设备端智能化和数据隐私保护之间的平衡挑战。论文链接:https://arxiv.org/abs/2404.10255。
2024-04-18 21:10:03 934
原创 FedCache:A Knowledge Cache-driven Federated Learning Architecture for Personalized Edge Intelligence
论文解读-FedCache: A Knowledge Cache-driven Federated Learning Architecture for Personalized Edge Intelligence
2024-02-03 21:39:31 1641
原创 如何在自己的电脑上复现开源论文里的代码
刚开始入门科研的小伙伴们总是苦于开源论文中的代码无法在自己的电脑上复现,接下来以文章作为线索来讲解如何在自己的电脑上运行论文里的代码。
2023-12-19 23:20:44 1663
原创 论文解读-Exploring the Distributed Knowledge Congruence in Proxy-data-free Federated Distillation
论文提出了一种基于分布式知识一致性的无代理数据联邦蒸馏算法FedDKC,它通过精心设计的知识精化策略,将本地知识差异缩小到可接受的上界,以减轻知识不一致的负面影响。具体来说,论文从峰值概率和香农熵两个角度设计了基于核和基于搜索的两种策略,理论上保证优化后的本地知识可满足近似的置信度分布,并被视为一致的。本文探究了免代理数据集联邦蒸馏方法中的知识不一致性问题,即:由于客户端模型异构的特性,会导致本地知识置信度之间存在显著差异,服务器学习到的表征因此存在偏差,进而降低整个联邦学习系统的性能。
2023-12-11 13:23:02 685
原创 论文解读-Survey of Knowledge Distillation in Federated Edge Learning
具体地,通过引导疏离的设备端和服务器端的双向蒸馏训练过程,该方法实现了在资源受限的MEC环境下,快速高效地训练出对本地任务拟合较好的定制化模型。但是由于用户的行为模式与服务需求的多样,不同设备上的数据分布与模型的任务需求往往存在显著差异,叠加MEC场景设备硬件配置高度差异化、通信受限等多重限制,给部署与协同训练机器学习模型带来了挑战。在图像识别与运动状态检测上的实验表明,相比现有方法,该联邦多任务蒸馏在保证收敛速度与通信效率的同时,显著提升了模型在本地任务上的表现。
2023-12-08 12:47:48 746
原创 论文解读-Agglomerative Federated Learning: Empowering Larger Model Training
由中国科学院计算技术研究所、中国科学院大学、中关村实验室和北京交通大学的研究团队共同完成的论文“Agglomerative Federated Learning: Empowering Larger Model Training via End-Edge-Cloud Collaboration”,在INFOCOM 2024上提供了一个全新的视角,引领我们进入了联邦学习和端边云协同的新纪元。在这种模式下,云服务器、边缘服务器和终端设备可以在不同的计算层级之间进行协作,共同承担计算任务,提高整体的计算效率。
2021-09-25 17:57:39 11131
原创 有哪些有意思的联邦蒸馏工作
简要向大家推荐一下自己近期在联邦蒸馏方面的研究工作,按照心目中创新度从高到低进行排序,与工作的扎实程度以及发表的会议期刊等级无关。如有不妥,真心接受批评指正。
2021-04-11 15:55:41 25270
原创 论文解读-FedICT: Federated Multi-task Distillation for Multi-access Edge Computing
提出了一种“联邦多任务蒸馏”方法,在兼顾边缘计算场景对于模型异构与低通信开销需求的同时提升客户端在多任务场景的性能。
2019-08-31 07:53:53 5175
计算机学科SCI期刊汇总(2021年8月).xlsx
2021-08-17
数据结构 堆的实现(泛型)
2019-08-23
哈希表(带template)
2019-08-17
AVL(平衡二叉检索)树模板(带template)
2019-08-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人