日志-7
今日内容
看完了Deep learning versus conventional methods for missing data imputation: A review and comparative study
正在看Handling missing values and imbalanced classes in machine learning to predict consumer preference: Demonstrations and comparisons to prominent methods
简单确定了框架,开始具体整理
日志-6
今日内容
调休上三节课
看完了Synthetic Tabular Data-Methods, Attacks and Defenses
正在看Deep learning versus conventional methods for missing data imputation: A review and comparative study
日志-5
今日内容
上课 团建 看完了Table Meets LLM: Can Large Language Models Understand Structured Table Data? A Benchmark and Empirical Study
Generating realistic synthetic tabular data with integrated LLM and diffusion models
正在看Synthetic Tabular Data-Methods, Attacks and Defenses
日志-4
今日内容
今天上一节课
看完了Tabular and latent space synthetic data generation: a literature review
规则变更
如果有洗衣服之类的事项可以下午不来实验室,但晚上要来
规则恒定:除特殊情况,每天都必须来实验室
自律日志-3
今天上三节课,继续看Tabular and latent space synthetic data generation: a literature review,清除指令到实验室才能开机,转换为除早上之外
自律日志-2
今天上三节课,看了Controllable Data Generation by Deep Learning: A Review。 现在在看 Tabular and latent space synthetic data generation: a literature review
自律日志-1
简单而言,看了Survey on Tabular Data Privacy and Synthetic Data Generation in Industry 4.0,并写了md简单总结,并且看了Diffusion Models for Tabular Data Imputation and Synthetic Data Generation,目前是在看Controllable Data Generation by Deep Learning: A Review。 早上十点到工位,中午十一点半离开 下午三点到工位,五点离开
自律日志-0-0.5
今日自律记录
早上和下午开学典礼,耗费了大量精力,明天实验室新生见面会,然后正式开始
自律日志-0
今日自律记录
开了个新生见面会,选了个工位,以上。 在解决完新生入学相关后启动
自律枝条(第一周)
早上9点到工位,下午5点离开。
离开吃完晚饭后,8-9进行体育锻炼
拆1本书(50章节)
在工位上实现看五篇当前工作相关的paper,以及五篇不相关的并且撰写简单描述以及总结到每日自律记录
研究技术博客。
每天写一篇自律日志
自律规则
没有接触过工位上的笔记本,就不允许启动寝室的台式
一周内应完成6个内容中的5项,如果失败就换一个规则替代。
异步联邦(一)
写在开头
论文来源:https://doi.org/10.1016/j.cosrev.2023.100595. 论文标题:Asynchronous federated learning on heterogeneous devices: A survey
正文
AFL的诞生
FL算法的缺陷 1
设备不可靠性(意外脱机)。
聚合效率降低:延迟等待速度较慢的本地模型(设备异构性与数据分布不均匀)。
资源利用率低:由于算法的不完善,一些计算能力较强、资源较丰富且能够有效贡献于模型训练的设备(即胜任设备)可能很少被选中参与训练过程。
安全隐私漏洞。
AFL算法的改进
中央服务器在收到本地模型后 立即启动全局模型聚合 这意味着AFL可以忽略意外脱机的设备,因此减轻了对设备不可靠性的担忧。 而通过在聚合之前无需等待慢速设备上传本地模型,AFL则提高了聚合效率。
对于异构设备,AFL还允许具有不同运营效率的设备按照自己的节奏训练各自的本地模型,从而提高了异构设备之间计算资源的利用率。
AFL的相关论文
AFL 的主要障碍在于优化异构设备的资源利用率以提高训练 ...

