衡宇 金磊 发自 凹非寺
量子位 | 公众号 QbitAI
2022年,联邦学习论文数量出现大幅跃升,成为了屡登顶会的香饽饽:
NeurIPS发布联邦学习论文41篇,较前一年有近30%的增长幅度;ICML则在2022年收录联邦学习论文74篇,几乎成倍于2021年。
这个规律同样存在于顶会AAAI、AISTATS、KDD及CVPR中。
联邦学习论文在顶会频现,相应的,相关产业实践也进行得如火如荼。
这个现象的最好解答者,自然是联邦学习领域的国内最知名大牛:香港科技大学计算机与工程系讲座教授和前系主任、中国人工智能学会(CAAI)荣誉副理事长、微众银行首席人工智能官杨强教授。
不仅因为他是CAAI,AAAI,ACM,IEEE,AAAS等多个国际学会Fellow,能够解惑一二。
更能激起求知欲的是,这些联邦学习论文中,有多篇与他带领的团队有关联。
杨强
今年,他在微众银行带领的AI团队,与上海交通大学、中山大学等机构联合撰写了3篇联邦学习领域论文。
这3篇论文,以一作身份,被IJCAI 2022、TPAMI 2022、ACM TIST国际人工智能顶级学术期刊和顶级学术会议收录发表。
可信联邦学习,走的是一条怎样的路?
2018年,国内引进了联邦学习(Federated Learning)概念。
为了解决数据割裂、数据孤岛等问题,杨强带领的微众银行AI团队在国内系统性提出联邦学习理论。
能够保证各企业在自有数据不出本地,不违规的情况下进行联合建模,提升机器学习建模效果。
而后,又于2019年开源首个工业级联邦学习技术框架FATE,同年6月捐献给Linux基金会。
3年时间,在联邦学习领域探索的公司如雨后春笋。
联邦学习发展空前,已在金融、医疗、互联网等领域落地应用,并延伸出图联邦学习、动态联邦学习、包容性联邦学习等研究分支。
从刚开始的2018年至2019年间,FATE和主攻横向联邦学习的TensorFlow分庭抗礼,到2019年后,众多初创公司或以FATE为内核,或推出新系统。
一路至今,用杨强的话来说,现在的联邦学习已经进入到“合久必分”的状态。
正是在此基础上,联邦学习发展出第二阶段,可信联邦学习。
联邦学习的发展和应用,一直伴随着这样的声音:
存不存在为了提高效率和性能,牺牲安全性的可能?
杨强简明扼要地解释道,绝对安全等于绝对低效,绝对高效意味着绝对不安全:“联合建模要结合安全性和可用性一起看