学术报告
报告题目:Anderson acceleration for training neural networks
报告人:包承龙(清华大学)
报告时间:2021年12月15日10:00-12:00
腾讯会议:405-255-527
参加人员:研究生、本科生、教师
报告摘要:Anderson mixing is a powerful method in scientific computing, but its convergence analysis has not been fully explored. In this talk, we add the adaptive regularization and damped regularization to the original Anderson mixing, and provide the detailed convergence analysis and iteration complexity results. Moreover, to reduce the memory burden, we propose a short-term version that can mimic long-term memory. Various experiments on deep neural networks are demonstrated for the advantages of this method.
报告人简介:清华大学丘成桐数学科学中心,助理教授。 2009 年本科毕业于中山大学数学系,2014 年博士毕业于新加坡国立大学数学系, 2015 年至 2018 年在新加坡国立大学数学系进行博士后研究。 其研究兴趣主要在数学图像处理的模型与算法方面,目前已在 IEEE TPAMI, SIIMS, SISC,ACHA 等期刊和 CVPR, ICML, NeurIPS, ICLR 等会议上共计发表学术论文 30余篇。