《First-Order Methods in Optimization》专题学习班
主讲人:王宪福 教授 (星际电子在线与加拿大英属哥伦比亚大学)
时间:2018年6月10日—19日 14:00
地点:25教16楼学习室7
授课对象:研究生、高年级本科生
学习内容:
1. Vector Spaces.
2. Extended real-valued functions
3. Subgradients
4. Conjugate functions
5. Smoothness and strong convex
6. The proximal Operator
7. Spectral Functions
8. Primal and Dual Projected Subgradient Methods
9. Mirror Descent
10. The proximal gradient method
11. The Block Proximal Gradient Method
12. Dual-Based Proximal Gradient Methods
13. The Generalized Conditional Gradient Method
14. Alternating Minimization
15. ADMM
参考书:
1. A. Beck, First-Order Methods in Optimization, MOS-SIAM Series on Optimization, 2017
2.H.H. Bauschke, P.L. Combettes, Convex Analysis and Monotone Operator Theory in Hilbert Spaces, Second Edition, Springer, 2017
授课人简介:Xianfu Wang(王宪福),星际电子在线兼职教授、加拿大英属哥伦比亚大学数学系终身教授,博士生导师。1986年本科毕业于兰州大学并获学士学位,1999年研究生毕业于加拿大西蒙弗雷泽大学并获博士学位,曾先后在加拿大卡普顿大学、奥提根大学、英属哥伦比亚大学任助教、副教授、教授等职,以及加拿大太平洋数学研究所(Pacific Institute for the Mathematical Sciences–PIMS)的负责人之一。王教授主要从事变分分析、非光滑分析、凸分析与优化等研究,先后主持了加拿大国家研究项目等近20项,在《Mathematical Programming》、《SIAM Journal of Optimization》、《Foundations of Computational Mathematics》、《Mathematics of Computation》、《Transactions of The Americal Mathematical Society》、《Journal of Functional Analysis》等重要学术刊物上发表论文60余篇,担任《Communications in MathematicalAnalysis》、《Journal of Convex Analysis》等期刊副主编(编委)。2013年入选巴渝海外引智计划专家。