11112223333

Frequency Principle in Deep Learning and MscaleDNN for learning high frequency

发布人:日期:2020年10月27日 20:42浏览数:

报告题目:Frequency Principle in Deep Learning and MscaleDNN for learning high frequency

报 告 人:许志钦副教授(上海交通大学)

报告时间:2020102916:00-17:00

报告地点:数学研究中心5楼多功能报告厅

报告摘要:

We demonstrate a very universal frequency principle that deep neural networks learn low frequency faster on high-dimensional benchmark datasets such as MNIST/CIFAR10 and deep neural networks such as VGG16. Then, we utilize the frequency principle to understanding the generalization of deep learning. Finally, we design a multi-scale DNN which learn high-frequency function much faster in applications, e.g., solving PDEs.

报告人简介:

许志钦,博士,上海交通大学数学科学学院&自然科学研究院长聘教轨副教授

上海交通大学数学科学学院学士(2012)和博士(2016)。从2016年至2019年,他在纽约大学阿布扎比分校和美国纽约大学库朗研究所从事博士后研究,于2019年加入上海交通大学自然科学研究院、数学科学学院。许志钦目前的研究兴趣主要是深度学习理论和计算神经科学。

上一条:Recent results on well-posedness of polymeric fluid models

下一条:Deforming vertex algebras by module and comodule actions of vertex bialgebras.

【关闭】 打印    收藏