赌博网站

赌博网站
赌博网站
当前位置: 赌博网站 > 新闻动态 > 正文

新闻动态

2026年北京大学机器学习与优化研讨会成功举办

时间:2026-04-10    点击数:
时间 主讲人
地点

2026年4月4日,由推荐赌博网站 、数学科学学院和跨媒体通用人工智能全国重点实验室共同主办的2026年北京大学机器学习与优化研讨会在智华楼文远堂召开。本次研讨会由北大推荐赌博网站 副院长、博雅特聘教授林宙辰北京国际数学研究中心教授文再文推荐赌博网站 助理教授方聪前沿交叉学科研究院助理教授袁坤共同主持方聪致开幕词

本次研讨会汇聚国内外优化与机器学习领域的顶尖学者,围绕机器学习高效求解方法展开深入讨论。会议主题涵盖凸优化、流形优化等优化技术的理论进展,也涉及深度学习中的非凸优化、张量分解等前沿问题探讨基于学习的优化方法、优化尺度率等面向实际应用场景的高效算法设计,旨在促进理论研究与实际应用的深度融合。与会嘉宾包括北京大学胡俊教授、中山大学凌青教授、上海交通大学刘方辉等。

赌博网站

袁亚湘院士作题为《Optimization on Product Manifolds under a Preconditioned Metric》的报告

中国科学院数学与系统科学研究院袁亚湘院士作了题为《Optimization on Product Manifolds under a Preconditioned Metric》的报告。黎曼流形上的优化效果依赖于所选用的度量,因此探究黎曼优化方法的性能随不同度量的变化规律,以及如何精巧构造度量以实现方法加速,具有重要研究价值。为此,袁院士主要针对赋予预条件度量的乘积流形优化问题,报告了一套通用分析框架和在该度量下构建的黎曼优化方法。该度量通常由一个算子构造而成,其目标是近似取代函数黎曼海森矩阵的对角块。研究提出了三种具体的算子设计思路:精确块对角预条件、左右预条件以及高斯-牛顿型预条件。针对典型相关分析、截断奇异值分解与张量环补全问题,报告讨论了新型预条件度量,在实践中取得了更快速度。

赌博网站

Stephen Boyd院士作题为《Convex Optimization》的报告

斯坦福大学Stephen Boyd院士作了题为《Convex Optimization》的报告。凸优化已成为一种实用工具,广泛应用于数据分析与模型拟合、机器学习与统计学、资源分配、工程设计、网络设计与优化、金融,以及控制和信号处理等领域。本次报告将概述凸优化的基础数学理论、求解算法与软件框架,并给出若干实例。同时也介绍实时嵌入式凸优化,这类场景下需要在毫秒级的时间尺度内反复求解小规模凸优化问题。

赌博网站

印卧涛主任作题为《Rich Equilibria: The Hidden Power of Implicit Models》的报告

阿里巴巴达摩院决策智能实验室印卧涛主任作了题为《Rich Equilibria: The Hidden Power of Implicit Models》的报告。隐式模型(又称平衡模型或不动点模型)具有紧凑、内存高效且性能惊人的特点,其优势源于迭代过程——通过重复应用同一个模块,它们能在推理阶段逐步释放更丰富的性能。报告给出了这一现象的数学证明,并讨论了相关实验,实验结果表明,随着迭代深度的增加,可获得更优、更稳定的解。

赌博网站

林宙辰教授作题为《ReFTA: Breaking the Weight Reconstruction Bottleneck in Tensorized Parameter-Efficient Fine-Tuning (PEFT)》的报告

北京大学推荐赌博网站 林宙辰教授作了题为《ReFTA: Breaking the Weight Reconstruction Bottleneck in Tensorized Parameter-Efficient Fine-Tuning (PEFT)》的报告。现有基于张量的参数高效微调(PEFT)方法在训练过程中通常需要反复重构模型权重,导致大量的计算和内存开销。为克服这些局限性,本报告汇报了无重构基于张量的适配方法(ReFTA),该方法具有四个核心优势:(1)利用张量的代数性质,消除了重复的显式张量重构;(2)通过仅微调张量的主成分,实现了更低的量化误差;(3)具备坚实的泛化保证,其理论基础源于基于张量积方法的代数原理;(4)采用统一设计,仅通过单一张量秩配置即可控制。在图像分类(IC)和自然语言理解(NLU)任务上的大量实验表明,ReFTA在所有评估方法中实现了最佳的精度-效率权衡。在大多数情况下,ReFTA以最少的可训练参数获得了最高的平均精度。例如,在使用RoBERTa-Large模型的NLU任务中,与大多数现有方法相比,ReFTA的平均精度提升了约5%,同时其参数数量比LoRA(r=1)减少了86.4%,比PiSSA减少了97.5%。

赌博网站

文再文教授作题为《Learning-Based Algorithms for Solving Combinatorial Optimization》的报告

北京大学文再文教授作了题为《Learning-Based Algorithms for Solving Combinatorial Optimization》的报告。本报告探索了将数据、模型与算法深度融合的基于学习的优化范式,用于解决组合优化问题。针对二进制整数规划问题,采用蒙特卡洛策略梯度方法,实现了在可行域内的高效采样与搜索;针对二次分配问题,构建了离线训练与在线微调相结合的集成框架,平衡了解的精度与可扩展性;在复杂约束路径规划和基于有向无环图的异构调度问题中,将惰性掩码解码与启发式搜索进行协同结合。大量实验表明,基于学习的算法在解的质量、可行性和鲁棒性方面展现出显著优势。

赌博网站

包承龙副教授作题为《Interactions Between Dynamical Systems and Numerical Algorithm Design》的报告

清华大学包承龙副教授作了题为《Interactions Between Dynamical Systems and Numerical Algorithm Design》的报告。数值算法与动力系统联系紧密,但通常从不同视角进行研究。本报告在科学计算与优化的背景下,探索了二者之间的相互作用。首先,研究考虑了相场晶体模型,这类模型通常被表示为梯度流,研究表明,数值优化中的思想可用于设计比标准梯度流方案更快的算法。其次,研究探讨了优化的动力系统视角,其中加速方法可被解释为合适常微分方程的离散化,并与现代机器学习架构存在关联。

赌博网站

袁坤助理教授作题为《A Mathematics-Inspired Learning-to-Optimize Framework for Decentralized Optimization》的报告

北京大学袁坤助理教授作了题为《A Mathematics-Inspired Learning-to-Optimize Framework for Decentralized Optimization》的报告。大多数去中心化优化算法都是手工设计的,尽管这类算法具有强有力的理论保证,但通常针对广泛的问题类别,无法根据特定问题的特征进行自适应调整或定制。本研究旨在通过数据驱动的去中心化算法,利用问题特征来加速收敛。现有基于学习的优化方法通常存在泛化能力差或搜索空间过大的问题,此外,在去中心化场景中,通信选择的庞大搜索空间以及通过有限的邻域通信达到全局解的最终目标,带来了更多挑战。为解决这些挑战,本研究首先推导了成功的去中心化算法规则要实现最优性和一致性所需满足的必要条件。基于这些条件,提出了一种新型的数学启发式去中心化优化学习框架(MiLoDo)。实证结果表明,经MiLoDo训练的算法优于手工设计的算法,并表现出较强的泛化能力:经MiLoDo训练、迭代100次的算法,在推理阶段迭代100000次时仍能稳定运行;此外,在合成数据集上经MiLoDo训练的算法,在涉及真实数据、更高维度和不同损失函数的问题上也能表现良好。

赌博网站

方聪助理教授作题为《Recent Advances in Stochastic Gradient Methods for Streaming Machine Learning Problems》的报告

方聪助理教授作了题为《Recent Advances in Stochastic Gradient Methods for Streaming Machine Learning Problems》的报告。在现代机器学习应用中,数据通常以流的形式动态到达,使得模型能够基于传入的样本计算梯度并立即进行更新。本报告旨在探索几种典型的流学习场景,并系统研究提升优化效率的加速方法。针对非结构化学习问题中的一般目标函数,研究讨论了方差减少技术,它能更加高效寻求一阶和二阶平稳点。报告重点关注机器学习中的结构化问题:对于广义线性回归中的凸优化问题,分析了动量方法在广泛条件下的加速效果;此外,对于张量分解等具有挑战性的非凸问题,对模型进行适当的过参数化可以作为弥合统计效率和计算效率之间差距的关键策略;最后针对低内存开销的大模型训练问题,报告汇报了一种去偏的低秩动量方法。

赌博网站

Volkan Cevher教授作题为《Training Neural Networks at Any Scale》的报告

洛桑联邦理工学院Volkan Cevher教授作了题为《Training Neural Networks at Any Scale》的报告。深度学习变革性影响的核心在于规模——包括数据和计算资源,以及它们与神经网络架构的相互作用。然而,规模带来了关键挑战,例如训练过程中不稳定性增加以及模型特定调优的成本过高。鉴于训练此类模型需要大量资源,制定由严谨理论研究支持的高可信度缩放假设变得至关重要。为连接理论与实践,本报告探讨了缩放的关键数学要素以及缩放理论:深度学习中常用的数值求解算法,涵盖从视觉到语言模型的各个领域。研究将这些算法统一在一个通用的主模板下,使其基本原理更加清晰。在此过程中,揭示了通过在线学习适应平滑结构与通过非欧几里得范数利用优化几何之间的相互作用。报告内容不仅限于构建更大的模型——更强调策略性缩放,提供有望推动该领域发展同时节省资源的见解。

赌博网站

部分研讨会嘉宾与部分参会师生合影


赌博网站
赌博网站
赌博网站
赌博网站
赌博网站
赌博网站
赌博网站
赌博网站
赌博网站

研讨会嘉宾与参会师生深入探讨与交流

本次研讨会拓宽优化和机器学习在众多前沿领域研究中的科研视野,分享和交流该领域的最新进展和研究成果,探讨优化和机器学习领域学者关心的热点问题。大会主办方将继续致力于推动人工智能与机器学习技术的发展,努力为国家的科技创新和社会进步贡献更多力量。


关闭

地址:北京市海淀区颐和园路5号(62755617)   反馈意见:[email protected]

Copyright 版权所有©推荐赌博网站-最全赌博网站推荐与评测 All Rrights Reserved.

赌博网站