ICML 全称 International Conference on Machine Learning,由国际机器学习学会(IMLS)举办,是计算机人工智能领域的顶级会议。今年的 ICML 大会已是第 40 届,共收到 6538 份投稿,有1827 份被接收,录用率为27.9%。
在今年的杰出论文评选中,共有32篇候选,最终共有6篇论文摘得桂冠,涉及无学习率、为 LLM 加水印、未见过域泛化、不完全信息零和博弈的近优策略、MCMC 和频率顺序学习的贝叶斯设计原则等领域。
下面让我们来看看这6篇杰出论文的具体内容。
杰出论文
1.Learning-Rate-Free Learning by D-Adaptation
标题:基于D-Adaptation的无学习率学习
作者:Aaron Defazio (FAIR), Konstantin Mishchenko (Samsung AI Center)
内容:本文介绍了一种有趣的方法,旨在解决获得非平滑随机凸优化的学习率自由最优边界的挑战。作者提出了一种克服传统学习率选择在优化此类问题时所施加的限制的新方法。这项研究对优化领域做出了有价值和实际的贡献。
2.A Watermark for Large Language Models
标题:大语言模型的数字水印
作者:John Kirchenbauer, Jonas Geiping, Yuxin Wen, Jonathan Katz, Ian Miers, Tom Goldstein (马里兰大学)
内容:本文提出了一种对大型语言模型输出进行水印处理的方法,即将信号嵌入到生成的文本中,这些文本对人类来说是不可见的,但可以通过算法检测到。无需重新训练语言模型即可生成水印,无需访问 API 或参数即可检测到水印。本文还提出了一种用于检测具有可解释p值的水印的统计检验,以及用于分析其敏感性的信息理论框架。该方法简单新颖,理论分析扎实,实验扎实。鉴于在检测和审计LLM生成的合成文本方面出现的关键挑战,本文有可能对社区产生重大影响。
3.Generalization on the Unseen, Logic Reasoning and Degree Curriculum
标题:对未见的泛化,逻辑推理和程度课程
作者:Emmanuel Abbe(EPFL,Apple),Samy Bengio(Apple),Aryo Lotfi(EPFL),Kevin Rizk(EPFL)
内容:这项工作在学习布尔函数方面取得了重大进展,特别是针对看不见的泛化(GOTU)设置,这提出了一个具有挑战性的分布外泛化问题。本文广泛探讨了这一重要主题,提供了一种由理论分析和广泛实验支持的结构化方法。此外,它通过概述深度神经网络领域的一个关键研究方向而脱颖而出。
4.Adapting to game trees in zero-sum imperfect information games
标题:适应零和不完全信息博弈中的博弈树
作者:Côme Fiegel (CREST, ENSAE, IP Paris), Pierre MENARD (ENS Lyon), Tadashi Kozuno (Omron Sinic X), Remi Munos (Deepmind), Vianney Perchet (CREST, ENSAE, IP Paris and CRITEO AI Lab), Michal Valko (Deepmind)
内容:本文介绍了不完全信息零和博弈的近优策略。它严格地建立了一种新的下界,并提出了平衡FTRL和自适应FTRL两种算法。这些贡献极大地推动了不完全信息游戏中的优化领域。实验证实了这些说法,为研究结果提供了充足的支持。
5.Self-Repellent Random Walks on General Graphs - Achieving Minimal Sampling Variance via Nonlinear Markov Chains
标题:在通用图上的自排斥随机游走 - 通过非线性马尔可夫链实现最小采样方差
作者:Vishwaraj Doshi (IQVIA Inc), Jie Hu (北卡罗来纳州立大学), Do Young Eun (北卡罗来纳州立大学)
内容:本文解决了一组具有挑战性的开放问题,即具有自排斥随机游走的MCMC。它超越了传统的非回溯方法,为MCMC采样的新研究方向铺平了道路。作者对马尔可夫链蒙特卡洛文学做出了原创性且非平凡的贡献;值得注意的是,这个过程可以被严格分析和证明。这篇论文写得很好,对主要概念进行了清晰直观的解释。结果令人信服和全面。
6.Bayesian Design Principles for Frequentist Sequential Learning
标题:用于频率学顺序学习的贝叶斯设计原理
作者:徐云北,阿萨夫·泽维(哥伦比亚大学)
内容:本文解决了设计强盗和其他顺序决策策略的非常普遍的问题。它提出了使用称为算法信息比率的新量来界定任何策略的遗憾的方法,并推导出了优化该边界的方法。该界限比类似的早期信息理论量更严格,并且这些方法在随机和对抗性强盗设置中都表现良好,实现了世界上最好的。特别有趣的是,这篇论文可能为一系列全新的勘探开发策略打开了大门,超越了著名的汤普森采样和土匪UCB。这个原则延伸到强化学习的事实是非常有希望的。该文件得到了专家审评员的一致和大力支持。
关注下方《学姐带你玩AI》🚀🚀🚀
回复“ICML杰出”获取全部论文原文+代码合集
码字不易,欢迎大家点赞评论收藏!