NeurIPS 2022-10大主题、50篇论文总结

news2024/11/19 13:14:20

2672篇主要论文,63场研讨会,7场受邀演讲,包括语言模型、脑启发研究、扩散模型、图神经网络……NeurIPS包含了世界级的AI研究见解,本文将对NeurIPS 2022做一个全面的总结。

第36届Neural Information Processing Systems Conference(NeurIPS)已经收官一个月了,我们这里整理了他的2672篇论文,163篇Datasets & Benchmark跟踪论文,以及63个研讨会的700多篇研讨会论文,希望这对你有帮助。

我们将内容分为10个关键主题领域,以及它们所包含的内容的简要描述,并选择了5篇我们推荐的论文,这对了解整个行业的发展都有所帮助。

1. Language Models and Prompting

语言模型是人工智能中最受欢迎的研究领域——尤其是自2020年引入GPT-3以来——该领域在会议上得到了大量关注。有来自谷歌、DeepMind、OpenAI、Meta、Stanford等大型计算公司的许多重磅论文。

有很多关于“simple prompting”技术的工作,比如思维链技术(或技巧?),这些技术可以从简单的预训练自回归lm中挤出更多的性能。多模态今年也受到了关注,DeepMind的Flamingo(视觉+语言)是其中最受欢迎的,谷歌的Minerva展示了在使用正确的数据进行预训练时,LMs在数学方面可以有多好,而InstructGPT展示了如何使用人类反馈和强化学习来微调大型LMs。

1、 Chain of Thought Prompting Elicits Reasoning in Large Language Models

💡简单地提示lm输出推理步骤,而不是直接的答案,极大地提高了性能。其后续作品包括STaR等。

2、 Flamingo: a Visual Language Model for Few-Shot Learning

💡DeepMind介绍了一个“简单的”单一模型,经过视觉+语言的预训练,可在各种多模态任务的最先进水平

3、 Solving Quantitative Reasoning Problems with Language Models (Minerva)

💡在数学数据上训练的大型LM可以在定量推理任务上实现强大的性能,包括在MATH数据集上的最先进的性能。

4、 Data Distributional Properties Drive Emergent In-Context Learning in Transformers

💡大规模的预训练在哪些方面推动语境学习?训练数据的分布需要突发性和大量的罕见情况。

5、Training language models to follow instructions with human feedback (InstructGPT)

💡OpenAI使用强化学习从人类在循环(RLHF)微调GPT-3使用从人类标签收集的数据。由此产生的模型称为InstructGPT,在一系列NLP任务上优于GPT-3。

2. Diffusion Models

如果有什么东西值得在2022年获得最酷的称号,那一定是文本到图像生成模型,其中大多数由扩散模型驱动:OpenAI的DALL·e2,谷歌的Imagen,或Stable diffusion。

它们流行还不到2年!-建模技术现在已经超越了2D静态图像生成的领域,并被应用于3D场景合成,视频生成,和分子对接等。正如我们在2017年的Transformers 中所看到的,一个研究想法成为主流所需的时间正在缩短。

1、 Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding (Imagen)

💡Imagen,一个使用扩散模型的文本到图像合成的简单方法。

2、 Object Scene Representation Transformer (OSRT)

💡一个高效的3d模型建模

3、 Denoising Diffusion Restoration Models (DDRM)

💡使用预训练的去噪扩散概率模型(ddpm)进行超分辨率、去模糊、修补和着色,无需特定问题的监督训练。

4、 Flexible Diffusion Modeling of Long Videos

💡应用到视频域的ddpm。捕获帧之间的长期依赖关系,他们提出了一种架构,可以灵活地限制视频帧的任何子集。

5、EGSDE: Unpaired Image-to-Image Translation via Energy-Guided Stochastic Differential Equations

💡能量引导随机微分方程(EGSDE),使用在源和目标域上预训练的能量函数来指导预训练的SDE的推理过程,以实现真实和的图像到图像(I2I)。

3. Self-Supervised Learning

自监督学习(SSL)已经成为现代ML的一个重要组成部分,它现在已经以这样或那样的方式融入到大多数研究中。在深度学习中,NLP在2018年首次以BERT引领潮流,计算机视觉后来以SimCLR等成功的技术加入了SSL。

2022年SSL中最亮眼的应该是DeepMind的Chinchilla:一项关于语言模型的预训练预算应该花多少在模型参数上,以及在更大的训练语料库上花多少钱的研究(发现大多数大型LM都太大或训练不足),最后得到了一个模型Chinchilla,包含了70B参数的LM,并且通过更长训练时间而优于其较它的对手。

最后,我们也不能错过用于信息检索的全新(部分)SSL技术,例如可微分搜索索引。

虽然SSL现在是如此普遍,但它经常被降级为一个不太引人注意的注释。所有这些研究都证明,在这一领域还有许多有待发现的新见解。

1、 An empirical analysis of compute-optimal large language model training (Chinchilla)

💡最好在更多的令牌上训练一个更小的语言模型。DeepMind用他们的70B参数的Chinchilla模型展示了这一点,其性能优于更大的模型,如Gopher (280B)、GPT-3 (175B)或Megatron-Turing NLG (530B)。

2、 VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training

💡在视频上做了精致的预训练视频表示。它包含了3个要点:高遮蔽比是最好的,技术即使在小数据集上也能很好地工作,当涉及到自监督视频抑制时,质量>数量。

3、 Quality Not Quantity: On the Interaction between Dataset Design and Robustness of CLIP

💡系统地研究了CLIP预训练数据源之间的相互作用,混合多个数据源并不一定会产生更好的模型。

4、 A Data-Augmentation Is Worth A Thousand Samples: Analytical Moments And Sampling-Free Training

💡数据增强(DA)及其如何影响模型参数的分析研究。例如,给定损失,普通的DAs需要数万个样本才能正确估计损失,并使模型训练收敛。

5、Transformer Memory as a Differentiable Search Index

💡 单个 Transformer 被训练为在给定查询提示的情况下直接输出文档标识符自回归。后续工作也在 NeurIPS 上展示,例如用于文档检索的神经语料库索引器。

4. Graph Neural Networks

等方差、3D分子生成、偏微分方程……图神经网络(gnn)已经存在了一段时间,虽然它们还没有像Transformers 或扩散模型那样的流行,但在过去几年里它们在稳步增长,并扩展到药物设计、微分方程求解或推理等应用领域。

在某种程度上,gnn是对nn的一种新的抽象,可以从第一原则中解放思想,即如何将任意问题投射到正确的架构中,通过利用对称性和不变性来摆脱维数的诅咒。这是找到正确的表示来计算求解偏微分方程或预测有机分子的形状以更有效地设计新药的关键。

1、 Zero-Shot 3D Drug Design by Sketching and Generating (DESERT)

💡一种由预训练技术驱动的零样本药物设计方法。现有的基于深度学习的药物设计方法往往依赖于稀缺的实验数据或缓慢的对接模拟。DESERT将设计过程分为草图和生成阶段,在保持高精度的同时加快生成速度。

2、 Torsional Diffusion for Molecular Conformer Generation

💡Torsional Diffusion 比以前基于扩散的方法快几个数量级。

3、 MAgNet: Mesh Agnostic Neural PDE Solver

💡一种新颖的网格架构,预测PDE域的任何空间连续点的PDE解决方案,并且可以在不同的网格和分辨率上推广。

4、 MACE: Higher Order Equivariant Message Passing Neural Networks for Fast and Accurate Force Fields

💡消息传递神经网络(MPNNs)是一种模拟原子间电位的强大方法,但效率很低。MACE以高度并行的方式引入高阶消息传递,在各种基准测试中实现SOTA。

5、Few-shot Relational Reasoning via Connection Subgraph Pretraining (CSR)

💡CSR可以通过知识图上的自我监督预训练,直接对少样本任务进行预测。

5. Reinforcement Learning

让代理更高效地学习是RL研究人员仍在努力解决的一个关键问题,而今年的NeurIPS包含了许多关于如何实现这一目标的建议。例如,大规模使用离线学习和模仿学习来克服最初低效的探索阶段,改进信用分配技术以更好地获得稀疏的奖励环境,或使用预训练的语言模型来引导具有人类先验的政策。其他兴趣点通常围绕着稳健性和再现性,这与具有挑战性的开放式设置中的效率密切相关。

最后,RL也看到了在芯片设计等领域的成功应用,有相当多关于该主题的论文。

1、 Using natural language and program abstractions to instill human inductive biases in machines

💡元学习代理可以通过与语言描述和程序归纳的表示进行联合训练来学习人类归纳偏见。

2、 MineDojo: Building Open-Ended Embodied Agents with Internet-Scale Knowledge

💡利用大型预训练模型自动标记视频动作,创建大规模数据集用于离线学习,仅使用来自Minecraft的视频数据。

3、 MaskPlace: Fast Chip Placement via Reinforced Visual Representation Learning

💡学习在硅芯片设计上分配组件的RL代理比人类更好。

4、 Spending Thinking Time Wisely: Accelerating MCTS with Virtual Expansions

💡MCTS通过在更困难的状态上分配更高的计算预算来提高效率。

5、Trajectory balance: Improved credit assignment in GFlowNets

💡GFlowNets 解决了信用分配问题(轨迹中的哪个动作对最终奖励最负责?),可以获得更快的收敛和更好地拟合到目标分布。

6. Brain-Inspired

NeurIPS也是神经科学相关文献的发源地;我们的大脑是OG神经信息处理系统,它激发了许多现代人工神经网络。

这一多样化的领域涉及到从脑成像技术(如功能磁共振成像)中学习的大量内容,可以替代我们对神经元、spike Neural Networks等的了解!

1、 Learning on Arbitrary Graph Topologies via Predictive Coding

💡Backprop不允许在具有循环或向后连接的网络上进行训练,这被假设为类脑计算的必要条件。论文展示了预测编码(PC),一种在皮层中进行信息处理的理论,如何用于对任意图拓扑进行推理和学习。

2、 Theoretically Provable Spiking Neural Networks

💡具有自连接的spike神经网络的逼近能力和计算效率的理论研究。

3、 Self-Supervised Learning of Brain Dynamics from Broad Neuroimaging Data

💡新颖的神经成像数据自监督学习技术,灵感来自自然语言处理中的学习框架,使用迄今为止用于预训练的最广泛的神经成像数据集之一。

4、 On the Stability and Scalability of Node Perturbation Learning

💡节点扰动对过度参数化是可扩展的,但在模型不匹配的情况下是不稳定的。

5、An Analytical Theory of Curriculum Learning in Teacher-Student Networks

7. Out-of-Domain Generalization

域外泛化与因果关系密切相关,是学术界研究的热点。虽然独立的OOD研究还没有完全成为主流,但在机器学习基准测试中,有一个不可否认的广泛趋势,即越来越关心在具有挑战性的条件下(如零/少样本或大量数据分布变化)的健壮泛化,因为静态域内评估已经以破纪录的速度一个接一个地被破解。

与大多数早期阶段一样,该领域仍然缺乏标准化,这就是为什么我们强调了关于该主题的几篇论文(2,3)。此外还介绍了一种简单的集成技术,用于领域泛化(1),表格嵌入(4),以及用于因果发现的规模稀疏连接因子图(5),这代表了我们之前强调过的研究方向的进展:使用稀疏性+通信瓶颈将模型约束为捕获其健壮的因果结构的世界学习模型。

1、 Ensemble of Averages: Improving Model Selection and Boosting Performance in Domain Generalization

💡在训练和集成期间使用模型参数的简单移动平均的简单无参数策略在领域泛化基准上实现了SOTA,并且可以使用Bias-Variance权衡来解释。

2、 Assaying Out-Of-Distribution Generalization in Transfer Learning

💡分布外泛化的大规模实证研究。

3、 Is a Modular Architecture Enough?

💡用于研究广泛的混合专家的模块化系统的度量标准。这样的系统会出现崩溃和专门化的问题,可能需要额外的归纳偏差来克服这种次优性。

4、 On Embeddings for Numerical Features in Tabular Deep Learning

💡用向量代替标量值表示数值特征可以显著提高DL模型处理表格数据的能力。

5、Large-Scale Differentiable Causal Discovery of Factor Graphs

💡使用因子图进行大规模因果发现学习。

8. Learning Theory

我们中的许多人都觉得繁重的数学东西令人讨厌。但是NeurIPS还是有很多东西可以学习。

大批量已被证明是通过对比学习成功学习表征的必要条件。这在直觉上是有道理的,但有没有更有根据的统计解释呢?(1)或者当我们盲目地对不够平滑的函数使用autodiff时,我们能得到什么保证呢?(3)或者在哪些条件下,在分布外情况下表现良好是可能的?(2).如果你对这些问题感兴趣,请查看下面的论文。

1、 Why do We Need Large Batch sizes in Contrastive Learning? A Gradient-Bias Perspective

💡一种贝叶斯数据增强方法,用于在对比学习中消除梯度偏差的负样本。

2、 Is Out-of-Distribution Detection Learnable?

💡通过可能近似正确(PAC)学习理论的视角,研究了OOD检测的泛化:分类样本是否属于训练分布。他们发现在某些条件下这是不可能的,并证明了关于它的形式定理,但这些条件在现实世界的问题中大多不需要考虑。

3、 Automatic differentiation of nonsmooth iterative algorithms

💡当你对不够平滑的函数应用autodiff时会发生什么?基本上还好。它们都收敛于经典导数。

4、 Efficient and Modular Implicit Differentiation

💡Autodiff,但以隐式形式(即当您无法将f(x)隔离在等号的左侧时)。

5、Gradient Descent: The Ultimate Optimizer

💡使用梯度下降不仅可以调优超参数,还可以调优超超参数,这项工作展示了如何通过对反向传播进行简单而优雅的修改来自动计算超梯度。

9. Adversarial Robustness, Federated Learning, Compression

ML中的对抗鲁棒性已经是一个很长时间的事情了,今年也没有什么不同(3,5)。这是可以理解的,因为当涉及到在安全关键应用(如自动驾驶)中使用模型时,这是一个非常重要的问题。

联邦学习,有时与差分隐私结合是另一个多产的研究领域,仍然需要在主流的现实世界应用中找到它的用途(2)。压缩,剪枝和其他速度/效率增强技术(4)已经在现实世界中广泛使用。

1、 Beyond neural scaling laws: beating power law scaling via data pruning

💡在理论和实践中,关于数据集大小的幂律误差缩放可以通过智能数据修剪来改善。

2、 Self-Aware Personalized Federated Learning

💡提出了一种新的自适应用于个性化的联邦学习算法。

3、 Increasing Confidence in Adversarial Robustness Evaluations

💡这项测试,使研究人员能够发现有缺陷的对抗性稳健性评估。通过这个测试产生了令人信服的证据,证明所使用的攻击具有足够的能力来评估模型的鲁棒性。

4、 On-Device Training Under 256KB Memory

💡用于在小型物联网设备上进行设备上训练的框架,即使在有限的256KB内存也可以。

5、Pre-trained Adversarial Perturbations

💡一种使用预训练模型生成对抗样本的新算法,该算法可以欺骗相应的微调模型,从而揭示微调预训练模型执行下游任务的安全问题。

10. Datasets & Benchmarks

最后但并非最不重要的是ML的中的基础。随着进步的步伐不断加快,现代数据集的饱和速度也比大多数人预测的要快。和去年一样,NeurIPS为数据集和基准论文设立了一个特殊的渠道。

许多提议的基准测试都非常有趣和有用,所以下面的列表肯定会遗漏其中的一些,我们这里只介绍我们觉得感兴趣的。

1、 LAION-5B: An open large-scale dataset for training next generation image-text models

💡一个开放的,公开的5.8B图像-文本对数据集,通过重现训练不同规模的最先进的CLIP模型的结果来验证它。

2、 DC-BENCH: Dataset Condensation Benchmark

💡Dataset condensed旨在学习一个微小的数据集,该数据集捕获原始数据集中编码的丰富信息。

3、 NeoRL: A Near Real-World Benchmark for Offline Reinforcement Learning

💡近真实世界离线RL基准(NeoRL),重点是在真实世界应用程序中部署离线RL的完整管道,旨在弥合离线评估和在线部署性能之间的性能差距。

4、 A Unified Evaluation of Textual Backdoor Learning: Frameworks and Benchmarks

💡在训练阶段注入后门可能是对手控制语言模型等NLP系统的强大方法。这项工作提供了一个开源工具包OpenBackdoor,可以严格评估模型对这类攻击的脆弱性。

5、PEER: A Comprehensive and Multi-Task Benchmark for Protein Sequence Understanding

💡一个全面的多任务蛋白质序列理解基准,它研究单任务和多任务学习。

以上就是我们对 NeurIPS 的完整总结,希望对你有所帮助。

https://avoid.overfit.cn/post/a14a0a08e24d46f38f80dc7bb4b6f168

作者:Sergi Castella i Sapé zeta-alpha

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/82171.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

“美亚杯”第二届中国电子数据取证大赛答案解析(团体赛)

1. 根据所提供的文件,在映像文件的采集过程中,曾使用那一种的写入保护设备? A)软件写入保护设备 B)WiebeTech写入保护设备 C)EPOS写入保护器 D)Tableau取证工具SATA / IDE Bridge IEEE 1394…

内容完美!阿里技术官21年新肝出了一份MySQL笔记+面试题

目录 共有12个章节的内容,看大标题就知道全部都是MySQL的重要知识! 内容过多,没有办法全部展示 部分内容截图 Mysql权限 MySql数据类型 锁 业务设计 索引与执行计划 MySQL面试笔记 面试笔记分为6章,分别是MySQL基础篇、MySQL索引…

【脚本项目源码】Python制作多功能音乐播放器,打造专属你的音乐播放器

前言 本文给大家分享的是如何通过利用Python实现多功能音乐播放器,废话不多直接开整~ 开发工具 Python版本: 3.6 相关模块: os模块 sys模块 time模块 random模块 PyQt5模块 环境搭建 安装Python并添加到环境变量,pip安…

Pro_12丨为股指而战

量化策略开发,高质量社群,交易思路分享等相关内容 『正文』 ˇ 大家好,今天我们分享2022年度最后一期策略——股指专属策略。本期策略是2022年专门为股指而开发的专属策略,算是我个人对明年的一厢情愿吧! 该策略由超…

剑指Serverless, 入围Forrester Wave, 6.5 LTS 预览,TiDB 多元数据生态再升级 | PingCAP DevCon 2022

2022 年 12 月 1 日 - 3 日,由 PingCAP 主办的年度数据技术盛会 PingCAP DevCon 2022 在线上成功举行。本届 DevCon 以 "去发现,去挑战" 为主题,邀请了多位行业意见领袖、专家学者和 70 多位来自全球的技术大咖聚焦云原生、HTAP、S…

打造家居建材企业核心竞争力,数商云SCM管理系统高效高质满足企业采购需求

随着消费水平的提高和消费观念的升级,中国房地产市场从增量时代走向存量时代,作为家居建材家装业的上游,房地产行业的变动影响着家居建材行业的发展。当前家居建材行业正处于调整分化、转型升级的关键时期,也是创新动力最强的时期…

Docker-数据卷(Data Volumes)dockerfile

目录 一,宿主机与容器之间的文件拷贝 1.1 容器中怎么上传项目(文件) 1.2 从宿主机拷贝文件到容器 1.3 从容器中拷贝文件到宿主机 二 数据卷 三 数据卷容器 四 Dockerfile Dockerfile制作增强版 自定义centos 具备vim以及ifconfig Dock…

nodejs+vue农产品进销存管理系统

摘 要 I ABSTRACT II 目 录 II 第1章 绪论 1 1.1背景及意义 1 1.2 国内外研究概况 1 1.3 研究的内容 1 第2章 相关技术 2 2.5 MySQL数据库 3 第3章 系统分析 4 3.1 需求分析 4 3.2 系统可行性分析 4 3.2.1技术可行性:技术背…

Python进阶学习

Python进阶学习 参考资料: AILearning菜鸟教程python之platform模块 python-version: 3.9 使用Jupyter进行练习 一、sys模块 import sys命令行参数 sys.argv 显示传入的参数: %%writefile print_args.py import sys print(sys.argv)Writing print_a…

达摩院开源低成本大规模分类框架FFC CVPR论文深入解读

一、论文&代码 论文链接:An Efficient Training Approach for Very Large Scale Face Recognition 应用&代码: https://modelscope.cn/models/damo/cv_ir50_face-recognition_arcface/summary https://modelscope.cn/models/damo/cv_resnet_f…

使用ONNXRuntime部署阿里达摩院开源DAMO-YOLO目标检测,一共包含27个onnx模型(代码开源)...

2022点击蓝字 关注我们关注并星标从此不迷路计算机视觉研究院学习群|扫码在主页获取加入方式获取代码|关注并回复“onnx部署”01概述ONNXRuntime是微软推出的一款推理框架,用户可以非常便利的用其运行一个onnx模型。ONNXRuntime支持多种运行后…

深入理解 equals() 方法以及与 == 的区别

当使用 判断两个变量是否相等时 如果两个变量是基本类型的变量,且都是数值类型,只要两个变量的数值相等,则返回 true 对于两个引用类型变量, 比较的是变量(栈)内存中存放的对象的(堆)内存地址,用来判断两个对象的地址…

vue+element-ui el-date-picker日期组件再次封装(DatePicker与DateTimePicker合并根据type值来显示)

1、最终效果 2、TDatePicker 参数配置 1、简介&#xff1a;基于 ElementUI DatePicker DateTimePicker 组件的二次封装&#xff0c;取决于 type 值 代码示例&#xff1a; <t-date-picker v-model"date" />2、t-date-picker&#xff08;Attributes&#xff0…

【AI工程论文解读】05-通过Ease.ML/CI实现机器学习模型的持续集成(下)

持续集成是一种软件开发实践&#xff0c;即团队开发成员经常集成他们的工作&#xff0c;通常每个成员每天至少集成一次&#xff0c;也就意味着每天可能会发生多次集成。每次集成都通过自动化的构建&#xff08;包括编译&#xff0c;发布&#xff0c;自动化测试)来验证&#xff…

cmake基础

cmake从基础到实站 cmake官方教程翻译版 CMake Cookbook中文版 cmake 备忘录 需要注意的一点&#xff1a;QT6采用cmake作为编译系统 CMake是一种跨平台编译工具&#xff0c;CMake主要是编写CMakeLists.txt文件&#xff0c;然后通过cmake命令将CMakeLists.txt文件转化为make所需…

如何理解数据库事务?

目录 &#x1f407;今日良言:保持热爱 奔赴山河 &#x1f409;一、数据库事务 &#x1f433;1.概念 &#x1f433;2.使用 &#x1f433;3.特性 &#x1f407;今日良言:保持热爱 奔赴山河 &#x1f409;一、数据库事务 &#x1f433;1.概念 事务指逻辑上的一组操作&…

学生体育铅球网页设计作品静态HTML网页模板源码 大学生体育铅球网站制作 简单校园体育网页设计成品

&#x1f389;精彩专栏推荐 &#x1f4ad;文末获取联系 ✍️ 作者简介: 一个热爱把逻辑思维转变为代码的技术博主 &#x1f482; 作者主页: 【主页——&#x1f680;获取更多优质源码】 &#x1f393; web前端期末大作业&#xff1a; 【&#x1f4da;毕设项目精品实战案例 (10…

[附源码]JAVA毕业设计医院远程诊断系统(系统+LW)

[附源码]JAVA毕业设计医院远程诊断系统&#xff08;系统LW&#xff09; 项目运行 环境项配置&#xff1a; Jdk1.8 Tomcat8.5 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术…

SQLServer性能排查之CPU使用率过高的问题

【背景】 华北某SQLServer数据库从12月起出现CPU使用率过高的情况&#xff0c;一直未能够找到原因。当时电话简单将思路进行分享&#xff0c;反馈SQLServer中出现CPU使用率过高有许多可能原因&#xff0c;但常见的原因如下最为常见&#xff1a; 由于以下情况&#xff0c;表或…

【数据结构】跳表Skiplist

文章目录跳表--skiplistskiplist的概念skilplist的原理skilplist的实现随机值函数跳表节点跳表框架查找函数寻找前置节点添加元素删除元素打印链表测试结果Skiplist与其他Key-Value结构的比较跳表–skiplist skiplist的概念 skiplist本质上也是一种查找结构&#xff0c;用于解…