阅读记录 The Aggregation–Heterogeneity Trade-off in Federated Learning

news2024/11/27 19:36:13

The Aggregation–Heterogeneity Trade-off in Federated Learning

Abstract

机器学习的传统观点认为,训练模型的数据越多,模型的性能就越好。因此,人们开发了多种联邦学习方法来聚合尽可能多的本地样本。与这种观点相反,本文表明,在存在异构性的情况下,聚合更多数据不一定有益,并揭示了联邦学习中聚合和异构性​​之间的基本权衡。 我们考虑在 FedAvg 和局部估计器之间插值的加权 M M M 估计器的一般族,其中聚合规则由局部样本的权重确定。 我们推导了加权 M M M 估计量的估计误差上限,该上限分解为由异质性引起的偏差项和受聚合影响的方差项。引入 异质性度量 ,即联合平滑度 β,以简化一般结果。作为一个重要的结果,每个本地设备的最佳聚合规则是仅聚合 K 个设备中其 ⌊ K 2 β / ( 2 β + 1 ) / ( σ 2 / n ) 1 / ( 2 β + 1 ) ⌋ ∨ 1 ⌋ \left\lfloor K^{2β/(2β+1)}/(\sigma^2/n)^{1/(2β+1)}⌋ ∨ 1 \right\rfloor K2β/(2β+1)/(σ2/n)1/(2β+1)1 个最近邻居,其中 n n n 是局部样本大小, σ 2 σ^2 σ2 是噪声方差。此外,我们表明我们的估计器(称为 FedKNN)在以 β β β 为特征的某个参数空间上获得了极小极大最优率。这种最佳过程主要取决于设备之间在局部参数的接近度方面的相邻结构。最后,我们证明,如果没有这样的先验知识,任何估计器都无法实现比 O ( σ 2 / n ) O(σ^2/n) O(σ2/n) 更快的收敛速度,因此自适应是不可能的。

| NOTE: ∧ \land 表示逻辑“与”, ∨ \lor 表示逻辑“或”。

Keywords

federated learning, optimal affregation, k-nearest neighbors

1. Introduction

FedAvg受到本地设备之间可能存在的分布偏移的影响,这被称为异质性问题。在存在异质性的情况下,为了估计本地参数,从其他设备聚合数据会引入由于参数差异而产生的偏差。因此,聚合更多的本地样本将导致更大的偏差,这可能在一定程度上或完全抵消由于样本大小增加而产生的方差减少的好处。

因此,在联邦学习中存在一种基本的聚合-异质性权衡:通过聚合从其他设备中借用更多信息往往会增加有效样本大小,并提高每个本地设备的性能,但同时会在聚合样本中引入更多异质性并降低准确性。这可以看作是偏差-方差权衡的一种特殊形式,而这在机器学习算法的分析中起着核心作用。

很明显,最佳的聚合应该取决于异质性的程度。考虑两种极端情况。当所有设备完全具有相同的分布时,FedAvg可能是一种最优算法。在这种情况下,应该聚合所有本地样本,以最大程度地减少方差。在另一个极端情况下,任何两个本地设备的真实参数相差很大,合并任意两个本地样本都会引入巨大的偏差,这可能会抵消方差减少的好处。在这种情况下,只使用设备自己的数据的本地估计器可能是最佳选择。在这两个极端之间的中间情况中,可能既不是FedAvg也不是最优局部估计器,而应该仔细平衡聚合和异质性以实现最佳性能。

Chen[1]等人提出,当质异性度量R大于某个阈值,FedAvg是极小极大最优,否则局部估计器是极小极大最优。即R描述了真是参数的方差,是异质性的全局度量,不能捕捉设置之间的局部相异关系。

本文建立加权M估计量的估计误差上限,揭示并精确量化了聚合与异质性的权衡,为了简化表达式并找到最佳聚合规则,引入了联邦平滑度 β \beta β 来衡量设备之间的异构程度。再结合K近邻进一步开发估计器,称为FedKNN。最后本文证明FedKnn在以 β \beta β 为特征的特定参数空间上是极小极大最优,另外的方法均为次优。

  • 考虑加权估计器 M-estimator,其中聚合规则由局部样本的权重确定。权重的选择和异质性程度如何影响估计误差,证明了聚合与异质性的权衡。
  • 提出 β \beta β 联合平滑度来衡量设备间的异构程度。 β \beta β 可以理解为相邻设备间参数距离衰减到0的速率, β \beta β 越大,异质性程度越低,相比于其它, β \beta β 捕获了相邻设备间的局部差异关系。
  • 构建FedKNN,并给出aggregation-heterogeneity trade-off的简洁表述,估计误差为
    ( σ 2 n K ) 2 β 2 β + 1 ∧ σ 2 n (\frac{\sigma^2}{nK})^{\frac{2β}{2β+1}} ∧ \frac{\sigma^2}{n} (nKσ2)2β+12βnσ2
  • 证明FedKNN在 β \beta β 定义的参数空间上是极小极大最优
  • FedKNN是根据设备间相邻结构的先验知识构建的。如果没有这样的先验信息,可能需要开发一种自适应算法来以数据驱动的方式检测邻近结构。然而,在第 5 节中,我们表明在这种情况下没有算法可以提高局部速率 σ 2 / n σ2/n σ2/n,因此自适应是不可能的。当n固定时,即使K→∞,没有任何自适应算法可以将估计误差减小到0。

2. Preliminaries

假设:

  • 损失函数 μ \mu μ-强凸且 η \eta η-平滑 (意味着真实值 θ k ∗ \theta^{*}_{k} θk 唯一)
  • 梯度方差以 σ 2 \sigma^2 σ2 为界 (对于监督问题,局部噪声的方差一致有界,可以放宽到不同噪声大小的情况))
  • 所有本地数据集样本大小均为 n n n (简化结果)

NOTE:

  • σ 2 \sigma^2 σ2 为方差
  • 所有 k ∈ [ K ] k\in[K] k[K] 的局部样本大小为 n k = n n_k = n nk=n
  • k k k 为总设备数

3. General Weighted M M M-estimators

对比两种baseline:

  1. θ ^ k (avg) = arg ⁡ min ⁡ θ 1 K ∑ j = 1 K L ^ j ( θ ) \hat\theta^\text{(avg)}_k = \underset{\theta}{\arg\min}\frac{1}{K} \sum_{j=1}^{K} \hat{L}_j(\theta) θ^k(avg)=θargminK1j=1KL^j(θ)
  2. θ ^ k (loc) = arg ⁡ min ⁡ θ L ^ k ( θ ) \hat\theta^\text{(loc)}_k = \underset{\theta}{\arg\min}\hat{L}_k(\theta) θ^k(loc)=θargminL^k(θ)

这两种估计器是聚合的两个极端,前者聚合所有K个设备,后者则选择本地设备,与其它设备无关。

定义一种带加权的M估计器
θ ^ k (W) = arg ⁡ min ⁡ θ { L ^ w ( θ ) ≡ ∑ j = 1 K w k j L ^ j ( θ ) } \hat\theta^\text{(W)}_k = \underset{\theta}{\arg\min}\{\hat L_w(\theta) \equiv\sum_{j=1}^{K} w_{kj} \hat{L}_j(\theta)\} θ^k(W)=θargmin{L^w(θ)j=1KwkjL^j(θ)}

W为单位矩阵是,估计器转化为局部估计器,它将0权重分配给除自身外的所有设备。直观上,权重 w k w_{k} wk 分布越均匀,来自其它设备的信息聚合就越多。并且注意到,每个设备都有各自特定的权重 w k w_k wk ,因此加权M估计器不是获得单个全局模型,而是输出K个可能不同的参数以进行个性化推理。

基于假设1,2,对每个估计器,有如下定理

  • 定理1
    在这里插入图片描述

前一项为参数间平方距离的加权平均,源于K个设备间的异质性。为了减少这一项,应该避免聚合不相关设备的数据;后一项为设备k聚合的数据的方差导致,由柯西-施瓦茨不等式,为了减少这一项,应该使每个设备间的权重wij分布更均匀。因此这两项一般不能同时最小化,而产生了aggergation-heterogeneity trade-off。 Ben-David[2]

4. Optimal Aggregation Method

  1. 提出联合平滑度量异质性程度
  2. 通过上述度量将结果简化为更简洁版本
  3. 构建FedKNN,并表明其在参数空间上确实是极小极大最优

4.1 Federated Smoothness

定义1
在这里插入图片描述

π ( k , j ) \pi(k,j) π(k,j) 为映射到与设备k参数最j接近的索引, π ( k , 1 ) = k \pi(k,1)=k π(k,1)=k

对于满足这个定义的 θ*,我们也可以说 θ* 是 β-联邦平滑的。请注意,对于任何固定的 θ*,这样的 β 和 C 总是存在,尽管它们不是唯一的。我们对当允许 K 增加时满足某些固定 C 和 β 的联邦平滑度的参数类别特别感兴趣。此外,如果 (2) 对于某些 β 成立,那么它也对于任何 0 ≤ β′ < β 成立。因此,对于最大的 β,我们的结果可以解释为正确。

β \beta β的值衡量相邻设备的参数之间的距离衰减到0的速率,β 越大,异质性程度越低,这进一步导致估计误差更小。 π \pi π的作用是描述设备之间的相邻结构。示例包括联合学习应用程序,其中设备分布在地理上或社交网络上,并且每个设备仅与其最近的邻居共享相似的参数。在本节中,我们考虑 π 作为先验知识给出的情况。

一些例子:

  • homogeneity: 所有k个设备有相同的参数, β = ∞ \beta=\infty β=
  • compelete heterogeneity: K → ∞ K\rightarrow\infty K
  • clustering structure: 对于偶数的K,分为大小相同的两组,每组设备内具有相同参数 δ \delta δ,则有联合平滑度 β = log ⁡ ( C / δ ) / log ⁡ 2 \beta = \log(C/\delta)/\log 2 β=log(C/δ)/log2
  • Hölder smooth function:

Hölder条件/Hölder连续:当存在实常数 C ≥ 0 C\geq0 C0, a > 0 a>0 a>0 时,使得 ∣ f ( x ) − f ( y ) ∣ ≥ C ∥ x − y ∥ α \lvert f(x)-f(y) \rvert\geq C\|x-y\|^\alpha f(x)f(y)∣Cxyα

C o n t i n u o u s l y d i f f e r e n t i a b l e ⊂ L i p s c h i t z c o n t i n u o u s ⊂ α − H o ¨ l d e r c o n t i n u o u s ⊂ u n i f o r m l y c o n t i n u o u s ⊂ c o n t i n u o u s Continuously differentiable \subset Lipschitz continuous \subset α-Hölder continuous \subset uniformly continuous \subset continuous ContinuouslydifferentiableLipschitzcontinuousαHo¨ldercontinuousuniformlycontinuouscontinuous

有其它文献[1][3]考虑了全局异构,但不像本文考虑局部差异。

4.2 FedKNN: Optimal Weights via KNN

通过以下KNN过程确定权重 W m = ( w k j ( m ) ) W^{m}=(w^{(m)}_{kj}) Wm=(wkj(m)):
w k , π ( k , j ) ( m ) = { 1 m i f 1 ≤ j ≤ m , 0  otherwise, w^{(m)}_{k,\pi(k,j)}= \left\{\begin{matrix} \frac{1}{m} if1\leq j\leq m, \\ 0 \text{ otherwise,} \end{matrix}\right. wk,π(k,j)(m)={m1if1jm,0 otherwise,

在这里插入图片描述

在这里插入图片描述

由(4)可以看到更清晰的trade-off: m增大第一项增大第二项减少,m减小则反之。 m ⋆ m^\star m 为最佳平衡,即在(4)上的最小值。它可以解释为设备的有效数量,它表征了有多少其他设备可以在局部估计上进行最优改进,并导致最优估计误差为 σ 2 / ( m ∗ n ) σ^2/(m*n) σ2/(mn) 阶。

对于固定的 β \beta β m ⋆ m^\star m 随着n减小,随着K增大。因为如果K固定,n越大,说明局部估计器的估计误差越小,因此是否聚合来自其他设备的数据的标准更严格,这导致 m* 更小。另一方面,如果n固定,K越大意味着偏差越小的设备越多,因此应该聚合更多设备的数据,从而使m增加。当 β → Infini 时,很容易检查 m → K 和 E∥b θk − θ* k∥2 → σ2/(nK),这意味着几乎所有设备都是有用的。事实上,β = ∞ 对应于齐次设置,其中估计误差恰好为 O(σ 2 /(nK ))。

K ≳ n 1 / ( 2 β ) K \gtrsim n^{1/(2\beta)} Kn1/(2β) ,则有 m ⋆ ≳ 1 m_\star\gtrsim 1 m1 1 / ( n K ) 2 β / ( 2 β + 1 ) 1/(nK)^{2\beta/(2\beta+1)} 1/(nK)2β/(2β+1) 主导界。事实上,很容易检查在这种情况下 ∥θ* π(k,2) − θ* k∥ ≲ 1/√n,因此至少存在另一种设备可以改进 θ* k 的估计。即使局部样本大小n固定,只要设备数量K→∞,FedKNN仍然是一致的。

FedKNN引与非参数估计中经典KNN方法相类比,每个设备对应一个协变量点,局部参数 θ k ⋆ \theta^\star _k θk 对应其条件均值,局部方差 O ( σ 2 ) / n O(\sigma^2)/n O(σ2)/n 对应其方差, π \pi π 用来定义设备间的相邻结构,则可以看出 β \beta β 可以与非参数回归中回归函数的平滑度有关,因此称为Federated smoothness。

4.3 Minimax Lower Bounds

假设数据油 Z i ( k ) = θ k ⋆ + ϵ i ( k ) Z^{(k)}_i=\theta^\star_k + \epsilon^{(k)}_i Zi(k)=θk+ϵi(k)生成, ϵ \epsilon ϵ 为均值0方差 σ 2 I d \sigma^2I_d σ2Id的高斯噪声,则有参数空间

在这里插入图片描述

注意pi是基于先验信息的。损失函数取 l 2 l_2 l2 loss,即 ℓ ( θ , z ) = ∥ θ − z ∥ 2 ℓ(θ, z) = ∥θ − z∥^2 (θ,z)=θz2

定理2(极小极大下界):
在这里插入图片描述

近似小于 ≳ \gtrsim 表示一个值再某种度量(距离、范数、实数域…)下比另一个值要接近或小于。

尽管 ( C , β ) (C,\beta) (C,β) 对在定义1中并不唯一,但重要的是让类 P β P_\beta Pβ 依赖于固定的C,以便很好的定义 β \beta β 。下界(7)与上界(5)相匹配,表明邻域大小为 m ⋆ m_\star m 的FedKNN是极小极大最优。该结果表明,联合平滑度 β 精确地表征了异质性程度以及来自其他设备的信息可以改进局部估计的程度。

当K2β≲n时,最小最大速率为σ2/n,这与没有聚合的局部估计速率一致。这是因为在这种情况下,局部方差 σ2/n 相对较小,因此聚合引入的偏差主导了估计误差。因此,除了设备k之外,没有任何设备包含可以进一步改善局部估计误差σ2/n的信息。当K2β≳n时,由于β联合平滑的限制,其他设备也包含对估计θk有用的信息,其数量取决于K和β的大小。结果,极小极大率提高到{σ2/(nK)}2β/(2β+1)。

定理3(FedAvg和局部估计量的次优性)
在这里插入图片描述

这两个次优估计是A-H trade-off的两个极端。均不受K约束,估计误差不会因为增加设备数量而减少。

5 Impossibility of Adaptation

FedKNN的结果构建仍依赖于先验知识 π \pi π ,但如果没有先验pi,pi的估计误差 O ( σ 2 / n ) O(\sigma^2/n) O(σ2/n) 会占主导地位,并且无法自适应。

考虑如下没有pi的空间,可以理解为该空间中每个元素是上一个空间相同元素下所有pi的并。

在这里插入图片描述

定理4
在这里插入图片描述

和定理4相比,不知道pi意味着极小极大分析是在更大的集合上进行的,因此下界比(7)大很多。尤其是注意,当局部样本大小n固定时,无论K怎样增加,任何自适应估计器的估计误差都不会渐近消失。以此证明邻近结构先验知识的必要性。

总结及优化方向

  • 导致m倍的计算和通信成本,m是聚合邻居的数量。
  • 最后,结构化异质性设置的扩展是值得的。在本文和联邦学习的大多数相关工作中,异质性被简单地编码为参数之间的欧几里得距离。然而,在更复杂的场景中,异构性可能是结构化的。例如,本地参数的某些组成部分可能是共享的,而其余部分则是设备特定的。共享部分和特定部分都可以是高维的或非常复杂的。如何借用多个设备的力量来估计共享组件而不受到特定部分的损害是未来工作的一个方向。

References

[1] Shuxiao Chen, Qinqing Zheng, Qi Long, and Weijie J Su. A theorem of the alternative for personalized federated learning. arXiv preprint arXiv:2103.01901, 2021.
[2] Shai Ben-David, John Blitzer, Koby Crammer, Alex Kulesza, Fernando Pereira, and Jennifer Wortman Vaughan. A theory of learning from different domains. Machine Learning, 79:151–175, 2010.
[3] Xiang Li, Kaixuan Huang, Wenhao Yang, Shusen Wang, and Zhihua Zhang. On the convergence of FedAvg on non-IID data. In International Conference on Learning Representations, 2020c.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1216478.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

营收连续上涨,一脉阳光能否打造“医学影像独角兽”?

自2018年完成B轮融资的一脉阳光&#xff0c;时隔四年&#xff0c;于今年11月13日向港交所发起冲刺。作为国内唯一一家为整个医学影像产业链提供多元化服务的医学影像平台运营商及管理者&#xff0c;一脉阳光受到多家投资机构的青睐&#xff0c;高盛、新浚资本多次追加投资。 此…

网络和Linux网络_2(套接字编程)socket+UDP网络通信代码

目录 1. 预备知识 1.1 源IP地址和目的IP地址 1.2 端口号port和套接字socket 1.3 网络通信的本质 1.4 TCP和UDP协议 1.5 网络字节序 2. socket套接字 2.1 socket创建套接字 2.2 bind绑定 2.3 sockaddr结构体 3. UDP网络编程 3.1 server的初始化服务器 3.2 server的…

使用阿里云Logstash,从自建es6.2.4迁移数据至云ES7.10测试

一、购买阿里云Logstash服务 4C16G 40G 高效云盘 二、配置管道 2.1 配置启动管道前置工作 logstash要通源端ES网络及http端口,且加白logstash要通目标端ES网络及http端口,且加白目标端ES加配置自动创建索引配置管道前先安装 logstash-output-file_extend插件目标云ES7.10要…

Java 等后端应用如何获取客户端真实IP —— 筑梦之路

需求说明 现有一套Java开发的应用&#xff0c;需要能获取到用户访问的真实IP地址&#xff0c;以此来过滤到一些不安全的因素。而实际部署的场景中Java服务提供给用户访问需要经过多次代理&#xff0c;默认情况下是无法获取到客户端真实IP地址的&#xff0c;因此要实现该需求&a…

如何实现SSL证书自动部署、自动续费、自动更新?看这里~

SSL证书默认有效期默认为1年&#xff0c;部分免费证书的默认有效期为3个月。您必须在证书到期前的30个自然日内续费并更新证书&#xff0c;才能延长证书的服务时长。证书续费时&#xff0c; 会颁发一个新的证书&#xff0c;您收到新证书后需要手工更新到服务器上。部分证书支持…

乡村电商人才齐聚浙江建德,这场农播氛围值已拉满!

“3、2、1&#xff0c;上链接!” “现场营造了很好的交流氛围&#xff0c;碰撞出了不少合作机会。” “农播让我们有机会为家乡农产品代言&#xff0c;并且通过电商平台&#xff0c;把优质农特产品卖到全国各地。” “就像是一个演员需要一个舞台&#xff0c;一个好产品也需…

[Linux] yum仓库相关

一、yum仓库 1.1 yum简介 yum 是一种基于 RPM 软件包&#xff08;Red-Hat Package Manager 的缩写&#xff09;的软件更新机制&#xff0c;可自动解决软件包之间的依赖关系。这就解决了日常工作中花费大量时间寻找安装包的问题。 为什么会出现依赖 linux 本身就有简化系统的优…

华为鸿蒙开发记录

错误 1No module found. Make sure the project sync is completed successfully and the module is set in Edit Configuration > General 应该是项目建立的是Api是9 &#xff0c;但是 华为远程模拟器是应该建立的是 8的&#xff0c;导致 版本过低。从新建立项目选择APi8就…

前端学习笔记--React

1. 什么是React? React 是一个用于构建用户界面的JavaScript库核心专注于视图,目的实现组件化开发我们可以很直观的将一个复杂的页面分割成若干个独立组件,每个组件包含自己的逻辑和样式 再将这些独立组件组合完成一个复杂的页面。 这样既减少了逻辑复杂度&#xff0c;又实现…

基于vue 2.0的H5页面中使用H5自带的定位,高德地图定位,搜索周边商户,覆盖物标记,定位到当前城市

基于vue的H5页面中使用高德地图定位&#xff0c;搜索周边商户&#xff0c;覆盖物标记 首先安装高德地图插件 npm i amap/amap-jsapi-loader --save地图承载容器 <template><div id"container"></div> </template>地图容器样式 <style…

《QT从基础到进阶·三十四》qobject_cast动态强制转换

qobject_cast()对QObject类执行动态强制转换。 qobject_cast()函数的行为类似于标准c dynamic_cast()&#xff0c;但执行速度比dynamic_cast 更快&#xff0c;且不需要C的RTTI 的支持&#xff0c;但qobject_cast 仅适用于QObject 及其派生类。 如果对象的类型正确(在运行时确定…

Git客户端(TortoiseGit)使用

参考文章&#xff1a; https://www.cnblogs.com/xuwenjin/p/8573603.html 【精选】使用TortoiseGit工具进行开发&#xff08;连接远程仓库进行克隆、拉取、获取、提交、推送、新建/切换/合并分支、解决冲突&#xff09;_tortoisegit连接远程仓库-CSDN博客 tortoise git 拉取…

网络运维Day18

文章目录 环境准备导入数据确认表导入成功练习用表解析表格结构设计 查询语句进阶什么是MySQL函数常用功能函数数学计算流程控制函数查询结果处理 连接查询(联表查询)表关系什么是连接查询连接查询分类笛卡尔积内连接(INNER)外连接 子查询什么是子查询子查询出现的位置子查询练…

Element UI 偶发性图标乱码问题

1. 问题如图所示 2. 原因&#xff1a;sass版本低 sass: 1.26.8 sass-loader: 8.0.2 3. 解决方法 (1) 提高sass版本 (2) 在vue.config.js中添加配置 css: {loaderOptions: {sass: {sassOptions: {outputStyle: expanded}}}},4. 遇到的问题 升级后打包&#xff0c;报错 Syntax…

自动化网络图软件

由于 IT 系统的发展、最近向混合劳动力的转变、不断变化的客户需求以及其他原因&#xff0c;网络监控变得更加复杂。IT 管理员需要毫不费力地可视化整个网络基础设施&#xff0c;通过获得对网络的可见性&#xff0c;可以轻松发现模式、主动排除故障、确保关键设备可用性等。 为…

半平面求交 - 洛谷 - P3256 [JLOI2013] 赛车

欢迎关注更多精彩 关注我&#xff0c;学习常用算法与数据结构&#xff0c;一题多解&#xff0c;降维打击。 往期相关背景点击前往 题目大意 题目链接 https://www.luogu.com.cn/problem/P3194 有一场赛车比赛&#xff0c;每辆车有自己的起位置和速度&#xff0c;比赛时间无…

目标检测一 SSD代码复现

SSD 背景 这是一种 single stage 的检测模型&#xff0c;相比于R-CNN系列模型上要简单许多。其精度可以与Faster R-CNN相匹敌&#xff0c;而速度达到了惊人的59FPS&#xff0c;速度上完爆 Fster R-CNN。 速度快的根本原因在于移除了 region proposals 步骤以及后续的像素采样或…

《持续交付:发布可靠软件的系统方法》- 读书笔记(十五)

持续交付&#xff1a;发布可靠软件的系统方法&#xff08;十五&#xff09; 第 15 章 持续交付管理15.1 引言15.2 配置与发布管理成熟度模型15.3 项目生命周期15.3.1 识别阶段15.3.2 启动阶段15.3.3 初始阶段15.3.4 开发与发布15.3.5 运营阶段 15.4 风险管理流程15.4.1 风险管理…

微星迫击炮b660m使用intel arc a750/770显卡功耗优化方法

bios 优化: 1,开机后持续点击“delete”键直到进入微星bios。 2,点击右上角选择我们熟悉的中文。 3,点击Settings--->高级---> pcie/Pci子系统设置 4,Native PCIE Enable : Enabled Native Aspm:允许