机器学习:深入解析SVM的核心概念【四、软间隔与正则化】

软间隔与正则化

    • 问题一:优化目标函数是如何得到的?得到的过程是怎样的?
    • 问题二:拉格朗日乘子法计算详细过程
    • 问题三:KKT条件求解过程
    • 问题四:结构风险最小化(SRM)的原理

在前面的讨论中,我们一直假定训练样本在样本空间或特征空间中是线性可分的,即存在一个超平面能将不同类的样本完全划分开.然而,在现实任务中往往 很难确定合适的核函数 使得训练样本在特征空间中线性可分;

退一步说,即便恰好找到了某个核函数使训练集在特征空间中线性可分,也很难断定这个貌似线性可分的结果不是由于过拟合所造成的.

问题一:优化目标函数是如何得到的?得到的过程是怎样的?

在这里插入图片描述

软间隔SVM是对传统的硬间隔SVM的扩展,它允许某些数据点违反最初的分类边界。这样做的目的是提高模型对噪声和异常值的鲁棒性,从而获得更好的泛化能力。在这个设置中,优化目标函数的推导过程是这样的:

  1. 软间隔引入:为了应对现实世界数据中的噪声和不完全线性可分的情况,引入软间隔的概念。在硬间隔SVM中,所有数据点都严格满足 y i ( w T x i + b ) ≥ 1 y_i (w^T x_i + b) \geq 1 yi(wTxi+b)1 的约束。在软间隔SVM中,我们允许某些点不满足这个条件,引入松弛变量 ξ i \xi_i ξi 来衡量每个数据点违背间隔的程度。

  2. 优化目标函数:考虑到间隔违规和模型的复杂度,我们希望最小化一个包含正则化项(控制模型复杂度)和损失项(衡量间隔违规)的目标函数。因此,目标函数变为最小化 1 2 ∥ w ∥ 2 \frac{1}{2} \|w\|^2 21w2(正则化项)加上 C ∑ ξ i C \sum \xi_i Cξi(损失项),其中 C C C 是一个正的正则化参数,用于平衡两者之间的重要性。

  3. 调整约束:每个数据点的原始约束 y i ( w T x i + b ) ≥ 1 y_i (w^T x_i + b) \geq 1 yi(wTxi+b)1 被调整为 y i ( w T x i + b ) ≥ 1 − ξ i y_i (w^T x_i + b) \geq 1 - \xi_i yi(wTxi+b)1ξi,同时确保松弛变量 ξ i \xi_i ξi 是非负的。

  4. 替代损失函数:松弛变量 ξ i \xi_i ξi 对应于 ℓ 0 / 1 \ell_0/1 0/1 损失函数的替代。在优化过程中,由于 ℓ 0 / 1 \ell_0/1 0/1 损失函数不是 连续的不易优化,通常会采用其他连续可微的损失函数,如 hinge 损失函数对数 损失函数

  • hinge 损失: l hinge ( z ) = max ⁡ ( 0 , 1 − z ) l_{\text{hinge}}(z) = \max(0, 1 - z) lhinge(z)=max(0,1z);
  • 指数损失(exponential loss): l exp ( z ) = exp ⁡ ( − z ) l_{\text{exp}}(z) = \exp(-z) lexp(z)=exp(z);
  • 对数损失(logistic loss): l log ( z ) = log ⁡ ( 1 + exp ⁡ ( − z ) ) l_{\text{log}}(z) = \log(1 + \exp(-z)) llog(z)=log(1+exp(z)).

三种常见替代损失函数
5. 最终优化问题:考虑到以上的点,我们的最终优化问题形式化为:
minimize w , b , ξ 1 2 ∥ w ∥ 2 + C ∑ i = 1 m ξ i \text{minimize}_{w,b,\xi} \quad \frac{1}{2} \|w\|^2 + C \sum_{i=1}^{m} \xi_i minimizew,b,ξ21w2+Ci=1mξi
subject to y i ( w T x i + b ) ≥ 1 − ξ i , ξ i ≥ 0 , i = 1 , … , m . \text{subject to} \quad y_i(w^T x_i + b) \geq 1 - \xi_i, \quad \xi_i \geq 0, \quad i=1, \ldots, m. subject toyi(wTxi+b)1ξi,ξi0,i=1,,m.

在这个过程中,软间隔的引入以及对目标函数的修改都是为了使模型更适应实际数据集的复杂性。正则化参数 C C C 的选择变得至关重要,因为它直接影响模型对数据中噪声的容忍程度和防止过拟合的能力。通过合理设置 C C C,模型可以在保持足够间隔的同时,允许某些数据点的违规,从而在保持模型泛化能力的前提下,最小化总体损失。

问题二:拉格朗日乘子法计算详细过程

  1. 定义问题和约束

    • 原始的SVM问题是最大化间隔,等价于最小化 1 2 ∥ w ∥ 2 \frac{1}{2}\|w\|^2 21w2
    • 我们要求每个数据点至少有一个距离超平面的函数间隔1。在软间隔SVM中,我们允许函数间隔小于1,但这种违规要受到惩罚。
    • 引入松弛变量 ξ i \xi_i ξi 来度量第 ( i ) 个数据点的间隔违规程度。
  2. 引入拉格朗日乘子

    • 对每个数据点 ( i ),我们有两个约束:函数间隔 y i ( w T x i + b ) ≥ 1 − ξ i y_i(w^T x_i + b) \geq 1 - \xi_i yi(wTxi+b)1ξi 和松弛变量 ξ i ≥ 0 \xi_i \geq 0 ξi0
    • 为这两个约束引入两组拉格朗日乘子 α i \alpha_i αi μ i \mu_i μi,它们必须满足 α i ≥ 0 \alpha_i \geq 0 αi0 μ i ≥ 0 \mu_i \geq 0 μi0
  3. 构建拉格朗日函数

    • 对于每个数据点 ( i ),对应的拉格朗日函数部分是 α i ( 1 − ξ i − y i ( w T x i + b ) ) \alpha_i (1 - \xi_i - y_i(w^T x_i + b)) αi(1ξiyi(wTxi+b)) μ i ξ i \mu_i \xi_i μiξi
    • 所有数据点的拉格朗日函数相加,我们得到总拉格朗日函数
    • L ( w , b , α , ξ , μ ) = 1 2 ∥ w ∥ 2 + C ∑ i = 1 m ξ i + ∑ i = 1 m α i ( 1 − ξ i − y i ( w T x i + b ) ) − ∑ i = 1 m μ i ξ i L(w, b, \alpha, \xi, \mu) = \frac{1}{2}\|w\|^2 + C\sum_{i=1}^{m} \xi_i + \sum_{i=1}^{m} \alpha_i (1 - \xi_i - y_i(w^T x_i + b)) - \sum_{i=1}^{m} \mu_i \xi_i L(w,b,α,ξ,μ)=21w2+Ci=1mξi+i=1mαi(1ξiyi(wTxi+b))i=1mμiξi
    • 这里 C C C 是一个预先设定的正则化参数,它平衡了间隔的宽度和违规程度。
  4. 拉格朗日对偶问题

    • 通过对 L L L 关于 w w w b b b ξ \xi ξ 求偏导并设为0,我们可以得到 w w w b b b ξ \xi ξ 的表达式,然后将它们从拉格朗日函数中消除,得到只关于 α \alpha α μ \mu μ 的函数。
  1. 对 ( w ) 求偏导
    针对拉格朗日函数中与 w w w 相关的部分 1 2 ∥ w ∥ 2 \frac{1}{2}\|w\|^2 21w2 ∑ i = 1 m α i ( 1 − ξ i − y i ( w T x i + b ) ) \sum_{i=1}^{m} \alpha_i (1 - \xi_i - y_i(w^T x_i + b)) i=1mαi(1ξiyi(wTxi+b)),我们分别对其求偏导。
    首先,对 1 2 ∥ w ∥ 2 \frac{1}{2}\|w\|^2 21w2 求偏导: ∂ L ∂ w = w \frac{\partial L}{\partial w} = w wL=w
    然后,对 ∑ i = 1 m α i ( 1 − ξ i − y i ( w T x i + b ) ) \sum_{i=1}^{m} \alpha_i (1 - \xi_i - y_i(w^T x_i + b)) i=1mαi(1ξiyi(wTxi+b)) 求偏导: ∂ L ∂ w = − ∑ i = 1 m α i y i x i \frac{\partial L}{\partial w} = -\sum_{i=1}^{m} \alpha_i y_i x_i wL=i=1mαiyixi
    最终,令两者相等并设为零,我们有: w − ∑ i = 1 m α i y i x i = 0 w - \sum_{i=1}^{m} \alpha_i y_i x_i = 0 wi=1mαiyixi=0
  2. 对 ( b ) 求偏导
    针对拉格朗日函数中与 ( b ) 相关的部分 ∑ i = 1 m α i ( 1 − ξ i − y i ( w T x i + b ) ) \sum_{i=1}^{m} \alpha_i (1 - \xi_i - y_i(w^T x_i + b)) i=1mαi(1ξiyi(wTxi+b)),我们对其求偏导。
    ∑ i = 1 m α i ( 1 − ξ i − y i ( w T x i + b ) ) \sum_{i=1}^{m} \alpha_i (1 - \xi_i - y_i(w^T x_i + b)) i=1mαi(1ξiyi(wTxi+b)) 求偏导:
    ∂ L ∂ b = − ∑ i = 1 m α i y i \frac{\partial L}{\partial b} = -\sum_{i=1}^{m} \alpha_i y_i bL=i=1mαiyi
    令其等于零,得到:
    − ∑ i = 1 m α i y i = 0 -\sum_{i=1}^{m} \alpha_i y_i = 0 i=1mαiyi=0
  3. ξ \xi ξ 求偏导
    针对拉格朗日函数中与 ξ \xi ξ 相关的部分 C ∑ i = 1 m ξ i − ∑ i = 1 m μ i ξ i C\sum_{i=1}^{m} \xi_i - \sum_{i=1}^{m} \mu_i \xi_i Ci=1mξii=1mμiξi,我们对其求偏导。
    C ∑ i = 1 m ξ i − ∑ i = 1 m α i ( 1 − ξ i − y i ( w T x i + b ) ) − ∑ i = 1 m μ i ξ i C\sum_{i=1}^{m} \xi_i - \sum_{i=1}^{m} \alpha_i (1 - \xi_i - y_i(w^T x_i + b)) - \sum_{i=1}^{m} \mu_i \xi_i Ci=1mξii=1mαi(1ξiyi(wTxi+b))i=1mμiξi 求偏导: ∂ L ∂ ξ i = C − α i − μ i \frac{\partial L}{\partial \xi_i} = C - \alpha_i - \mu_i ξiL=Cαiμi
    令其等于零,得到:
    C − α i − μ i = 0 对所有的 i C - \alpha_i - \mu_i = 0 \quad \text{对所有的} i Cαiμi=0对所有的i

得到结果
w = ∑ i = 1 m α i y i x i w = \sum_{i=1}^{m} \alpha_i y_i x_i w=i=1mαiyixi
∑ i = 1 m α i y i = 0 \sum_{i=1}^{m} \alpha_i y_i = 0 i=1mαiyi=0
C = α i + μ i C = \alpha_i + \mu_i C=αi+μi

  1. 得到对偶优化问题
    • 消除 w w w b b b ξ \xi ξ 后,我们得到对偶问题的最大化问题,仅关于 α \alpha α
      max ⁡ α [ ∑ i = 1 m α i − 1 2 ∑ i , j = 1 m y i y j α i α j x i T x j ] \max_{\alpha} \left[ \sum_{i=1}^{m} \alpha_i - \frac{1}{2} \sum_{i,j=1}^{m} y_i y_j \alpha_i \alpha_j x_i^T x_j \right] αmax[i=1mαi21i,j=1myiyjαiαjxiTxj]
    • 并且要满足约束 ∑ i = 1 m α i y i = 0 \sum_{i=1}^{m} \alpha_i y_i = 0 i=1mαiyi=0 0 ≤ α i ≤ C 0 \leq \alpha_i \leq C 0αiC

根据KKT(Karush-Kuhn-Tucker)条件,对于每个数据点 x i x_i xi,如果 α i = 0 \alpha_i = 0 αi=0,那么该数据点不会对模型的决策边界造成影响;如果 0 < α i < C 0 < \alpha_i < C 0<αi<C,那么 x i x_i xi 是支持向量,并且处在边界上;如果 α i = C \alpha_i = C αi=C,那么数据点 x i x_i xi 被误分类,或者它恰好在边界的违反侧上。

  1. (\alpha_i = 0) 时:
    • 这意味着对应的数据点 x i x_i xi 不对模型的优化造成任何影响,也就是说它不是支持向量。这些点要么被正确分类远离决策边界 ,要么在软间隔SVM中,这些点虽然被误分类但由于它们的影响在优化过程中被允许忽略(即对总损失的贡献被限制在了可接受的成本 C C C 内)。
  2. (0 < \alpha_i < C) 时:
    • 这表示数据点 x i x_i xi 恰好在边界上,即它是一个 支持向量 。在SVM中,这些支持向量决定了最终的决策边界。它们恰好位于或者非常接近我们希望数据点分界的边界线。
  3. (\alpha_i = C) 时:
    • 这表示数据点 x i x_i xi 在优化过程中发挥了最大的影响,可能是因为它被误分类,或者即便它被正确分类,也位于边界内侧 紧邻决策边界 的地方。在软间隔SVM中,这代表该点被允许违反最大间隔距离,但是由于其 α i \alpha_i αi 值达到了上限 C C C,这种违反的程度受到了约束。

当我们将拉格朗日函数 L ( α , μ ) L(\alpha, \mu) L(α,μ) 展开后,我们需要消除 w w w 和 (b),以及处理约束条件:

  1. 消除 w w w 和 (b)

    我们已经有了 w = ∑ i = 1 m α i y i x i w = \sum_{i=1}^{m} \alpha_i y_i x_i w=i=1mαiyixi 和约束条件 ∑ i = 1 m α i y i = 0 \sum_{i=1}^{m} \alpha_i y_i = 0 i=1mαiyi=0 。我们代入 w w w 的表达式和约束条件:

    L ( α , μ ) = 1 2 ∥ ∑ i = 1 m α i y i x i ∥ 2 + C ∑ i = 1 m ( C − α i − μ i ) + ∑ i = 1 m α i ( 1 − ( C − α i − μ i ) − y i ( ( ∑ j = 1 m α j y j x j ) T x i ) ) − ∑ i = 1 m μ i ( C − α i − μ i ) \begin{align*} L(\alpha, \mu) &= \frac{1}{2}\left\| \sum_{i=1}^{m} \alpha_i y_i x_i \right\|^2 + C\sum_{i=1}^{m} (C - \alpha_i - \mu_i) \\ &\quad + \sum_{i=1}^{m} \alpha_i \left(1 - (C - \alpha_i - \mu_i) - y_i\left(\left(\sum_{j=1}^{m} \alpha_j y_j x_j\right)^T x_i\right)\right) \\ &\quad - \sum_{i=1}^{m} \mu_i (C - \alpha_i - \mu_i) \end{align*} L(α,μ)=21 i=1mαiyixi 2+Ci=1m(Cαiμi)+i=1mαi 1(Cαiμi)yi (j=1mαjyjxj)Txi i=1mμi(Cαiμi)

    我们可以进一步化简上述表达式。

  2. 化简 ∥ ∑ i = 1 m α i y i x i ∥ 2 \| \sum_{i=1}^{m} \alpha_i y_i x_i \|^2 i=1mαiyixi2【内积展开】

    注意到 ∥ ∑ i = 1 m α i y i x i ∥ 2 \| \sum_{i=1}^{m} \alpha_i y_i x_i \|^2 i=1mαiyixi2 可以写为 ( ∑ i = 1 m α i y i x i ) T ( ∑ i = 1 m α i y i x i ) (\sum_{i=1}^{m} \alpha_i y_i x_i)^T (\sum_{i=1}^{m} \alpha_i y_i x_i) (i=1mαiyixi)T(i=1mαiyixi)。展开后得到:

    ∥ ∑ i = 1 m α i y i x i ∥ 2 = ( ∑ i = 1 m α i y i x i ) T ( ∑ i = 1 m α i y i x i ) = ∑ i = 1 m ∑ j = 1 m α i α j y i y j x i T x j \| \sum_{i=1}^{m} \alpha_i y_i x_i \|^2 = (\sum_{i=1}^{m} \alpha_i y_i x_i)^T (\sum_{i=1}^{m} \alpha_i y_i x_i) = \sum_{i=1}^{m} \sum_{j=1}^{m} \alpha_i \alpha_j y_i y_j x_i^T x_j i=1mαiyixi2=(i=1mαiyixi)T(i=1mαiyixi)=i=1mj=1mαiαjyiyjxiTxj

  3. 代入约束条件 ∑ i = 1 m α i y i = 0 \sum_{i=1}^{m} \alpha_i y_i = 0 i=1mαiyi=0

    由于约束条件是 ∑ i = 1 m α i y i = 0 \sum_{i=1}^{m} \alpha_i y_i = 0 i=1mαiyi=0,我们可以将 μ \mu μ 表达为 μ i = C − α i \mu_i = C - \alpha_i μi=Cαi

  4. 代入上述结果到拉格朗日函数

    代入上述结果后,我们得到:

L ( α ) = ∑ i = 1 m α i − 1 2 ∑ i , j = 1 m α i α j y i y j x i T x j \begin{align*} L(\alpha) &= \sum_{i=1}^{m} \alpha_i - \frac{1}{2} \sum_{i,j=1}^{m} \alpha_i \alpha_j y_i y_j x_i^T x_j \end{align*} L(α)=i=1mαi21i,j=1mαiαjyiyjxiTxj
以上步骤消除了 w w w 和 (b),并将 L ( α , μ ) L(\alpha, \mu) L(α,μ) 表达为关于 α \alpha α 的函数。

  1. 最大化 L ( α ) L(\alpha) L(α)

    我们的目标是最大化 L ( α ) L(\alpha) L(α),即求解:

max ⁡ α [ ∑ i = 1 m α i − 1 2 ∑ i , j = 1 m y i y j α i α j x i T x j ] \max_{\alpha} \left[ \sum_{i=1}^{m} \alpha_i - \frac{1}{2} \sum_{i,j=1}^{m} y_i y_j \alpha_i \alpha_j x_i^T x_j \right] αmax[i=1mαi21i,j=1myiyjαiαjxiTxj]

并且要满足约束条件:

{ ∑ i = 1 m α i y i = 0 0 ≤ α i ≤ C , i = 1 , 2 , . . . , m \begin{cases} \sum_{i=1}^{m} \alpha_i y_i = 0 \\ 0 \leq \alpha_i \leq C, \quad i = 1, 2, ..., m \end{cases} {i=1mαiyi=00αiC,i=1,2,...,m

问题三:KKT条件求解过程

和前面相比,两者唯一差别就在约束条件不同;
带有软间隔的KKT条件
了解KKT条件的推导过程首先要理解拉格朗日乘子法在处理优化问题时如何使用。在软间隔支持向量机中,我们希望最小化以下拉格朗日函数:

L ( w , b , α , ξ , μ ) = 1 2 ∥ w ∥ 2 + C ∑ i = 1 m ξ i + ∑ i = 1 m α i ( 1 − ξ i − y i ( w T x i + b ) ) − ∑ i = 1 m μ i ξ i L(w, b, \alpha, \xi, \mu) = \frac{1}{2}\|w\|^2 + C\sum_{i=1}^{m} \xi_i + \sum_{i=1}^{m} \alpha_i (1 - \xi_i - y_i(w^T x_i + b)) - \sum_{i=1}^{m} \mu_i \xi_i L(w,b,α,ξ,μ)=21w2+Ci=1mξi+i=1mαi(1ξiyi(wTxi+b))i=1mμiξi

其中, α \alpha α μ \mu μ 是拉格朗日乘子, ξ \xi ξ 是松弛变量。

这个函数结合了目标函数和对每个样本 x i x_i xi 的约束,其中 y i ( w T x i + b ) ≥ 1 − ξ i y_i(w^T x_i + b) \geq 1 - \xi_i yi(wTxi+b)1ξi。由于 ξ i \xi_i ξi 允许一定的分类违规,我们加入正则化参数 C C C 以限制这种违规。

KKT条件是最优解必须满足的一组条件,它们来自拉格朗日函数 L L L 关于每个变量的偏导数等于零的必要条件。下面是KKT条件:

  1. α i ≥ 0 \alpha_i \geq 0 αi0 μ i ≥ 0 \mu_i \geq 0 μi0:这确保了拉格朗日乘子是非负的。在优化问题中,拉格朗日乘子用来 加权约束条件 ,而这个权重不能是负的。
  2. y i f ( x i ) − 1 + ξ i ≥ 0 y_i f(x_i) - 1 + \xi_i \geq 0 yif(xi)1+ξi0 :这是原始问题的约束,表示每个数据点的函数间隔至少为1,满足 1 − ξ i 1 - \xi_i 1ξi(如果数据点被正确分类且在正确的间隔边界上或者超出间隔边界)。如果 ξ i > 0 \xi_i > 0 ξi>0,则该数据点有分类违规
  3. α i ( y i f ( x i ) − 1 + ξ i ) = 0 \alpha_i(y_i f(x_i) - 1 + \xi_i) = 0 αi(yif(xi)1+ξi)=0互补松弛性条件。如果 α i > 0 \alpha_i > 0 αi>0,则对应的 y i f ( x i ) − 1 + ξ i y_i f(x_i) - 1 + \xi_i yif(xi)1+ξi 必须等于0。这意味着对于非零 α i \alpha_i αi 的数据点,它们要么恰好在决策边界上,要么就是被 错误分类 的点。
  4. ξ i ≥ 0 \xi_i \geq 0 ξi0松弛变量的非负性,允许某些数据点违背硬间隔条件。
  5. μ i ξ i = 0 \mu_i \xi_i = 0 μiξi=0:这是对 μ \mu μ互补松弛性条件,表明如果松弛变量 ξ i > 0 \xi_i > 0 ξi>0,即有分类违规,那么对应的 μ i \mu_i μi 必须是 0,反之亦然。

通过拉格朗日函数的偏导数等于零的条件和这些KKT条件,我们能够定义出最优化问题的对偶形式,这在数值上往往更易于求解。对偶问题通常涉及 仅有 α \alpha α最大化问题 ,而不直接求解 w w w b b b,这简化了问题的复杂度,特别是当用核技巧将其扩展到高维空间时。

在实际算法实现中,如SMO算法,这种对偶形式是解决SVM最优化问题的关键。

问题四:结构风险最小化(SRM)的原理

结构风险最小化(SRM)的原理,它是支持向量机(SVM)理论的一个核心概念。结构风险最小化致力于在保证模型复杂度的同时 最小化训练误差 ,以达到良好的泛化效果。文中提到了经验风险(即模型在训练集上的误差)和模型的复杂度两个部分。具体来说,它通过一个优化问题来平衡这两者:

  • 经验风险:是模型在训练数据上的 损失函数值的总和
  • 正则化项:是用于控制 模型复杂度 的项,通常是模型参数的某种形式(如权重向量的范数)。

优化目标是最小化这两个量的组合,通常表示为:

min ⁡ f Ω ( f ) + C ∑ i = 1 m L ( f ( x i ) , y i ) \min_f \quad \Omega(f) + C \sum_{i=1}^{m} L(f(x_i), y_i) fminΩ(f)+Ci=1mL(f(xi),yi)

这里, Ω ( f ) \Omega(f) Ω(f) 是正则化项, L ( f ( x i ) , y i ) L(f(x_i), y_i) L(f(xi),yi) 是损失函数, C C C 是控制两者权重的正则化参数。

了解SRM的概念可以帮助你更好地理解SVM模型的目标和设计背后的 动机 ,但如果你只是想实现算法而不关心其理论基础,你可以选择不深入这部分内容。然而,如果你打算深入理解SVM的工作原理或者进行算法的改进,那么对SRM的理解是很重要的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/6094.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Rust Turbofish 的由来

0x01 什么是 Turbofish 我们运行如下 Rust Snippet&#xff1a; fn main() {let numbers: Vec<i32> vec![1, 2, 3, 4, 5, 6, 7, 8, 9, 10];let even_numbers numbers.into_iter().filter(|n| n % 2 0).collect();println!("{:?}", even_numbers); }不出意…

Android 设置头像 - 相册拍照

Android开发在个人信息管理中&#xff0c;如果设置头像&#xff0c;一般都提供了从相册选择和拍照两种方式。下午将针对设置用户头像相册和拍照两种方式的具体实现进行详细说明。 在实际实现过程中需要使用到权限管理&#xff0c;新版本的Android需要动态申请权限&#xff0c;权…

React Context

Context https://juejin.cn/post/7244838033454727227?searchId202404012120436CD549D66BBD6C542177 context 提供了一个无需为每层组件手动添加 props, 就能在组件树间进行数据传递的方法 React 中数据通过 props 属性自上而下(由父及子)进行传递&#xff0c;但此种用法对…

Matlab|二阶锥松弛在配电网最优潮流计算中的应用

目录 一、主要内容 二、部分代码 三、程序代码 四、下载链接 一、主要内容 最优潮流计算是电网规划、优化运行的重要基础。首先建立了配电网全天有功损耗最小化的最优潮流计算模型&#xff1b;其次结合辐射型配电网潮流特点建立支路潮流约束&#xff0c;并考虑配电网中的可…

macOS sonoma 14.4.1编译JDK 12

macOS sonoma 14.4.1编译JDK 12 环境参考文档开始简述问题心路历程着手解决最终解决(前面有点啰嗦了&#xff0c;可以直接看这里) 记录一次靠自己看代码解决问题的经历(总之就是非常开心)。 首先&#xff0c;先diss一下bing&#xff0c;我差一点就放弃了。 环境 macOS sonom…

[力扣]——125.验证回文串

class Solution {public static boolean isValidChar(char ch){if((ch > a && ch < z) ||(ch > 0 && ch < 9)){return true;}return false;}public boolean isPalindrome(String s) {// 将大小写统一起来s s.toLowerCase();int left 0, right s…

vulnhub靶场之FunBox-2

一.环境搭建 1.靶场描述 Boot2Root ! This can be a real life scenario if rockies becomes admins. Easy going in round about 15 mins. Bit more, if you are find and stuck in the rabbit-hole first. This VM is created/tested with Virtualbox. Maybe it works with…

百面算法工程师 | 支持向量机——SVM

文章目录 15.1 SVM15.2 SVM原理15.3 SVM解决问题的类型15.4 核函数的作用以及特点15.5 核函数的表达式15.6 SVM为什么引入对偶问题15.7 SVM使用SGD及步骤15.8 为什么SVM对缺失数据敏感15.9 SVM怎么防止过拟合 欢迎大家订阅我的专栏一起学习共同进步 祝大家早日拿到offer&#x…

利用亚马逊云科技GenAI企业助手Amazon Q Business构建企业代码开发知识库

2024年五一节假日的前一天&#xff0c;亚马逊云科技正式重磅发布了云计算行业期待已久的服务——Amazon Q Business。Amazon Q Business是专为企业用户打造的一个开箱即用的完善而强大企业GenAI助手。企业用户只需要将Amazon Q Business连接到现有的企业内部数据源&#xff0c;…

小程序地理位置接口权限直接抄作业

小程序地理位置接口有什么功能&#xff1f; 随着小程序生态的发展&#xff0c;越来越多的小程序开发者会通过官方提供的自带接口来给用户提供便捷的服务。但是当涉及到地理位置接口时&#xff0c;却经常遇到申请驳回的问题&#xff0c;反复修改也无法通过&#xff0c;给的理由也…

【自研网关系列】过滤器链 -- 限流过滤器

&#x1f308;Yu-Gateway&#xff1a;&#xff1a;基于 Netty 构建的自研 API 网关&#xff0c;采用 Java 原生实现&#xff0c;整合 Nacos 作为注册配置中心。其设计目标是为微服务架构提供高性能、可扩展的统一入口和基础设施&#xff0c;承载请求路由、安全控制、流量治理等…

ESP32-C3模组上跑通MQTT(1)

本文内容参考&#xff1a; 《ESP32-C3 物联网工程开发实战》 特此致谢&#xff01; 一、远程控制的介绍 什么是远程控制&#xff1f;顾名思义&#xff0c;远程控制就是远距离控制&#xff0c;是指控制设备&#xff08;如智能手机、计算机等网络设备&#xff09;通过广域网控制…

FIFO Generate IP核使用——FIFO写操作详解及Status Flags页配置

本文介绍了FIFO的写操作及Status Flags页的配置信息。 1 FIFO 写入操作 当FIFO的写入使能&#xff08;write enable&#xff09;被置位&#xff0c;并且FIFO未满时&#xff0c;数据会从输入总线&#xff08;din&#xff09;被添加到FIFO中&#xff0c;并且写入确认&#xff0…

Mac环境下ollama部署和体验

欢迎访问我的GitHub 这里分类和汇总了欣宸的全部原创(含配套源码)&#xff1a;https://github.com/zq2599/blog_demos 关于ollama ollama和LLM&#xff08;大型语言模型&#xff09;的关系&#xff0c;类似于docker和镜像&#xff0c;可以在ollama服务中管理和运行各种LLM&…

逻辑漏洞:支付逻辑漏洞

目录 1、直接修改商品的价格 2、修改支付状态 3、修改商品数量 4、另类支付 5、修改支付接口 6、重复支付 7、最小支付和最大支付 8、越权支付 9、无线次试用 10、线程并发问题 前两天学习了逻辑漏洞中的越权漏洞&#xff0c;今天开始学习支付逻辑漏洞&#xff0c;这…

数据分析--客户价值分析RFM(分箱法/标准化)

原数据 原数据如果有异常或者缺失等情况&#xff0c;要先对数据进行处理 &#xff0c;再进行下面的操作&#xff0c;要不然会影响结果的正确性 一、根据RFM计算客户价值并对客户进行细分 1. 数据预处理 1.1 创建视图存储 R、F、M的最大最小值 创建视图存储R 、F、M 的最大最小…

Sublime Vim模式配置:q关闭当前标签页

在Sublime安装目录下的->Packages文件夹下新建User文件夹创建文件Vintage.sublime-commands 路径为Sublime安装目录->Packages->User->Vintage.sublime-commands文件内容如下[{"caption": ":w - Save","command": "save"}…

淘宝新店铺一般多久开始有单

淘宝新店铺一般多久开始有单 淘宝推广可以使用3an推客。3an推客&#xff08;CPS模式&#xff09;给商家提供的营销工具&#xff0c;由商家自主设置佣金比例&#xff0c;激励推广者去帮助商家推广商品链接&#xff0c;按最终有效交易金额支付佣金&#xff0c;不成交不扣费。是商…

堆排序以及TOP-K问题

片头 嗨&#xff01;小伙伴们&#xff0c;大家好&#xff01;今天我们来深入理解堆这种数据结构&#xff0c;分析一下堆排序以及TOP-K问题&#xff0c;准备好了吗&#xff1f;我要开始咯&#xff01; 一、堆排序 这里我们先假设要排成升序&#xff0c;也就是从左到右&#xf…

【Leetcode每日一题】 动态规划 - 简单多状态 dp 问题 - 删除并获得点数(难度⭐⭐)(70)

1. 题目解析 题目链接&#xff1a;740. 删除并获得点数 这个问题的理解其实相当简单&#xff0c;只需看一下示例&#xff0c;基本就能明白其含义了。 2.算法原理 问题分析 本题是「打家劫舍」问题的变种&#xff0c;但核心逻辑依然保持一致。题目要求从给定的数组nums中选择…