线性可分支持向量机的原理推导

我们从最简单也最基本的线性可分支持向量机的原理推导开始。近似线性可分支持向量机和线性不可分支持向量机的原理推导都会以线性可分支持向量机为基础。

先给线性可分支持向量机一个明确的定义。当训练数据线性可分时,能够通过硬间隔(hard margin)最大化求解对应的凸二次规划问题得到最优线性分隔超平面 w ∗ ⋅ x + b ∗ = 0 w^*·x+b^*=0 wx+b=0 ,以及相应的分类决策函数 f ( x ) = s i g n ( w ∗ ⋅ x + b ∗ ) f(x)=sign(w^*·x+b^*) f(x)=sign(wx+b) ,这种情况就称为线性可分支持向量机。

要求间隔最大化,需要先对间隔进行表示。对于支持向量机而言,一个实例点到线性分隔超平面的距离可以表示为分类预测的可靠性,当分类的线性分隔超平面确定时, ∣ w ⋅ x + b ∣ |w·x+b| wx+b 可以表示点 x x x 与该超平面的距离,同时我们也可以用 w ⋅ x + b w·x+b wx+b 的符号与分类标记 y y y 符号的一致性来判定分类是否正确。所以,对于给定训练样本及线性分隔超平面 w ⋅ x + b = 0 w·x+b=0 wx+b=0 ,线性分隔超平面关于任意样本点 ( x i , y i ) (x_i,y_i) (xi,yi) 的函数间隔可以表示为:
d ^ i = y i ( w ⋅ x i + b ) (9-1) \hat d_i=y_i(w·x_i+b) \tag{9-1} d^i=yi(wxi+b)(9-1)

那么该训练集与线性分隔超平面的间隔可以由该超平面与所有样本点的最小函数间隔决定,即:
d ^ = min ⁡ i = 1 , . . . , N d ^ i (9-2) \hat d=\min_{i=1,...,N}\hat d_i \tag{9-2} d^=i=1,...,Nmind^i(9-2)

为了使间隔不受线性分隔超平面参数 w w w b b b 的变化影响,我们还需要对 w w w 加一个规范化约束 ∥ w ∥ \|w\| w 以固定间隔,通过这种方式将函数间隔转化为几何间隔。这时候线性分隔超平面关于任意样本点 ( x i , y i ) (x_i,y_i) (xi,yi) 的几何间隔可以表示为:
d i = y i ( w ⋅ x i + b ∥ w ∥ ) (9-3) d_i=y_i\left(\frac{w·x_i+b}{\|w\|}\right) \tag{9-3} di=yi(wwxi+b)(9-3)

训练集与线性分隔超平面的间隔同样可以用 d = min ⁡ i d i d=\min_id_i d=minidi 来表示。

基于线性可分支持向量机求得的最大间隔也叫硬间隔最大化。硬间隔最大化可以直观地理解为以足够的可靠性对训练数据进行分类,据此求得的线性分隔超平面不仅能够将正负实例点分开,而且对于最难分的实例点也能够以足够高的可靠性将其分类。从这一点来看,线性可分支持向量机相较于感知机更稳健。

下面我们将硬间隔最大化形式化为一个条件约束优化问题:
max ⁡ w , b d (9-4) \max_{w,b} \quad d \tag{9-4} w,bmaxd(9-4)

s . t . y i ( w ⋅ x i + b ∣ ∣ w ∣ ∣ ) ⩾ d , i = 1 , 2 , ⋯ , N s.t.\quad y_i\left(\frac{w·x_i+b}{||w||}\right) \geqslant d,\ i=1,2,\cdots,N s.t.yi(∣∣w∣∣wxi+b)d, i=1,2,,N

根据函数间隔与几何间隔之间的关系,式(9-4)可以改写为:
max ⁡ w , b d ^ ∣ ∣ w ∣ ∣ (9-5) \max_{w,b} \quad \frac{\hat d}{||w||} \tag{9-5} w,bmax∣∣w∣∣d^(9-5)

s . t . y i ( w ⋅ x i + b ) ⩾ d ^ , i = 1 , 2 , ⋯ , N s.t.\quad y_i(w·x_i+b) \geqslant \hat d,\ i=1,2,\cdots,N s.t.yi(wxi+b)d^, i=1,2,,N

通过式(9-5)可以看到,函数间隔 d ^ \hat d d^ 的取值实际上并不影响最优化问题的求解。假设这里令 d ^ = 1 \hat d=1 d^=1,则式(9-5)的等价最优化问题可以表示为:
min ⁡ w , b 1 2 ∣ ∣ w ∣ ∣ 2 (9-6) \min_{w,b} \quad \frac{1}{2}||w||^2 \tag{9-6} w,bmin21∣∣w2(9-6)

s . t . y i ( w ⋅ x i + b ) − 1 ⩾ 0 , i = 1 , 2 , ⋯ , N s.t.\quad y_i(w·x_i+b)-1 \geqslant 0,\ i=1,2,\cdots,N s.t.yi(wxi+b)10, i=1,2,,N

至此,硬间隔最大化问题就转化为了一个典型的凸二次规划问题(convex quadratic programming problem)。构建式(9-6)的拉格朗日函数,如下:
L ( w , b , α ) = 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 N α i y i ( w ⋅ x i + b ) + ∑ i = 1 N α i (9-7) L(w, b, \alpha) = \frac{1}{2}||w||^2-\sum_{i=1}^{N}\alpha_iy_i(w·x_i+b)+\sum_{i=1}^{N}\alpha_i \tag{9-7} L(w,b,α)=21∣∣w2i=1Nαiyi(wxi+b)+i=1Nαi(9-7)

直接对式(9-7)进行优化求解是可以的,但求解效率偏低。根据凸优化理论中的拉格朗日对偶性,将式(9-6)作为原始问题(primal problem),求解该原始问题的对偶问题(dual problem)。

这里补充一下拉格朗日对偶性相关知识。假设 f ( x ) f(x) f(x) c i ( x ) c_i(x) ci(x) h j ( x ) h_j(x) hj(x) 是定义在 R n \mathbf{R}^n Rn 上的连续可微函数,有如下约束优化问题:
min ⁡ x ∈ R n f ( x ) (9-8) \min_{x∈\mathbf{R}^n} f(x) \tag{9-8} xRnminf(x)(9-8)

s . t . c i ( x ) ≤ 0 , i = 1 , 2 , ⋯ , p s.t.\quad c_i(x)≤0,\ i=1,2,\cdots,p s.t.ci(x)0, i=1,2,,p

h j ( x ) = 0 , j = 1 , 2 , ⋯ , q h_j(x)=0,\ j=1,2,\cdots,q hj(x)=0, j=1,2,,q

式(9-8)即为约束优化问题的原始问题。然后引入拉格朗日函数,如下:
L ( x , α , β ) = f ( x ) + ∑ i = 1 p α i c i ( x ) + ∑ j = 1 q β j h j ( x ) (9-9) L(x, \alpha, \beta) = f(x) + \sum_{i=1}^{p}\alpha_i c_i(x) + \sum_{j=1}^{q}\beta_j h_j(x) \tag{9-9} L(x,α,β)=f(x)+i=1pαici(x)+j=1qβjhj(x)(9-9)

其中 x = ( x ( 1 ) , x ( 2 ) , … , x ( n ) ) ⊤ ∈ R ∗ x=\bigl(x^{(1)}, x^{(2)}, \ldots, x^{(n)}\bigr)^{\top} \in \mathbf{R}^* x=(x(1),x(2),,x(n))R α i \alpha_i αi β j \beta_j βj 为拉格朗日乘子,且 α i ⩾ 0 \alpha_i \geqslant 0 αi0。将式(9-9)的最大化函数 max ⁡ α , β L ( x , α , β ) \max_{\alpha, \beta}L(x, \alpha, \beta) maxα,βL(x,α,β) 设为关于 x x x 的函数:
θ p ( x ) = max ⁡ α , β L ( x , α , β ) (9-10) \theta_p(x) = \max_{\alpha, \beta} L(x, \alpha, \beta) \tag{9-10} θp(x)=α,βmaxL(x,α,β)(9-10)

考虑式(9-10)的极小化问题:
min ⁡ x θ p ( x ) = min ⁡ x max ⁡ α , β L ( x , α , β ) (9-11) \min_x \theta_p(x) = \min_{x} \max_{\alpha, \beta} L(x, \alpha, \beta) \tag{9-11} xminθp(x)=xminα,βmaxL(x,α,β)(9-11)

式(9-11)的解也是原始问题式(9-8)的解,问题 min ⁡ x max ⁡ α , β L ( x , α , β ) \min_{x} \max_{\alpha, \beta} L(x, \alpha, \beta) minxmaxα,βL(x,α,β) 也称广义拉格朗日函数的极小极大化问题。定义该极小极大化问题同时也是原始问题的解为:
p ∗ = min ⁡ x θ p ( x ) (9-12) p^* = \min_x \theta_p(x) \tag{9-12} p=xminθp(x)(9-12)

下面再来看对偶问题。对式(9-10)重新定义关于 α , β \alpha, \beta α,β 的函数,如下:
θ d ( α , β ) = min ⁡ x L ( x , α , β ) (9-13) \theta_d(\alpha, \beta) = \min_x L(x, \alpha, \beta) \tag{9-13} θd(α,β)=xminL(x,α,β)(9-13)

考虑式(9-13)的极大化问题:
max ⁡ α , β θ d ( α , β ) = max ⁡ α , β min ⁡ x L ( x , α , β ) (9-14) \max_{\alpha, \beta} \theta_d(\alpha, \beta) = \max_{\alpha, \beta} \min_x L(x, \alpha, \beta) \tag{9-14} α,βmaxθd(α,β)=α,βmaxxminL(x,α,β)(9-14)

式(9-14)也称广义拉格朗日函数的极大极小化问题。将该极大极小化问题转化为约束优化问题,如下:
max ⁡ α , β θ d ( α , β ) = max ⁡ α , β min ⁡ x L ( x , α , β ) s . t . α i ⩾ 0 , i = 1 , 2 , … , p (9-15) \max_{\alpha, \beta} \theta_d(\alpha, \beta) = \max_{\alpha, \beta} \min_x L(x, \alpha, \beta) \tag{9-15} s.t. \quad \alpha_i \geqslant 0, \; i=1, 2, \ldots, p α,βmaxθd(α,β)=α,βmaxxminL(x,α,β)s.t.αi0,i=1,2,,p(9-15)

式(9-15)定义的约束优化问题即为原始问题的对偶问题。定义对偶问题的最优解为:
d ∗ = max ⁡ α , β θ d ( α , β ) (9-16) d^* = \max_{\alpha, \beta} \theta_d(\alpha, \beta) \tag{9-16} d=α,βmaxθd(α,β)(9-16)

根据拉格朗日对偶性相关推论,假设 x ∗ x^* x 为原始问题式(9-8)的解, α ∗ , β ∗ \alpha^*, \beta^* α,β 对偶问题式(9-15)的解,且 d ∗ = p ∗ d^* = p^* d=p,则它们分别为原始问题和对偶问题的最优解。

下面回到式(9-7)的凸二次规划问题。所以,根据拉格朗日对偶性的有关描述和推论,原始问题为极小极大化问题,其对偶问题则为极大极小化问题:
max ⁡ α min ⁡ w , b L ( w , b , α ) (9-17) \max_{\alpha} \min_{w, b} L(w, b, \alpha) \tag{9-17} αmaxw,bminL(w,b,α)(9-17)

为求该极大极小化问题的解,可以先尝试求 L ( w , b , α ) L(w, b, \alpha) L(w,b,α) w , b w, b w,b 的极小,再对 α \alpha α 求极大。以下是该极大极小化问题的具体推导过程。

第一步,先求极小化问题 min ⁡ w , b L ( w , b , α ) \min_{w, b} L(w, b, \alpha) minw,bL(w,b,α)。基于拉格朗日函数 L ( w , b , α ) L(w, b, \alpha) L(w,b,α) 分别对 w w w b b b 求偏导并令其等于零:
∂ L ∂ w = w − ∑ i = 1 N α i y i x i = 0 (9-18) \frac{\partial L}{\partial w} = w - \sum_{i=1}^{N}\alpha_i y_i x_i = 0 \tag{9-18} wL=wi=1Nαiyixi=0(9-18)

∂ L ∂ b = ∑ i = 1 N α i y i = 0 (9-19) \frac{\partial L}{\partial b} = \sum_{i=1}^{N}\alpha_i y_i = 0 \tag{9-19} bL=i=1Nαiyi=0(9-19)

解得:
w = ∑ i = 1 N α i y i x i (9-20) w = \sum_{i=1}^{N}\alpha_i y_i x_i \tag{9-20} w=i=1Nαiyixi(9-20)

∑ i = 1 N α i y i = 0 (9-21) \sum_{i=1}^{N}\alpha_i y_i = 0 \tag{9-21} i=1Nαiyi=0(9-21)

将式(9-20)代入拉格朗日函数式(9-7),并结合式(9-21),有:
min ⁡ w , b L ( w , b , α ) = 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j ( x i ⋅ x j ) − ∑ i = 1 N α i y i [ ( ∑ j = 1 N α j y j x j ) ⋅ x i + b ] + ∑ i = 1 N α i (9-22) \min_{w, b} L(w, b, \alpha) = \frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}\alpha_i \alpha_j y_i y_j (x_i \cdot x_j) - \sum_{i=1}^{N}\alpha_i y_i \left[\left(\sum_{j=1}^{N}\alpha_j y_j x_j\right)\cdot x_i + b\right] + \sum_{i=1}^{N}\alpha_i \tag{9-22} w,bminL(w,b,α)=21i=1Nj=1Nαiαjyiyj(xixj)i=1Nαiyi[(j=1Nαjyjxj)xi+b]+i=1Nαi(9-22)

= − 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j ( x i ⋅ x j ) + ∑ i = 1 N α i = -\frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}\alpha_i \alpha_j y_i y_j (x_i \cdot x_j) + \sum_{i=1}^{N}\alpha_i =21i=1Nj=1Nαiαjyiyj(xixj)+i=1Nαi

第二步,对 min ⁡ w , b L ( w , b , α ) \min_{w, b} L(w, b, \alpha) minw,bL(w,b,α) α \alpha α 的极大,可规范为对偶问题,如下:
max ⁡ α − 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j ( x i ⋅ x j ) + ∑ i = 1 N α i (9-23) \max_{\alpha} \quad -\frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}\alpha_i \alpha_j y_i y_j (x_i \cdot x_j) + \sum_{i=1}^{N}\alpha_i \tag{9-23} αmax21i=1Nj=1Nαiαjyiyj(xixj)+i=1Nαi(9-23)

s . t . ∑ i = 1 N α i y i = 0 s.t. \quad \sum_{i=1}^{N}\alpha_i y_i = 0 s.t.i=1Nαiyi=0

α i ⩾ 0 , i = 1 , 2 , … , N \alpha_i \geqslant 0, \; i=1, 2, \ldots, N αi0,i=1,2,,N

将上述极大化问题转化为极小化问题:
min ⁡ α 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j ( x i ⋅ x j ) − ∑ i = 1 N α i (9-24) \min_{\alpha} \quad \frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}\alpha_i \alpha_j y_i y_j (x_i \cdot x_j) - \sum_{i=1}^{N}\alpha_i \tag{9-24} αmin21i=1Nj=1Nαiαjyiyj(xixj)i=1Nαi(9-24)

s . t . ∑ i = 1 N α i y i = 0 s.t. \quad \sum_{i=1}^{N}\alpha_i y_i = 0 s.t.i=1Nαiyi=0

α i ⩾ 0 , i = 1 , 2 , … , N \alpha_i \geqslant 0, \; i=1, 2, \ldots, N αi0,i=1,2,,N

对照原始最优化问题(式(9-6)~式(9-7))与转化后的对偶最优化问题(式(9-15)~式(9-17)), 原始问题满足拉格朗日对偶理论相关推论,即式(9-8)中 f ( x ) f(x) f(x) c i ( x ) c_i(x) ci(x) 为凸函数, h j ( x ) h_j(x) hj(x) 为放射函数,且不等式约柬 c i ( x ) c_i(x) ci(x) 对所有 i i i 都有 c i ( x ) < 0 c_i(x) < 0 ci(x)<0, 则存在 x ∗ x^* x, α ∗ , β ∗ \alpha^*, \beta^* α,β 使得 x ∗ x^* x 是原始问题的解, α ∗ , β ∗ \alpha^*, \beta^* α,β 是对偶问题的解,且 d ∗ = p ∗ = L ( x ∗ , α ∗ , β ∗ ) d^* = p^* = L(x^*, \alpha^*, \beta^*) d=p=L(x,α,β)。所以原始最优化问题(式(9-6)~式(9-7))与转化后的对偶最优化问题(式(9-15)~式(9-17)), 存在 w ∗ , α ∗ , β ∗ w^*, \alpha^*, \beta^* w,α,β 使得 w ∗ w^* w 为原始问题的解, α ∗ , β ∗ \alpha^*, \beta^* α,β 是对偶问题的解。

假设 α ∗ = ( α 1 ∗ , α 2 ∗ , ⋯ , α N ∗ ) ⊤ \alpha^*=(\alpha_1^*, \alpha_2^*, \cdots, \alpha_N^*)^\top α=(α1,α2,,αN)是对偶最优化问题式(9-15)~式(9-17)的解,根据拉格朗日对偶理论相关推论,式(9-7)满足 KKT(Karush-Kuhn-Tucker)条件,有:
∂ L ∂ w = w ∗ − ∑ i = 1 N α i ∗ y i x i = 0 (9-25) \frac{\partial L}{\partial w}=w^*-\sum_{i=1}^{N}\alpha_i^* y_i x_i = 0 \tag{9-25} wL=wi=1Nαiyixi=0(9-25)

∂ L ∂ b = − ∑ i = 1 N α i ∗ y i = 0 (9-26) \frac{\partial L}{\partial b}=-\sum_{i=1}^{N}\alpha_i^* y_i = 0 \tag{9-26} bL=i=1Nαiyi=0(9-26)

α i ∗ ( y i ( w ∗ ⋅ x i + b ∗ ) − 1 ) = 0 , i = 1 , 2 , ⋯ , N (9-27) \alpha_i^*\left(y_i\left(w^*\cdot x_i+b^*\right)-1\right)=0, \; i=1, 2, \cdots, N \tag{9-27} αi(yi(wxi+b)1)=0,i=1,2,,N(9-27)

y i ( w ∗ ⋅ x i + b ∗ ) − 1 ⩾ 0 , i = 1 , 2 , ⋯ , N (9-28) y_i\left(w^*\cdot x_i+b^*\right)-1\geqslant 0, \; i=1, 2, \cdots, N \tag{9-28} yi(wxi+b)10,i=1,2,,N(9-28)

α i ∗ ⩾ 0 , i = 1 , 2 , ⋯ , N (9-29) \alpha_i^*\geqslant 0, \; i=1, 2, \cdots, N \tag{9-29} αi0,i=1,2,,N(9-29)

可解得:
w ∗ = ∑ i = 1 N α i ∗ y i x i (9-30) w^*=\sum_{i=1}^{N}\alpha_i^*y_i x_i \tag{9-30} w=i=1Nαiyixi(9-30)

b ∗ = y j − ∑ j = 1 N α i ∗ y i ( x i ⋅ x j ) (9-31) b^*=y_j-\sum_{j=1}^{N}\alpha_i^*y_i\left(x_i\cdot x_j\right) \tag{9-31} b=yjj=1Nαiyi(xixj)(9-31)

相应的线性可分支持向量机的线性分隔超平面可以表达为:
∑ i = 1 N α i ∗ y i ( x ⋅ x i ) + b ∗ = 0 (9-32) \sum_{i=1}^{N}\alpha_i^*y_i\left(x\cdot x_i\right)+b^*=0 \tag{9-32} i=1Nαiyi(xxi)+b=0(9-32)

以上就是线性可分支持向量机的完整推导过程。对于给定的线性可分数集,可以先尝试求对偶问题式(9-27)~式(9-29)的解 α ∗ \alpha^* α, 再基于式(9-30)~式(9-31)求对应原始问题的解 w ∗ , b ∗ w^*, b^* w,b, 最后即可得到线性分隔超平面和相应的分类决策函数。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/56710.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LLM 推理的核心评估指标

想要优化 LLM 推理&#xff0c;首先要了解 LLM 推理的核心指标。 Time To First Token (TTFT): 首 Token 延迟&#xff0c;即从输入到输出第一个 token 的延迟。在在线的流式应用中&#xff0c;TTFT 是最重要的指标&#xff0c;因为它决定了用户体验。Time Per Output Token (…

迷茫!能走出迷茫?

我今年40有余&#xff0c;因资质平庸&#xff0c;及特殊的个人经历&#xff0c;仍奋斗在一线。上班近二十年&#xff0c;两件事对我人生走向影响最大&#xff0c;编程和炒股。 下个月要去一家新公司上班。今天算是在现公司工作交接的最后时段。在这家公司干了接近一年&#xff…

论文阅读(十六):Deep Residual Learning for Image Recognition

文章目录 1.介绍2.基本原理3.两种残差块4.网络结构 论文&#xff1a;Deep Residual Learning for Image Recognition   论文链接&#xff1a;Deep Residual Learning for Image Recognition   代码链接&#xff1a;Github 1.介绍 在ResNet网络提出之前&#xff0c;传统的卷…

linux 开发机与测试机建立 ssh 隧道

1、开启手机的 tcp 端口 ## 例如 adb tcpip 55552、将 windows 电脑的与手机端口进行映射 ### 例如 adb forward tcp:55555 tcp:55553、打通和 linux 主机的隧道 ssh -R <remote-port>:127.0.0.1:<local-port> userremote-host -N### 例如 ssh -R 55555:127.0.…

详解tcpdump

tcpdump 是一个强大的命令行网络分析工具&#xff0c;用于抓取和分析网络流量。下面是 tcpdump 的常用参数及其详细说明&#xff0c;包含抓取所有网络接口的方法和 -S 参数的作用。 基础参数 -i <interface> 指定要监听的网络接口。如果你希望抓取所有接口的流量&#x…

【MySQL】入门篇—SQL基础:数据查询语言(DQL):复杂的SELECT语句

在实际应用中&#xff0c;复杂的SELECT语句可以帮助我们从多个表中提取相关信息&#xff0c;进行数据分析&#xff0c;生成报告&#xff0c;甚至进行数据挖掘。 掌握复杂的SELECT语句对于数据分析师、数据库管理员和开发者来说是必不可少的技能。 应用场景&#xff1a; 多表查…

Android 中获取当前 CPU 频率和占用率

最近在优化 App 的性能&#xff0c;需要获取当前 CPU视频频率和占用率&#xff0c;通过查询资料&#xff0c;大致思路如下&#xff1a; 目前没有标准的 API 来获取 CPU 的使用频率&#xff0c;只能通过读取指定 CPU 文件获取当前 CPU 频率&#xff0c;在某些机器或者特定版本中…

STM32 独立看门狗和窗口看门狗区别

文章目录 1. 时钟源不同独立看门狗&#xff08;IWDG&#xff09;时钟源&#xff1a;特点&#xff1a; 窗口看门狗&#xff08;WWDG&#xff09;时钟源&#xff1a;特点&#xff1a; 2. 中断机制不同独立看门狗&#xff08;IWDG&#xff09;中断机制&#xff1a; 窗口看门狗&…

如何快速部署一套智能化openGauss测试环境

一、openGauss介绍 openGauss是一款开源关系型数据库管理系统&#xff0c;采用木兰宽松许可证v2发行&#xff0c;允许用户自由地复制、使用、修改和分发软件。openGauss内核深度融合了华为在数据库领域多年的研发经验&#xff0c;结合企业级场景需求&#xff0c;持续构建竞争力…

STM32 ADC介绍

文章目录 STM32 ADC介绍一、ADC的基本概念二、STM32 ADC的主要特点高分辨率&#xff1a;多通道输入&#xff1a;多种工作模式&#xff1a;内置温度传感器和参考电压&#xff1a; 三、ADC的工作原理采样阶段&#xff1a;转换阶段&#xff1a;数据存储&#xff1a; 四、ADC的配置…

集合相关:asList()和subList()方法的作用?

1.asList()方法 Arrays.asList(T... a)返回一个固定大小的列表&#xff0c;这个返回的列表的底层实现是一个final修饰的数组&#xff0c;其引用关系不能发生变化&#xff0c;并且它的大小也是固定的&#xff0c;可以修改和读取里面的元素值&#xff0c;但是不能添加或删除元素。…

基于SpringBoot+Vue+uniapp微信小程序的婚庆摄影小程序的详细设计和实现(源码+lw+部署文档+讲解等)

项目运行截图 技术框架 后端采用SpringBoot框架 Spring Boot 是一个用于快速开发基于 Spring 框架的应用程序的开源框架。它采用约定大于配置的理念&#xff0c;提供了一套默认的配置&#xff0c;让开发者可以更专注于业务逻辑而不是配置文件。Spring Boot 通过自动化配置和约…

在docker的容器内如何查看Ubuntu系统版本

文章目录 写在前面一、问题描述二、解决方法参考链接 写在前面 自己的测试环境&#xff1a; docker 一、问题描述 由于 lsb_release -a 只能查看自己电脑&#xff08;宿主机&#xff09;的系统版本&#xff0c;如果在docker的容器内又应该如何查看Ubuntu系统版本呢&#xff…

vue3导出,下载,预览,上传

1.导出 try {let response null;response await exportCheckAmendment({type: 2,reportId: row.id});if (response.size < 100) return ElMessage.warning("暂无修订件");// 处理请求返回的文件流const content response as BlobPart;const blob new Blob([co…

机器学习—学习率的选择

如果你选择适当的学习率&#xff0c;你的学习算法将运行得更好&#xff0c;如果太小&#xff0c;它会跑得很慢&#xff0c;如果太大&#xff0c;它甚至可能不会收敛&#xff0c;那么如何为模型选择一个好的学习率呢&#xff1f; 如果绘制多次迭代的成本&#xff0c;注意到成本…

vue3中用axios请求怎么添加cookie

在 Vue 3 中使用 axios 发起请求时&#xff0c;可以通过配置 axios 的请求选项来携带 Cookies。具体来说&#xff0c;确保跨域请求时&#xff0c;设置 withCredentials: true&#xff0c;以便发送和接收 Cookies。 1. Axios 配置携带 Cookie 首先确保你在 axios 请求中设置了…

深度学习笔记20_数据增强

&#x1f368; 本文为&#x1f517;365天深度学习训练营 中的学习记录博客&#x1f356; 原作者&#xff1a;K同学啊 | 接辅导、项目定制 一、我的环境 1.语言环境&#xff1a;Python 3.9 2.编译器&#xff1a;Pycharm 3.深度学习环境&#xff1a;TensorFlow 2.10.0 二、GPU设置…

PHP中的ReflectionClass常见用法

ReflectionClass是 PHP 中的一个类&#xff0c;它提供了有关类的信息的反射。 使用ReflectionClass可以在运行时获取关于类的各种信息&#xff0c;例如类的名称、方法、属性、注释等。 以下是一些常见的用法&#xff1a; 获取类的名称&#xff1a; $reflection new Reflec…

LLM实践--支线:拯救Continue Pretrain的数据

背景 首先介绍下什么是Continue Pretrain&#xff08;CP&#xff09;。CP 和 Pretrain、SFT一样指的是 LLM 训练的一个阶段&#xff0c;在前大模型时代还被称作Post Pretrain。CP 是在Pretrain和SFT之间的训练阶段&#xff0c;目的是为模型注入领域知识&#xff0c;这个领域是…

mqtt客户端订阅一直重复连接?

文章 前言错误场景问题分析解决方案后言 前言 ✨✨ 他们是天生勇敢的开发者&#xff0c;我们创造bug&#xff0c;传播bug&#xff0c;毫不留情地消灭bug&#xff0c;在这个过程中我们创造了很多bug以供娱乐。 前端bug这里是博主总结的一些前端的bug以及解决方案&#xff0c;感兴…