神经网络与深度学习——第3章 线性模型

本文讨论的内容参考自《神经网络与深度学习》https://nndl.github.io/ 第3章 线性模型

线性模型

线性模型(Linear Model)是机器学习中应用最广泛的模型,指通过样本特征的线性组合来进行预测的模型,给定一个 D D D维样本 x = [ x 1 , . . . , x D ] T \bm x = [x_1,...,x_D]^T x=[x1,...,xD]T,其线性组合函数为
在这里插入图片描述
在分类问题中,由于输出目标 y y y是一些离散的标签,而 f ( x ; ω ) f(\bm x;\bm \omega) f(x;ω)的值域为实数,因此无法直接用 f ( x ; ω ) f(\bm x;\bm \omega) f(x;ω)来进行预测,需要引入一个非线性的决策函数 g ( ⋅ ) g(\cdot) g()来预测输出目标
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

线性判别函数和决策边界

从公式(3.3)可知,一个线性分类模型线性分类器,是由一个或多个线性的判别函数 f ( x ; ω ) = ω T x + b f(\bm x;\bm \omega)=\bm \omega^T x+b f(x;ω)=ωTx+b和非线性的决策函数 g ( ⋅ ) g(\cdot) g()组成,我们首先考虑二分类的情况,然后再扩展到多分类的情况。

二分类

二分类问题的类别标签 y y y只有两种取值,通常可以设为 + 1 , − 1 {+1,-1} +1,1 0 , 1 {0,1} 0,1。在二分类问题中,常用正例负例来分别表示属于类别+1和-1的样本。
在二分类问题中,我们只需要一个线性判别函数 f ( x ; ω ) = ω T x + b f(\bm x;\bm \omega)=\bm \omega^T x+b f(x;ω)=ωTx+b。特征空间 R D R^D RD中所有满足 f ( x ; ω ) = 0 f(\bm x; \bm \omega)=0 f(x;ω)=0的点组成一个分割超平面,称为决策边界决策平面。决策边界将特征空间一分为二,划分成两个区域,每个区域对应一个类别。
所谓“线性分类模型”就是指其决策边界是线性超平面。在特征空间中,决策平面与权重向量 ω \bm \omega ω正交,特征空间中每个样本点到决策平面的有向距离

在这里插入图片描述
3.2给出了一个二分类问题的线性决策边界示例,其中样本特征向量 x = [ x 1 , x 2 ] \bm x=[x1,x2] x=[x1,x2],权重向量 ω = [ ω 1 , ω 2 ] \bm \omega=[\omega 1,\omega 2] ω=[ω1,ω2]
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

多分类

在这里插入图片描述
在这里插入图片描述
这里解释一下这幅图:
(a)如果有C个类别,那么有C个二分类器,每个二分类器有两种类别(是这个类、不是这个类),以中间区域为例, f 1 f_1 f1显示其不属于类别1,同理,也不属于类别2、3,所以它是无法判断类别的区域。
(b)如果有C个类别,就需要 C ( C − 1 ) / 2 C(C-1)/2 C(C1)/2个二分类器,每个分类器有两种类别(是这个类,是那个类),比如说 ω 2 \omega 2 ω2 ω 3 \omega 3 ω3就训练出了一个分类器 f 2 3 f_23 f23,划分第二类或者第三类,而中间部分根据分类器投票结果得到,由于投票可能出现平票的情况,如图就是类别1、2、3各一票,因此也无法判断类别。
(c)C个分类器,但是在难以确定类别的区域,使用argmax来决策,确定为分数最高的类别。
在这里插入图片描述

Logistic回归

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参数学习

在这里插入图片描述
在这里插入图片描述

Softmax回归

在这里插入图片描述
在这里插入图片描述

参数学习

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

感知器

在这里插入图片描述

参数学习

在这里插入图片描述
这里需要解释更新权重的过程:每次分错一个样本 ( x , y ) (\bm x,y) (x,y)时,即 y ω T x < 0 y\bm \omega^T \bm x<0 yωTx<0,用 ω ^ = ω + y x \hat{\bm \omega} = \bm \omega+y\bm x ω^=ω+yx来更新权重,这样的话,当再次分这个样本的时候, y ω ^ x = y ( ω + y x ) T x = y ω T x + y 2 x T x = y ω T x + x T x > = y ω T x y\hat{\bm \omega} \bm x = y(\bm \omega + y\bm x)^T \bm x =y\bm \omega^T \bm x+y^2\bm x^T \bm x =y\bm \omega^T \bm x+\bm x^T \bm x>=y\bm \omega^T \bm x yω^x=y(ω+yx)Tx=yωTx+y2xTx=yωTx+xTx>=yωTx,所以这个值会变大,最终会大于0,也就是分类正确,所以这个更新权重的方式是合理的。
这种更新参数方式和Logistic回归区别在于,后者是更新的预测和真实值的差异,所以Logistic似乎更加合理。感知器只有犯错才更新,Logistic不管是否犯错,只要与真实分布有差异,就会更新参数。
在这里插入图片描述
在这里插入图片描述

感知器的收敛性

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参数平均感知器

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

扩展到多分类

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

广义感知器的收敛性

在这里插入图片描述
在这里插入图片描述

支持向量机

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
**支持向量机就是要找到一个超平面,让最短距离(间隔)最大,即数据集中所有样本到分割超平面的最短距离最大。**图中的两条虚线就是支持向量,上面的那个点到超平面的距离就是间隔,这就是最短距离,决策边界是由支持向量决定的。

参数学习

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

核函数

在这里插入图片描述

软间隔

支持向量原始定义必须让样本在特征空间线性可分,对于不满足线性可分约束的样本,需要引入松弛变量
在这里插入图片描述
在这里插入图片描述

损失函数对比

在这里插入图片描述
在这里插入图片描述
这里给出解释,这个图给出了平方损失、Hinge损失、交叉熵损失、感知器损失和0-1损失在二分类上的对比,横坐标 y f ( x , ω ) yf(\bm x,\bm \omega) yf(x,ω)小于0代表分类错误,大于0是分类正确,可以看到,平方损失 L s q u a r e d = ( y − f ( x ; ω ) ) 2 = 1 − 2 y f ( x ; ω ) + ( y f ( x ; ω ) ) 2 = ( 1 − y f ( x ; ω ) ) 2 L_squared=(y-f(\bm x;\bm \omega))^2=1-2yf(\bm x;\bm \omega)+(yf(\bm x; \bm \omega))^2=(1-yf(\bm x; \bm \omega))^2 Lsquared=(yf(x;ω))2=12yf(x;ω)+(yf(x;ω))2=(1yf(x;ω))2在1左边是下降趋势,是合理的,但在1右边,命名已经分类正确并且离决策边界越来越远,但是损失函数反而上升,说明平方损失不适合二分类问题。Logistic回归的交叉熵损失求出来是公式3.104的形式,可以看出随着分类越正确,损失降低,但是即时已经划分正确了,它还是会有一部分损失,会进行参数更新。感知器损失是专门为二分类服务的,只有分错的情况才会有损失,软间隔支持向量机的损失函数相当于感知器损失函数向右平移一个单位。一个好的损失函数应该随着 y f ( x , ω ) yf(\bm x,\bm \omega) yf(x,ω)的增大而减少。

总结和深入阅读

在这里插入图片描述
在这里插入图片描述

习题

在这里插入图片描述
证明:设决策平面是 f ( x , ω ) = ω T x + b = 0 f(\bm x,\bm \omega)=\bm \omega^T \bm x+b=0 f(x,ω)=ωTx+b=0,对于 ∀ x 1 , x 2 ∈ ω T x + b = 0 \forall {x_1,x_2} \in \bm \omega^T \bm x+b=0 x1,x2ωTx+b=0,有 ω T x 1 + b = ω x 2 + b = 0 \bm \omega^T \bm x_1+b = \bm \omega \bm x_2+b = 0 ωTx1+b=ωx2+b=0,那么有 ω ( x 1 − x 2 ) = 0 \bm \omega(\bm x_1-\bm x_2)=0 ω(x1x2)=0,说明 ω \bm \omega ω和向量 x 1 − x 2 \bm {x_1-x_2} x1x2垂直,所以权重向量 ω \bm \omega ω与决策平面正交。
在这里插入图片描述
证明:点到平面的距离公式 d = ∣ A x + B y + C z + D ∣ A 2 + B 2 + C 2 d=\frac{|Ax+By+Cz+D|}{\sqrt{A^2+B^2+C^2}} d=A2+B2+C2 Ax+By+Cz+D ω T x = [ A , B , C ] x \bm \omega^T \bm x = [A, B, C]\bm x ωTx=[A,B,C]x,所以 d = ∣ f ( x ; ω ) ∣ ∣ ∣ ω ∣ ∣ d=\frac{|f(\bm x; \bm \omega)|}{||\bm \omega||} d=∣∣ω∣∣f(x;ω)
在这里插入图片描述

证明:只需证 ω c T ( ρ x 1 + ( 1 − ρ ) x 2 ) > ω c ~ T ( ρ x 1 + ( 1 − ρ ) x 2 ) \bm \omega^T_c(\rho \bm x_1 + (1-\rho)\bm x_2) > \bm \omega^T_{\tilde c}(\rho \bm x_1 + (1-\rho)\bm x_2) ωcT(ρx1+(1ρ)x2)>ωc~T(ρx1+(1ρ)x2),因为点 x 1 \bm x_1 x1 x 2 \bm x_2 x2被分为类别 c c c,那么有 ω c T x 1 > ω c ~ T x 1 \bm \omega^T_c \bm x_1>\bm \omega^T_{\tilde c}\bm x_1 ωcTx1>ωc~Tx1 ω c T x 2 > ω c ~ T x 2 \bm \omega^T_c \bm x_2>\bm \omega^T_{\tilde c}\bm x_2 ωcTx2>ωc~Tx2,这样有 ρ ( ω c T x 1 − ω c ~ T x 1 ) > 0 , ( 1 − ρ ) ( ω c T x 2 − ω c ~ T x 2 ) > 0 \rho (\bm \omega^T_c \bm x_1-\bm \omega^T_{\tilde c}\bm x_1)>0,(1-\rho) (\bm \omega^T_c \bm x_2-\bm \omega^T_{\tilde c}\bm x_2)>0 ρ(ωcTx1ωc~Tx1)>0,(1ρ)(ωcTx2ωc~Tx2)>0,因此有 ρ ( ω c T x 1 − ω c ~ T x 1 ) + ( 1 − ρ ) ( ω c T x 2 − ω c ~ T x 2 ) > 0 \rho (\bm \omega^T_c \bm x_1-\bm \omega^T_{\tilde c}\bm x_1)+(1-\rho) (\bm \omega^T_c \bm x_2-\bm \omega^T_{\tilde c}\bm x_2)>0 ρ(ωcTx1ωc~Tx1)+(1ρ)(ωcTx2ωc~Tx2)>0,即 ρ ω c T x 1 + ( 1 − ρ ) ω c T x 2 > ρ ω c ~ T x 1 + ( 1 − ρ ) ω c ~ T x 2 \rho \bm \omega^T_c \bm x_1+(1-\rho) \bm \omega^T_c \bm x_2>\rho \bm \omega^T_{\tilde c}\bm x_1+(1-\rho) \bm \omega^T_{\tilde c} \bm x_2 ρωcTx1+(1ρ)ωcTx2>ρωc~Tx1+(1ρ)ωc~Tx2,即 ω c T ( ρ x 1 + ( 1 − ρ ) x 2 ) > ω c ~ T ( ρ x 1 + ( 1 − ρ ) x 2 ) \bm \omega^T_c (\rho \bm x_1+(1-\rho)\bm x_2)>\bm \omega^T_{\tilde c}(\rho \bm x_1+(1-\rho)\bm x_2) ωcT(ρx1+(1ρ)x2)>ωc~T(ρx1+(1ρ)x2)。得证。
在这里插入图片描述
(1)这个其实就是“一对其余”方式的改进,一对其余是判别函数 f c f_c fc将属于类别 c c c和不属于类别 c c c划分,这题的题意是将属于类别 c c c和属于除了 c c c的其他类别划分,因此每一个样本都能根据判别函数划分开,并不存在同时不属于所有类别的情况,一定是可分的。
(2)这个就是一对一方式,会出现同时属于多个类别且投票票数相等的情况,这类区域的样本是不能划分类别的,因此该数据集不一定是线性可分的。
在这里插入图片描述
平方损失可以用于分类问题,但并不适合用于分类问题,由之前的损失函数对比图可以看出来,对于分类正确的情况,平方损失会增加,而且平方损失在Logistic回归的情况是非凸函数,容易收敛到局部最优。Logistic回归的激活函数一般是Sigmoid函数,当用平方损失时,有 L = 1 2 ( y ^ − y ) 2 L=\frac{1}{2}(\hat y-y)^2 L=21(y^y)2,对权重的导数为 ∂ L ∂ ω = ( y ^ − y ) σ ′ x \frac{\partial L}{\partial \bm \omega}=(\hat y-y)\sigma'\bm x ωL=(y^y)σx,那么进行权重更新的公式就为 ω = ω − μ ∂ L ∂ ω = ω − μ ( y ^ − y ) σ ′ x \bm \omega=\bm \omega-\mu\frac{\partial L}{\partial \bm \omega}=\bm \omega - \mu(\hat y -y)\sigma'\bm x ω=ωμωL=ωμ(y^y)σx。而Sigmoid函数在横坐标大的时候导数小,这样和参数更新的目标是相反的,在损失大的时候,参数更新反而慢,损失小的时候,梯度反而大。
在这里插入图片描述
公式3.39 R ( W ) = − 1 N ∑ n = 1 N ( y ( n ) ) T l o g y ^ ( n ) R(W)=-\frac{1}{N}\sum^N_{n=1} (y^{(n)})^Tlog\hat y^{(n)} R(W)=N1n=1N(y(n))Tlogy^(n),加入正则化后: R ( W ) = − 1 N ∑ n = 1 N ( y ( n ) ) T l o g y ^ ( n ) + λ W T W R(W)=-\frac{1}{N}\sum^N_{n=1} (y^{(n)})^Tlog\hat y^{(n)}+\lambda W^TW R(W)=N1n=1N(y(n))Tlogy^(n)+λWTW,对权重的导数为: ∂ R ( W ) ∂ W = − 1 N ∑ n = 1 N ( y ^ ( n ) − y ( n ) ) x ( n ) + 2 λ W \frac{\partial {R(W)}}{\partial W}=-\frac{1}{N}\sum^N_{n=1} (\hat y^{(n)}-y^{(n)})x^{(n)}+2 \lambda W WR(W)=N1n=1N(y^(n)y(n))x(n)+2λW,更新参数的时候为 W = W + α 1 N ∑ n = 1 N ( y ^ ( n ) − y ( n ) ) x ( n ) − 2 λ W W = W+\alpha \frac{1}{N}\sum^N_{n=1} (\hat y^{(n)}-y^{(n)})x^{(n)}-2 \lambda W W=W+αN1n=1N(y^(n)y(n))x(n)2λW。可以看出,加入正则化项之后,在更新参数时每次需要减去 2 λ W 2\lambda W 2λW,使得参数不会太大,便不会造成溢出之类的错误发生,同时也会抑制过拟合。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
设预测错误的样本有 K K K个,并且设选取到这些样本时的迭代次数为 t k t_k tk,那么根据算法3.2的步骤,可以计算出: ω = y 1 x 1 + y 2 x 2 + . . . + y k x k \bm \omega = y_1\bm x_1+y_2\bm x_2+...+y_k \bm x_k ω=y1x1+y2x2+...+ykxk u = t 1 y 1 x 1 + t 2 y 2 x 2 + . . . + t k y k x k u=t_1y_1\bm x_1+t_2y_2\bm x_2+...+t_ky_k\bm x_k u=t1y1x1+t2y2x2+...+tkykxk,因此, ω ‾ = ω − 1 T u = y 1 x 1 + y 2 x 2 + . . . + y k x k − 1 T ( t 1 y 1 x 1 + t 2 y 2 x 2 + . . . + t k y k y k ) = T − t 1 T y 1 x 1 + T − t 2 T y 2 x 2 + . . . + T − t k T y k x k \overline \omega=\omega-\frac{1}{T}u=y_1\bm x_1+y_2\bm x_2+...+y_k\bm x_k-\frac{1}{T}(t_1y_1\bm x_1+t_2y_2\bm x_2+...+t_ky_k\bm y_k)=\frac{T-t_1}{T} \bm y_1\bm x_1+\frac{T-t_2}{T}y_2\bm x_2+...+\frac{T-t_k}{T}y_k \bm x_k ω=ωT1u=y1x1+y2x2+...+ykxkT1(t1y1x1+t2y2x2+...+tkykyk)=TTt1y1x1+TTt2y2x2+...+TTtkykxk
而根据公式3.77 ω = ∑ t = 1 T ω t \bm \omega = \sum^T_{t=1} \omega_t ω=t=1Tωt ω t = ∑ i = 1 k < = t x i y i ω ‾ = 1 T ω \omega_t = \sum^{k<=t}_{i=1}x_iy_i\overline \omega=\frac{1}{T}\omega ωt=i=1k<=txiyiω=T1ω ω = ( x 1 y 1 + . . . + x 1 y 1 ) + ( x 1 y 1 + x 2 y 2 + . . . + x 1 y 1 + x 2 y 2 ) + . . . + ( ∑ i = 1 k x i y i + . . . + ∑ i = 1 k x i y i ) \bm \omega=(\bm x_1 y_1+...+\bm x_1 y_1)+(\bm x_1 y_1+\bm x_2 y_2+...+\bm x_1 y_1+\bm x_2 y_2)+...+(\sum^k_{i=1}\bm x_iy_i+...+\sum^k_{i=1}\bm x_i y_i) ω=(x1y1+...+x1y1)+(x1y1+x2y2+...+x1y1+x2y2)+...+(i=1kxiyi+...+i=1kxiyi)。式中,当第二个预测错误的样本被选取时才开始加 x 2 y 2 \bm x_2 y_2 x2y2,也就是说到达 t 2 t_2 t2时刻时才开始加,其中 x i y i \bm x_i y_i xiyi类似,到达 t i t_i ti时刻时开始加,因此 x i y i \bm x_i y_i xiyi共相加了 T − t i T-t_i Tti
所以 ω = ( T − t i ) x 1 y 1 + ( T − t 2 ) x 2 y 2 + . . . + ( T − t k ) x k y k \bm \omega = (T-t_i)\bm x_1 y_1+(T-t_2)\bm x_2y_2+...+(T-t_k)\bm x_k y_k ω=(Tti)x1y1+(Tt2)x2y2+...+(Ttk)xkyk ω ‾ = 1 T ω \overline \omega=\frac{1}{T} \omega ω=T1ω,得证。
在这里插入图片描述
这里不证明了,记住这个结论。
后续的习题之后有需要的时候再做。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/19747.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Java—认识异常

1. 异常的概念与体系结构 1.1 异常的概念 在生活中&#xff0c;一个人表情痛苦&#xff0c;出于关心&#xff0c;可能会问&#xff1a;你是不是生病了&#xff0c;需要我陪你去看医生吗&#xff1f; 在程序中也是一样&#xff0c;程序猿是一帮办事严谨、追求完美的高科技人才…

【风控】可解释机器学习之InterpretML

【风控】可解释机器学习之InterpretML 在金融风控领域&#xff0c;机器学习模型因其强大的预测能力而备受青睐。然而&#xff0c;随着模型复杂性的增加&#xff0c;模型的可解释性逐渐成为一个挑战。监管要求、业务逻辑的透明度以及对模型决策的信任度&#xff0c;都迫切需要我…

getway整合sentinel流控降级

3. 启动sentinel控制台增加流控规则&#xff1a; 根据API分组进行流控&#xff1a; 1.设置API分组&#xff1a; 2.根据API分组进行流控&#xff1a; 自定义统一异常处理&#xff1a; nginx负载配置&#xff1a;

FinRobot:一个由大型语言模型(LLM)支持的新型开源AI Agent平台,支持多个金融专业AI Agent

财务分析一直是解读市场趋势、预测经济结果和提供投资策略的关键。这一领域传统上依赖数据&#xff0c;但随着时间的推移&#xff0c;越来越多地使用人工智能&#xff08;AI&#xff09;和算法方法来处理日益增长的复杂数据。AI在金融领域的作用显著增强&#xff0c;它自动化了…

Netty中半包粘包的产生与处理:短连接、固定长度、固定分隔符、预设长度;redis、http协议举例;网络数据的发送和接收过程

目录 粘包、半包 相关概念 网络数据发送和接收过程 Netty半包粘包解决方案 ByteBuf获取和默认大小 短链接 固定长度 固定分隔符 预设长度 常见协议代码举例 redis协议 http协议 参考链接 粘包、半包 相关概念 程序处理过程中我们会通过缓冲区接收数据&#xff0c…

R语言绘图 | 双Y轴截断图

教程原文&#xff1a;双Y轴截断图绘制教程 本期教程 本期教程&#xff0c;我们提供的原文的译文&#xff0c;若有需求请回复关键词&#xff1a;20240529 小杜的生信笔记&#xff0c;自2021年11月开始做的知识分享&#xff0c;主要内容是R语言绘图教程、转录组上游分析、转录组…

HarmonyOS鸿蒙学习笔记(27)resources目录说明

resources目录说明 目录结构目录说明base目录rawfile目录resfile目录资源组目录 参考资料 目录结构 在HarmonyOS的项目结构中&#xff0c;有resources目录&#xff0c;用于存放应用/服务所用到的资源文件&#xff0c;如图形、多媒体、字符串、布局文件等。关于资源文件&#x…

基于Linux的文件操作(socket操作)

基于Linux的文件操作&#xff08;socket操作&#xff09; 1. 文件描述符基本概念文件描述符的定义&#xff1a;标准文件描述符&#xff1a;文件描述符的分配&#xff1a; 2. 文件描述符操作打开文件读取文件中的数据 在linux中&#xff0c;socket也被认为是文件的一种&#xff…

redis 高可用及哨兵模式 @by_TWJ

目录 1. 高可用2. redis 哨兵模式3. 图文的方式让我们读懂这几个算法3.1. Raft算法 - 图文3.2. Paxos算法 - 图文3.3. 区别&#xff1a; 1. 高可用 在 Redis 中&#xff0c;实现 高可用 的技术主要包括 持久化、复制、哨兵 和 集群&#xff0c;下面简单说明它们的作用&#xf…

jpom ruoyi 发布后端

添加ssh 添加标签 添加仓库 添加构建 构建 命令 APP_NAMEenterprise IMAGE_NAMEenterprise:latest APP_PORT8080 RUN_ENVjenkins cd ruoyi-admin docker stop $APP_NAME || true docker rm $APP_NAME || true docker rmi $IMAGE_NAME || true docker build -f Dockerfil…

排序算法(一) 基础排序算法

排序算法 基础排序算法 排序本质&#xff1a;减小逆序对的过程 在基础排序算法中&#xff0c;将待排序序列分为相对有序区与相对无序区。 每次遍历到数组末尾称为一轮。 冒泡排序(无序区-有序区, O ( n 2 ) O(n^2) O(n2),稳定,就地) 在每一轮中&#xff0c;逐次与下一邻项…

DNF手游攻略:勇士进阶指南!

在即将到来的6月5日&#xff0c;《DNF手游》将迎来一场盛大的更新&#xff0c;此次更新带来了大量新内容和玩法&#xff0c;极大丰富了游戏的体验。本文将为广大玩家详细解析此次更新的亮点&#xff0c;包括新增的组队挑战玩法“罗特斯入门团本”、新星使宠物的推出、宠物进化功…

Sectigo EV代码签名证书费用是多少?

随着数字化时代的到来&#xff0c;软件开发者和企业面临着日益严峻的安全挑战。为了确保他们的软件产品免受恶意篡改和仿冒的威胁&#xff0c;代码签名证书应运而生&#xff0c;成为了业界广泛认可的安全解决方案。在众多代码签名证书提供商中&#xff0c;Sectigo以其卓越的信誉…

整理GTX收发器示例工程(高速收发器十一)

前文分析了xilinx官方提供的GTX IP示例工程&#xff0c;该代码的结构比较混乱&#xff0c;本文将该代码进行梳理&#xff0c;形成一个便于使用的模块&#xff0c;后续如果要使用多通道的收发器&#xff0c;多次例化某个模块就行了。 下图是官方例程中GTX IP相关模块的RTL视图&a…

停车场车位引导系统方案升级实施步骤流程是什么,有什么注意事项

停车场车位引导系统是一种现代化的停车管理系统&#xff0c;它通过实时监测车位占用情况&#xff0c;并向驾驶员提供准确的空闲车位导航信息&#xff0c;从而提高停车场的使用效率和用户体验。随着城市交通的快速发展和车辆数量的不断增加&#xff0c;停车场车位引导系统已成为…

薄膜沉积的均匀性怎么计算?

知识星球&#xff08;星球名&#xff1a;芯片制造与封测技术社区&#xff0c;星球号&#xff1a;63559049&#xff09;里的学员问&#xff1a;经常听带我的工程师说膜层的均匀性不好&#xff0c;均匀性是怎么计算的? 什么是薄膜沉积的均匀性&#xff1f;薄膜均匀性指的是薄膜…

Leetcode刷题笔记7

69. x 的平方根 69. x 的平方根 - 力扣&#xff08;LeetCode&#xff09; 假设求17的平方根 解法一&#xff1a;暴力解法 从1开始依次尝试 比如1的平方是1&#xff0c;2的平方是4...直到5的平方&#xff0c;25>17&#xff0c;所以一定是4点几的平方&#xff0c;所以等于4…

WSL2-Ubuntu22.04-配置

WSL2-Ubuntu22.04-配置 准备1. WSL相关命令[^1]2. WSL2-Ubuntu22.04可视化3. WSL2 设置 CUDA4. 设置OpenGL 本文介绍了WSL2的基本使用方法及可视化&#xff0c;着重介绍了GPU和OpenGL的设置。 准备 名称版本windows11wsl2CUDA12.5 1. WSL相关命令1 查看已安装的wsl distribut…

官方小游戏项目

一 项目原理&#xff1a;看广告&#xff0c;操作简单&#xff0c;时间自由&#xff0c;适合利用业余时间来做&#xff0c;一个广告大概在15s-30s之间。 二 介绍&#xff1a;给你开代理权限&#xff0c;你就有独立后台管理系统&#xff0c;监测每台手机每条广告的情况&#xff0…

MySQL数据表的“增删查改“

我们学习数据库, 最重要的就是要学会对数据表表进行"增删查改"(CRUD).(C -- create, R -- retrieve, U -- update, D -- delete) 目录 一. "增"(create) 1. 普通新增 2. 指定列新增 3. 一次插入多行 4. 用insert插入时间 5. 小结 二. "查"…