模式识别-Ch2-分类错误率

分类错误率

最小错误率贝叶斯决策

样本 x x x的错误率: 任一决策都可能会有错误。
P ( error ∣ x ) = { P ( w 2 ∣ x ) , if we decide  x as  w 1 P ( w 1 ∣ x ) , if we decide  x as  w 2 P(\text{error}|\mathbf{x})=\begin{cases} P(w_2|\mathbf{x}), & \text{if we decide } \mathbf{x} \text{ as } w_1\\ P(w_1|\mathbf{x}), & \text{if we decide } \mathbf{x} \text{ as } w_2 \end{cases} P(errorx)={P(w2x),P(w1x),if we decide x as w1if we decide x as w2
P ( w 2 ∣ x ) P(w_2|x) P(w2x)即:当我们将样本 x x x判定为第一类 w 1 w_1 w1时,这个判定失误的概率为 P ( w 2 ∣ x ) P(w_2|x) P(w2x);(因为样本以该概率属于第二类)

样本 x x x的最小错误率:
P ( error ∣ x ) = min ⁡ ( P ( ω 1 ∣ x ) , P ( ω 2 ∣ x ) ) P(\text{error}|\mathbf{x})=\min(P(\omega_1|\mathbf{x}),P(\omega_2|\mathbf{x})) P(errorx)=min(P(ω1x),P(ω2x))
贝叶斯决策的错误率:贝叶斯决策的错误率定义为所有服从独立同分布的样本上的错误率的期望:
P ( error ) = ∫ P ( error ∣ x ) p ( x ) d x P(\text{error})=\int P(\text{error}|\mathbf{x})p(\mathbf{x})dx P(error)=P(errorx)p(x)dx

例:错误率(1D)

关于错误率,以一维为例说明: 考虑一个有关一维样本的两类分类问题。假设决策边界 t t t x x x轴分成两个区域 R 1 R_1 R1 R 2 R_2 R2 R 1 R_1 R1 ( − ∞ , t ) (-\infty,t) (,t) R 2 R_2 R2 ( t , ∞ ) (t,\infty) (t,)

错误情形:样本在 R 1 R_1 R1中,但属于第二类的概率是存在的,即 P ( w 2 ∣ x ) P(w_2|\mathbf{x}) P(w2x);样本在 R 2 R_2 R2中,但属于第一类的概率也是存在的,即 P ( w 1 ∣ x ) P(w_1|\mathbf{x}) P(w1x);这两种情形就是决策一个给定样本 x x x可能出现错误的概率。

考虑样本自身的分布后的平均错误率计算如下:
P ( error ) = ∫ − ∞ t P ( w 2 ∣ x ) p ( x ) d x + ∫ t ∞ P ( w 1 ∣ x ) p ( x ) d x = ∫ − ∞ t P ( x ∣ w 2 ) P ( w 2 ) d x + ∫ t ∞ = P ( x ∈ R 1 , w 2 ) + P ( x ∈ R 2 , w 1 ) \begin{align}P(\text{error})&=\int_{-\infty}^{t}P(w_2|\mathbf{x})p(\mathbf{x})d\mathbf{x}+\int_{t}^{\infty}P(w_1|x)p(\mathbf{x})d\mathbf{x}\\ &=\int_{-\infty}^{t}P(\mathbf{x}|w_2)P(w_2)d\mathbf{x}+\int_{t}^{\infty}\\ &= P(\mathbf{x}\in R_1,w_2)+P(\mathbf{x}\in R_2,w_1) \end{align} P(error)=tP(w2x)p(x)dx+tP(w1x)p(x)dx=tP(xw2)P(w2)dx+t=P(xR1,w2)+P(xR2,w1)

两类情形

平均错分概率:
P ( error ) = P ( x ∈ R 2 , w 1 ) + P ( x ∈ R 1 , w 2 ) = ∫ R 2 p ( x ∣ w 1 ) P ( w 1 ) d x + ∫ R 1 p ( x ∣ w 2 ) P ( w 2 ) d x = P ( x ∈ R 2 ∣ w 1 ) P ( w 1 ) + P ( x ∈ R 1 ∣ w 2 ) P ( w 2 ) P(\text{error})=P(\mathbf{x}\in R_2,w_1)+P(\mathbf{x}\in R_1,w_2)\\ =\int_{R_2}p(\mathbf{x}|w_1)P(w_1)d\mathbf{x}+\int_{R_1}p(\mathbf{x}|w_2)P(w_2)d\mathbf{x}\\ =P(\mathbf{x}\in R_2|w_1)P(w_1)+P(\mathbf{x}\in R_1|w_2)P(w_2) P(error)=P(xR2,w1)+P(xR1,w2)=R2p(xw1)P(w1)dx+R1p(xw2)P(w2)dx=P(xR2w1)P(w1)+P(xR1w2)P(w2)

例子

平均错分概率:
P ( error ) = ∫ R 2 p ( x ∣ w 1 ) P ( w 1 ) d x + ∫ R 1 p ( x ∣ w 2 ) P ( w 2 ) d x P(\text{error})=\int_{R_2}p(\mathbf{x}|w_1)P(w_1)d\mathbf{x}+\int_{R_1}p(\mathbf{x}|w_2)P(w_2)d\mathbf{x} P(error)=R2p(xw1)P(w1)dx+R1p(xw2)P(w2)dx
image-20241230161734559

多类情形

平均错分概率:
P ( error ) = ∑ i = 1 c ∑ j ≠ i P ( x ∈ R j , w i ) P(\text{error})=\sum_{i = 1}^{c}\sum_{j\neq i}P(x\in R_j,w_i) P(error)=i=1cj=iP(xRj,wi)
平均分类精度:
P ( correct ) = ∑ i = 1 c P ( x ∈ R i , w i ) = ∑ i = 1 c P ( x ∈ R i ∣ w i ) P ( w i ) = ∫ R i p ( x ∣ w i ) P ( w i ) d x \begin{align} P(\text{correct})&=\sum_{i = 1}^{c}P(\mathbf{x}\in R_i,w_i)\\ & =\sum_{i = 1}^{c}P(\mathbf{x}\in R_i|w_i)P(w_i)\\ & =\int_{R_i}p(\mathbf{x}|w_i)P(w_i)d\mathbf{x} \end{align} P(correct)=i=1cP(xRi,wi)=i=1cP(xRiwi)P(wi)=Rip(xwi)P(wi)dx

离散变量bayes决策

概率分布函数: P ( x ∣ w i ) = P ( x 1 , x 2 , … , x d ∣ w i ) P(\mathbf{x}|w_i)=P(\mathbf{x}_1,\mathbf{x}_2,\dots,\mathbf{x}_d|w_i) P(xwi)=P(x1,x2,,xdwi)

独立二值特征 (Binary features)

特征独立假设(Naïve Bayes):
P ( x ∣ ω j ) = P ( x 1 , x 2 , … , x d ∣ ω j ) = ∏ j = 1 d P ( x j ∣ ω j ) P(\mathbf{x}|\omega_j)=P(x_1,x_2,\ldots,x_d|\omega_j)=\prod_{j = 1}^{d}P(x_j|\omega_j) P(xωj)=P(x1,x2,,xdωj)=j=1dP(xjωj)

每维特征服从伯努利分布(0/1分布)

在类别 w 1 w_1 w1 下,第 i i i 个特征 x i x_i xi 取值为 1 的概率在类别 w 2 w_2 w2 下,第 i i i 个特征 x i x_i xi 取值为 1 的概率
$p_i = P(X_{i}=1w_1),\quad i = 1,\ldots,d$
$P(\mathbf{x}w_1)=\prod_{i = 1}{d}p_i{x_i}(1 - p_i)^{1 - x_i}$

似然比:
P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) = ∏ i = 1 d ( p i q i ) x i ( 1 − p i 1 − q i ) 1 − x i \frac{P(\mathbf{x}|\omega_1)}{P(\mathbf{x}|\omega_2)}=\prod_{i = 1}^{d}\left(\frac{p_i}{q_i}\right)^{x_i}\left(\frac{1 - p_i}{1 - q_i}\right)^{1 - x_i} P(xω2)P(xω1)=i=1d(qipi)xi(1qi1pi)1xi
判别函数(QDF):
g ( x ) = g 1 ( x ) − g 2 ( x ) = ln ⁡ P ( x ∣ w 1 ) P ( w 1 ) − ln ⁡ P ( x ∣ w 2 ) P ( w 2 ) = ∑ i = 1 d [ x i ln ⁡ p i q i + ( 1 − x i ) ln ⁡ 1 − p i 1 − q i ] + ln ⁡ P ( w 1 ) P ( w 2 ) = ∑ i = 1 d ln ⁡ p i q i 1 − q i 1 − p i x i + ∑ i = 1 d ln ⁡ 1 − p i 1 − q i + ln ⁡ P ( w 1 ) P ( w 2 ) = ∑ i = 1 d w i x i + w 0 { w i = ln ⁡ p i ( 1 − q i ) q i ( 1 − p i ) , i = 1 , … , d w 0 = ∑ i = 1 d ln ⁡ 1 − p i 1 − q i + ln ⁡ P ( w 1 ) P ( w 2 ) \begin{align} g(\mathbf{x}) &= g_1(\mathbf{x})-g_2(\mathbf{x})=\ln P(\mathbf{x}|w_1)P(w_1)-\ln P(\mathbf{x}|w_2)P(w_2)\\ &=\sum_{i = 1}^{d}\left[x_i\ln\frac{p_i}{q_i}+(1 - x_i)\ln\frac{1 - p_i}{1 - q_i}\right]+\ln\frac{P(w_1)}{P(w_2)}\\ &=\sum^d_{i=1}\ln\frac{p_i}{q_i}\frac{1-q_i}{1-p_i}\mathbf x_i+\sum^d_{i=1}\ln\frac{1-p_i}{1-q_i}+\ln\frac{P(w_1)}{P(w_2)}\\ &=\sum_{i = 1}^{d}w_i x_i+w_0\\ &\begin{cases} w_i&=\ln\frac{p_i(1 - q_i)}{q_i(1 - p_i)},\quad i = 1,\ldots,d\\ w_0&=\sum_{i = 1}^{d}\ln\frac{1 - p_i}{1 - q_i}+\ln\frac{P(w_1)}{P(w_2)} \end{cases} \end{align} g(x)=g1(x)g2(x)=lnP(xw1)P(w1)lnP(xw2)P(w2)=i=1d[xilnqipi+(1xi)ln1qi1pi]+lnP(w2)P(w1)=i=1dlnqipi1pi1qixi+i=1dln1qi1pi+lnP(w2)P(w1)=i=1dwixi+w0{wiw0=lnqi(1pi)pi(1qi),i=1,,d=i=1dln1qi1pi+lnP(w2)P(w1)

例子 × 1 \times 1 ×1

例子是基于朴素贝叶斯分类器二分类问题,并利用独立二值特征(Binary Features)推导出分类的决策边界 g ( x ) = 0 g(x)=0 g(x)=0 的过程。

已知:
P ( ω 1 ) = 0.5 , P ( ω 2 ) = 0.5 p i = 0.8 , q i = 0.5 , i = 1 , 2 , 3 P(\omega_1)=0.5, P(\omega_2)=0.5\\ p_i = 0.8, q_i = 0.5,\quad i = 1,2,3 P(ω1)=0.5,P(ω2)=0.5pi=0.8,qi=0.5,i=1,2,3

P ( x ∣ ω 1 ) = ∏ i = 1 3 p i x i ( 1 − p i ) 1 − x i P ( x ∣ ω 2 ) = ∏ i = 1 3 q i x i ( 1 − q i ) 1 − x i g ( x ) = ∑ i = 1 3 w i x i + w 0 w i = ln ⁡ 0.8 ( 1 − 0.5 ) 0.5 ( 1 − 0.8 ) = ln ⁡ 4 = 1.3863 w 0 = ∑ i = 1 3 ln ⁡ 1 − 0.8 1 − 0.5 + ln ⁡ 0.5 0.5 = 3 ln ⁡ 2 5 = − 2.7489 P(\mathbf{x}|\omega_1)=\prod_{i = 1}^{3}p_i^{x_i}(1 - p_i)^{1 - x_i}\\ P(\mathbf{x}|\omega_2)=\prod_{i = 1}^{3}q_i^{x_i}(1 - q_i)^{1 - x_i}\\ g(\mathbf{x})=\sum_{i = 1}^{3}w_i x_i+w_0\\ w_i=\ln\frac{0.8(1 -0.5)}{0.5(1 -0.8)} =\ln4= 1.3863\\ w_0=\sum_{i = 1}^{3}\ln\frac{1 -0.8}{1 -0.5}+\ln\frac{0.5}{0.5}=3\ln\frac{2}{5}=- 2.7489 P(xω1)=i=13pixi(1pi)1xiP(xω2)=i=13qixi(1qi)1xig(x)=i=13wixi+w0wi=ln0.5(10.8)0.8(10.5)=ln4=1.3863w0=i=13ln10.510.8+ln0.50.5=3ln52=2.7489

例子 × 2 \times 2 ×2

3D binary data - P ( w 1 ) = 0.5 , P ( w 2 ) = 0.5 P(w_1)=0.5, P(w_2)=0.5 P(w1)=0.5,P(w2)=0.5 -
p 1 = p 2 = 0.8 , p 3 = 0.5 ; q i = 0.5 , i = 1 , 2 , 3 w i = ln ⁡ 0.8 ( 1 − 0.5 ) 0.5 ( 1 − 0.8 ) = ln ⁡ 4 = 1.3863 , i = 1 , 2 w 3 = 0 , i = 3 w 0 = 2 ln ⁡ 1 − 0.8 1 − 0.5 = − 1.8326 p_1 = p_2 = 0.8, p_3 = 0.5; q_i = 0.5,\quad i = 1,2,3\\ w_i=\ln\frac{0.8(1 -0.5)}{0.5(1 -0.8)} =\ln4= 1.3863,\ i=1,2\\ w_3 = 0,\ i=3\\w_0 = 2\ln\frac{1 -0.8}{1 -0.5}=- 1.8326 p1=p2=0.8,p3=0.5;qi=0.5,i=1,2,3wi=ln0.5(10.8)0.8(10.5)=ln4=1.3863, i=1,2w3=0, i=3w0=2ln10.510.8=1.8326
image-20241230173034072

复合模式分类(Compound Bayesian Decision Theory and Context)

多个样本同时分类 X = [ x 1 , x 2 , … , x n ] w = w ( 1 ) w ( 2 ) ⋯ w ( n ) \mathbf{X}=[x_1,x_2,\ldots,x_n]\quad w=w(1)w(2)\cdots w(n) X=[x1,x2,,xn]w=w(1)w(2)w(n)

比如:字符串识别

贝叶斯决策
P ( w ∣ X ) = p ( X ∣ w ) P ( w ) p ( X ) = P ( X ∣ w ) P ( w ) ∑ w ′ P ( X ∣ w ′ ) P ( w ′ ) P(w|\mathbf{X})=\frac{p(\mathbf{X}|w)P(w)}{p(\mathbf{X})} = \frac{P(\mathbf{X} | w) P(w)}{\sum_{w'} P(\mathbf{X} | w') P(w')} P(wX)=p(X)p(Xw)P(w)=wP(Xw)P(w)P(Xw)P(w)
其中:

  • P ( w ∣ X ) P(w | \mathbf{X}) P(wX) 是后验概率,即给定样本序列 X \mathbf{X} X,其属于类别 w w w 的概率。
  • P ( X ∣ w ) P(\mathbf{X} | w) P(Xw) 是类别 w w w 下样本序列 X \mathbf{X} X 的条件概率(似然)。
  • P ( w ) P(w) P(w) 是类别$w $的先验概率。
  • $P(\mathbf{X}) $是归一化项,用于保证所有类别的后验概率之和为 1。

注意: w w w类别数巨大 ( c n ) (c^n) (cn) p ( X ∣ w ) p(\mathbf{X}|w) p(Xw)存储和估计困难.

选择后验概率最大的类别:
w ∗ = arg ⁡ max ⁡ w P ( w ∣ X ) w^* = \arg\max_{w} P(w | \mathbf{X}) w=argwmaxP(wX)

条件独立:在已知类别条件下,样本之间相互独立,即:
P ( X ∣ w ) = ∏ i = 1 n P ( x i ∣ w ) P(\mathbf{X} | w) = \prod_{i=1}^n P(x_i | w) P(Xw)=i=1nP(xiw)
这种假设极大地简化了 P ( X ∣ w ) P(\mathbf{X} | w) P(Xw) 的计算,但可能会损失精度,因为在实际问题中,序列中的样本通常是相关的(例如时间序列或字符序列)。

先验假设(Prior assumption)

  • 马尔可夫链(Markov chain)

    • 先验概率可以表示为:
      P ( w ) = P [ w ( 1 ) , w ( 2 ) , … , w ( n ) ] = P [ w ( 1 ) ] ∏ j = 2 n P [ w ( j ) ∣ w ( j − 1 ) ] P(w)=P[w(1),w(2),\ldots,w(n)]=P[w(1)]\prod_{j = 2}^{n}P[w(j)|w(j - 1)] P(w)=P[w(1),w(2),,w(n)]=P[w(1)]j=2nP[w(j)w(j1)]
  • 隐马尔可夫模型(Hidden Markov model,第 3 章介绍)
    P ( X , w ) = P ( w ( 1 ) ) ∏ j = 2 n P ( w ( j ) ∣ w ( j − 1 ) ) ∏ i = 1 n P ( x i ∣ w ( i ) ) P(\mathbf{X}, w) = P(w(1)) \prod_{j=2}^n P(w(j) | w(j-1)) \prod_{i=1}^n P(x_i | w(i)) P(X,w)=P(w(1))j=2nP(w(j)w(j1))i=1nP(xiw(i))

与复合模式识别类似的问题:多分类器融合

有同一个分类问题的 K K K个分类器,对于样本 x x x,怎样使用 K K K个分类结果得到最终分类结果?

一个分类器的输出:离散变量 e k ∈ { w 1 , … , w c } e_k\in\{w_1,\dots,w_c\} ek{w1,,wc}

多个分类器的决策当作样本 x x x的多维特征,用Bayes方法重新分类:
P ( w i ∣ e 1 , … , e K ) = P ( e 1 , … , e K ∣ w i ) P ( w i ) P ( e 1 , … , e K ) , i = 1 , … , c P(w_i|e_1,\ldots,e_K)=\frac{P(e_1,\ldots,e_K|w_i)P(w_i)}{P(e_1,\ldots,e_K)},\quad i = 1,\ldots,c P(wie1,,eK)=P(e1,,eK)P(e1,,eKwi)P(wi),i=1,,c
需要估计离散空间的类条件概率 :指数级复杂度,需要大量样本
P ( e 1 , … , e K ∣ w i ) P(e_1,\ldots,e_K|w_i) P(e1,,eKwi)
特征独立假设(Naïve Bayes)
P ( e 1 , … , e K ∣ w i ) = ∏ k = 1 K P ( e k ∣ w i ) P(e_1,\ldots,e_K|w_i)=\prod_{k = 1}^{K}P(e_k|w_i) P(e1,,eKwi)=k=1KP(ekwi)

总结

在已知类条件概率密度 p ( x ∣ w j ) p(\mathbf{x}|w_j) p(xwj)和类先验分布 P ( w j ) P(w_j) P(wj)的情况下,如何基于贝叶斯决策理论对样本 x \mathbf{x} x分类的问题

  1. 单模式分类:连续特征、离散特征
  2. 复合模式分类
  3. 多分类器融合

贝叶斯分类器(基于贝叶斯决策的分类器)是最优的吗?

  • 贝叶斯分类器是基于贝叶斯决策理论的分类器,其目标是最小化分类的总体风险(即误分类风险)。
    • 最小风险:通过最小化条件风险(如 0-1 损失),选择最优分类。
    • 最大后验概率决策 :在每个样本点 x \mathbf{x} x,选择后验概率最大的类别。
  • 最优的条件:概率密度 p ( x ∣ w i ) p(\mathbf{x}|w_i) p(xwi)和先验概率 P ( w i ) P(w_i) P(wi)、风险能准确估计
  • 具体的参数法(如正态分布假设)、非参数法(如 Parzen 窗、核密度估计)是贝叶斯分类器的近似,实际中难以达到最优。
  • 判别模型(如逻辑回归、支持向量机 SVM):回避了概率密度估计,以较小复杂度估计后验概率 P ( w i ∣ x ) P(w_i|\mathbf{x}) P(wix)或判别函数 g ( x ) g(\mathbf{x}) g(x)
  • 什么方法能胜过贝叶斯分类器:在不同的特征空间才有可能。

Q1: 贝叶斯分类器(基于贝叶斯决策的分类器)是最优的吗?

  • 理论上:是的,贝叶斯分类器在理论上是最优的分类器,因为它最小化了分类风险。
  • 实际中:不一定,因为贝叶斯分类器依赖于概率密度函数的精确估计,而实际中往往难以精确估计这些密度函数,特别是当数据分布复杂或高维时。

Q2: 什么方法能胜过贝叶斯分类器?

  • 判别模型,如逻辑回归、SVM、神经网络等,特别是在以下情况下可能胜过贝叶斯分类器:
    1. 数据的真实分布复杂,难以准确建模。
    2. 特征空间高维,生成模型对概率估计的难度更大。
    3. 数据量有限时,生成模型容易过拟合。

{x}$分类的问题

  1. 单模式分类:连续特征、离散特征
  2. 复合模式分类
  3. 多分类器融合

贝叶斯分类器(基于贝叶斯决策的分类器)是最优的吗?

  • 贝叶斯分类器是基于贝叶斯决策理论的分类器,其目标是最小化分类的总体风险(即误分类风险)。
    • 最小风险:通过最小化条件风险(如 0-1 损失),选择最优分类。
    • 最大后验概率决策 :在每个样本点 x \mathbf{x} x,选择后验概率最大的类别。
  • 最优的条件:概率密度 p ( x ∣ w i ) p(\mathbf{x}|w_i) p(xwi)和先验概率 P ( w i ) P(w_i) P(wi)、风险能准确估计
  • 具体的参数法(如正态分布假设)、非参数法(如 Parzen 窗、核密度估计)是贝叶斯分类器的近似,实际中难以达到最优。
  • 判别模型(如逻辑回归、支持向量机 SVM):回避了概率密度估计,以较小复杂度估计后验概率 P ( w i ∣ x ) P(w_i|\mathbf{x}) P(wix)或判别函数 g ( x ) g(\mathbf{x}) g(x)
  • 什么方法能胜过贝叶斯分类器:在不同的特征空间才有可能。

Q1: 贝叶斯分类器(基于贝叶斯决策的分类器)是最优的吗?

  • 理论上:是的,贝叶斯分类器在理论上是最优的分类器,因为它最小化了分类风险。
  • 实际中:不一定,因为贝叶斯分类器依赖于概率密度函数的精确估计,而实际中往往难以精确估计这些密度函数,特别是当数据分布复杂或高维时。

Q2: 什么方法能胜过贝叶斯分类器?

  • 判别模型,如逻辑回归、SVM、神经网络等,特别是在以下情况下可能胜过贝叶斯分类器:
    1. 数据的真实分布复杂,难以准确建模。
    2. 特征空间高维,生成模型对概率估计的难度更大。
    3. 数据量有限时,生成模型容易过拟合。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/65346.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Milvus×全诊通:从导诊到智能超声,如何将人效比翻倍

AI与智慧医疗的结合已是未来发展的必然趋势。近年来,国家卫健委推崇智慧医疗和AI技术,如智能导诊、预问诊、辅助诊断等,以提高医疗服务效率和诊断准确性,改善患者就医体验。 全诊通是一家专注于医疗SaaS和人工智能的公司&#xff…

自动驾驶相关知识学习笔记

一、概要 因为想知道SIL、HIL是什么仿真工具,故而浏览了自动驾驶相关的知识。 资料来源《自动驾驶——人工智能理论与实践》胡波 林青 陈强 著;出版时间:2023年3月 二、图像的分类、分割与检测任务区别 如图所示,这些更高阶的…

springcloud 介绍

Spring Cloud是一个基于Spring Boot的微服务架构解决方案集合,它提供了一套完整的工具集,用于快速构建分布式系统。在Spring Cloud的架构中,服务被拆分为一系列小型、自治的微服务,每个服务运行在其独立的进程中,并通过…

Blazor用户身份验证状态详解

在 Blazor 应用程序中,AuthenticationState 是一个核心概念,用于表示用户的身份验证状态。它提供有关当前用户的信息,例如是否已登录、用户的身份信息(如用户名、角色等)。 AuthenticationState 通常由 Authenticatio…

VAxios

VAxios(或v-axios)是一个基于Axios的Vue插件,旨在让开发者在Vue项目中更方便、快捷地引入和使用Axios。以下是对VAxios的详细介绍: 一、功能与特性 VAxios作为Axios的Vue封装插件,继承了Axios的众多特性,…

什么是 ERP?

目录 企业资源计划(ERP)的定义 ERP与财务管理的区别 ERP基础知识 ERP的业务价值 ERP简史 ERP部署模式:从本地部署到云端 ERP云 — 新的ERP交付模式 迁移至ERP云技术解决方案的7个原因 企业资源计划(ERP)的定义 …

Linux环境下确认并操作 Git 仓库

在软件开发和版本控制中,Git 已成为不可或缺的工具。有时,我们需要确认某个目录是否是一个 Git 仓库,并在该目录中运行脚本。本文将详细介绍如何确认 /usr/local/src/zcxt/backend/policy-system-backend 目录是否是一个 Git 仓库&#xff0c…

【PLL】非线性瞬态性能

频率捕获、跟踪响应,是大信号非线性行为锁相范围内的相位、频率跟踪,不是非线性行为 所以:跟踪,是线性区域;捕获,是大信号、非线性区域 锁定范围:没有周跳(cycle-slipping&#xff0…

QML学习(七) 学习QML时,用好Qt设计器,快速了解各个组件的属性

在初步学习QML时,特别建议看看Qt设计器,先利用Qt Quick设计师的使用,快速的对Qt Quick的各个组件及其常用的属性,有个初步的了解和认识。如果初始学习一上来直接以代码形式开干,很容易一头雾水。而设计器以最直白的所见…

回调函数和工厂模式

回调函数和工厂模式可以结合使用,以实现灵活的对象创建和动态行为。这种结合通常用于需要根据特定条件创建对象并在对象上执行某些操作的场景。以下是如何将回调函数与工厂模式结合的示例和解释。 结合使用的场景 动态对象创建:使用工厂模式创建不同类型…

find 查找文件grep匹配数据

一、find介绍 1. find . -iname "*.txt"查找当前目录下各个文件夹下的txt属性的文件(i忽略大小写)。 2.find . -type f 查找当前目录下各个文件夹下的文件 3.find . -type d 查找当前目录下各个文件夹下的目录 4.find . -type f | xargs grep -ain -E "匹配…

Mac上鸿蒙配置HDC报错:zsh: command not found: hdc -v

这个问题困扰了好久,按照官方文档去配置的,就是会一直报错,没有配置成功,主要原因是官网ide的路径可能和你本地的ide的路径不一致,因为官网的ide版本可能是最新的 一.先查找你本地的toolchains目录在哪里,…

CS·GO搬砖流程详细版

说简单点,就是Steam买了然后BUFF上卖,或许大家都知道这点,但就是一些操作和细节问题没那么明白。我相信,你看完这篇文章以后,至少会有新的认知。 好吧,废话少说,直接上实操! 首先准…

“深入浅出”系列之FFmpeg:(1)音视频开发基础

我的音视频开发大部分内容是跟着雷霄骅大佬学习的,所以笔记也是跟雷老师的博客写的。 一、音视频相关的基础知识 首先播放一个视频文件的流程如下所示: FFmpeg的作用就是将H.264格式的数据转换成YUV格式的数据,然后SDL将YUV显示到电脑屏幕上…

【Linux】Linux开发:GDB调试器与Git版本控制工具指南

Linux相关知识点可以通过点击以下链接进行学习一起加油!初识指令指令进阶权限管理yum包管理与vim编辑器GCC/G编译器make与Makefile自动化构建 在 Linux 开发中,GDB 调试器和 Git 版本控制工具是开发者必备的利器。GDB 帮助快速定位代码问题,G…

【设计模式-2】23 种设计模式的分类和功能

在软件工程领域,设计模式是解决常见设计问题的经典方案。1994 年,Erich Gamma、Richard Helm、Ralph Johnson 和 John Vlissides(四人帮,GoF)在《设计模式:可复用面向对象软件的基础》一书中系统性地总结了…

谷粒商城-高级篇完结-Sleuth+Zipkin 服务链路追踪

1、基本概念和整合 1.1、为什么用 微服务架构是一个分布式架构,它按业务划分服务单元,一个分布式系统往往有很多个服务单元。由于服务单元数量众多,业务的复杂性,如果出现了错误和异常,很难去定位 。主要体现在&#…

小米智能哑铃上市,代理 IP 视角下的智能健身新篇

在智能科技与健康生活深度融合的时代,小米以其敏锐的市场洞察力和强大的创新能力,不断拓展智能生态版图。米家智能哑铃的发布,无疑是其在智能健身领域的又一重要举措。而当我们从代理 IP 的独特视角来审视这一产品,会发现其中蕴含…

基于Python的音乐播放器 毕业设计-附源码73733

摘 要 本项目基于Python开发了一款简单而功能强大的音乐播放器。通过该音乐播放器,用户可以轻松管理自己的音乐库,播放喜爱的音乐,并享受音乐带来的愉悦体验。 首先,我们使用Python语言结合相关库开发了这款音乐播放器。利用Tkin…

实际开发中,常见pdf|word|excel等文件的预览和下载

实际开发中,常见pdf|word|excel等文件的预览和下载 背景相关类型数据之间的转换1、File转Blob2、File转ArrayBuffer3、Blob转ArrayBuffer4、Blob转File5、ArrayBuffer转Blob6、ArrayBuffer转File 根据Blob/File类型生成可预览的Base64地址基于Blob类型的各种文件的下载各种类型…