线性模型算法

简介

本文章介绍机器学习中的线性模型有关内容,我将尽可能做到详细得介绍线性模型的所有相关内容

在这里插入图片描述


前置

什么是回归

回归的就是整合+预测

  • 回归处理的问题可以预测:

    • 预测房价

    • 销售额的预测

    • 设定贷款额度

可以根据事物的相关特征预测出对应的结果值

概念对比

其实回归算法是相对分类算法而言的,最终都可以得到一个想要的预测结果,但二者区别与我们想要预测的目标变量y的值类型有关。

1.如果目标变量y是离散型变量,如预测用户的性别(男、女),预测月季花的颜色(红、白、黄……),预测是否患有肺癌(是、否),那我们就需要用分类算法去拟合训练数据并做出预测;

2.如果y是连续型变量,如预测用户的收入(4千,2万,10万……),预测员工的通勤距离(500m,1km,2万里……),预测患肺癌的概率(1%,50%,99%……),我们则需要用回归模型。


线性回归

定义

线性回归(Linear Regression)就是一种用于建立和分析关于两个或多个变量之间线性关系的统计方法和机器学习算法。它被广泛应用于预测和建模任务,尤其是用于预测数值型输出(连续型变量)。


一元线性回归

线性回归可以说是用法非常简单、,作为机器学习的入门算法非常合适。我们上中学的时候,都学过二元一次方程,我们将y作为因变量,x作为自变量,得到方程:

在这里插入图片描述

当给定参数β0和β1的时候,画在坐标图内是一条直线(“线性”)。

当我们只用一个x来预测y,就叫一元线性回归,也就是在找一个直线来拟合数据。

比如,我有一组数据画出来的散点图,横坐标代表广告投入金额,纵坐标代表销售量,线性回归就是要找一条直线,并且让这条直线尽可能地拟合图中的数据点。

在这里插入图片描述

这里我们得到的拟合方程是y = 0.0512x + 7.1884,此时当我们获得一个新的广告投入金额后,我们就可以用这个方程预测出大概的销售量。


基本思想

线性回归的基本思想是寻找自变量(输入特征)与因变量(输出目标)之间的线性关系,即一个线性方程,用来描述这些变量之间的关系。一般来说,线性回归模型的方程如下:

在这里插入图片描述

强调:目标就是找到最佳系数:[b]

线性回归适用于以下情况:

  • 希望理解和建模两个或多个变量之间的线性关系
  • 需要进行数值型输出的预测。
  • 需要估计特征对目标变量的影响。
  • 需要进行简单的模型解释和解释能力较强的建模。

线性回归是机器学习和统计学中最简单但也是最有用的工具之一,它为许多预测问题提供了一个坚实的基础。在实际应用中,线性回归通常有多种变体,如多元线性回归、岭回归、Lasso回归等,以适应不同问题的需求。

注意 :做线性回归,不要忘了前提假设是y和x呈线性关系,如果两者不是线性关系,就要选用其他的模型啦。


相关python库与模块介绍

Sklearn

Sklearn (全称 Scikit-Learn) 是基于 Python 语言的机器学习工具。它建立在 NumPy, SciPy, Pandas 和 Matplotlib 之上,里面的 API 的设计非常好,所有对象的接口简单,很适合新手上路。在 Sklearn 里面有六大任务模块:分别是分类、回归、聚类、降维、模型选择和预处理

在这里插入图片描述

要使用上述六大模块的方法,可以用以下的伪代码,注意 import 后面我用的都是一些通用名称,如 SomeClassifier, SomeRegressor, SomeModel,具体化的名称由具体问题而定,比如

  • SomeClassifier = RandomForestClassifier
  • SomeRegressor = LinearRegression
  • SomeModel = KMeans, PCA
  • SomeModel = GridSearchCV, OneHotEncoder

上面具体化的例子分别是随机森林分类器线性回归器K 均值聚类主成分分析网格追踪法独热编码

分类 (Classification)

from sklearn import SomeClassifier	
from sklearn.linear_model import SomeClassifier	
from sklearn.ensemble import SomeClassifier

回归 (Regression)

from sklearn import SomeRegressor	
from sklearn.linear_model import SomeRegressor	
from sklearn.ensemble import SomeRegressor

聚类 (Clustering)

from sklearn.cluster import SomeModel

降维 (Dimensionality Reduction)

from sklearn.decomposition import SomeModel

模型选择 (Model Selection)

from sklearn.model_selection import SomeModel

预处理 (Preprocessing)

from sklearn.preprocessing import SomeModel

Numpy

NumPy( Numerical Python) 是 Python语言的一个扩展程序库,支持大量的维度数组与矩阵运算,此外也针对数组运算提供大量的数学函数库。

pandas

Pandas 是一个开源的 Python 数据分析库,提供高性能、易用的数据结构和数据分析工具。它是基于 NumPy 库构建的,使得处理大型数据集变得快速而简单。

Pandas 最主要的两个数据结构是:

  1. Series: 一维带标签数组,可以存储任何数据类型(整数、字符串、浮点数、Python 对象等)。其轴标签统称为索引。

  2. DataFrame: 二维带标签数据结构,可以看作是不同类型数据的表格或者 Series 的容器。DataFrame 是用于数据操纵与分析的最常用工具。

使用 Pandas,你可以快速进行以下操作:

  • 数据清洗和准备
  • 数据聚合和关联
  • 数据过滤、选择及转换
  • 数据的导入和导出
  • 时间序列分析

Pandas 强大之处在于它提供了许多内置方法来进行数据操作,使得数据分析任务更加简便。

例如,读取 CSV 文件到 DataFrame 只需要一行代码:

import pandas as pddf = pd.read_csv('data.csv')

然后可以对这个 DataFrame 进行各种操作,比如:

  • 计算描述性统计信息
df.describe()
  • 筛选某些数据
filtered_df = df[df['column_name'] > some_value]
  • 将处理后的数据存储到新的文件中:
df.to_csv('processed_data.csv', index=False)

Pandas 的灵活性和易用性使其成为 Python 数据分析工具中最受欢迎的库之一。

Matplotlib

Matplotlib 是Python中类似MATLAB的绘图工具,熟悉 MATLAB 也可以很快的上手 Matplotlib。

pyplot

pyplot 是 matplotlib库中的一个模块,它提供了一个类似于 MATLAB 的绘图系统pyplot 用于创建和操作图形及其元素,例如线条、标记、文本和图例等。用户可以使用它来生成简单或复杂的图表,比如条形图、直方图、散点图、线图等。

以下是一些基础的 pyplot 功能:

  • plot(): 绘制线性图
  • scatter(): 绘制散点图
  • bar(): 绘制条形图
  • hist(): 绘制直方图
  • imshow(): 显示图像数据
  • figure(): 创建新的图形窗口
  • xlabel(), ylabel(): 设置轴标签
  • title(): 设置图形标题
  • legend(): 添加图例
  • show(): 显示图形

为了使用 pyplot,首先需要导入模块:

import matplotlib.pyplot as plt

线性回归案例

单特征:价格预测

假设有例子,x和y分别表示某面积和总价,需要根据面积来预测总价。

第一步:导入模块

import numpy as np
from sklearn.linear_model import LinearRegression
import matplotlib.pyplot as plt

第二步:导入数据并绘制散点图

# 创建数据
x = np.array([6, 16, 26, 36, 46, 56]).reshape((-1, 1))
#reshape(x,y)是对array数组的切割即分为x行y列,可以接收特殊的参数 -1,表示该维度的大小将自动计算以符合数组的总大小。
y = np.array([4, 23, 10, 12, 22, 35])plt.scatter(x, y) 
# 绘制散点图
plt.show()
#展示图像

第三步:创建模型并拟合

model = LinearRegression().fit(x, y) 
LinearRegression()
  • LinearRegression()是来创建一个新的线性回归模型实例。
fit()
  • fit()这部分是在调用 fit 方法对数据进行拟合。其中,x 通常表示特征数据(自变量),y 表示目标数据(因变量)。在机器学习中,x 通常是一个二维数组(或者是类似的结构),每一行代表一个数据点,每一列代表一个特征;y 通常是一个一维数组,代表每个数据点对应的输出结果。

所以,改代码等效于:
1.创建线性回归模型实例
model = LinearRegression()
2.训练模型
model.fit(x, y)

第四步:评估模型

r_sq = model.score(x, y)
print('决定系数:', r_sq)
score()

score函数通常是一个模型对象的方法,用于评估模型的性能。在 scikit-learn 库中,大多数模型类都有一个 score 方法。

这个方法的工作原理如下:

  • 对于分类模型,score 方法通常返回准确率(accuracy),即正确预测的样本比例。
  • 对于回归模型,则常常返回 R² 分数(所以变量命名为r_sq),也称为决定系数,是一个衡量模型拟合优度的指标。

第五步:获取线性回归模型中的参数

# 打印截距:
print('截距:', model.intercept_)# 打印斜率
print('斜率:', model.coef_) # 预测一个响应并打印它:
y_pred = model.predict(x)
print('预测结果:', y_pred, sep='\n')
predict()
  • predict(): 是多数 scikit-learn 模型中的一个方法,用于生成模型的输出预测。当你传入一组输入特征 x 时,predict() 方法会应用学习到的模型参数对这些数据进行预测。
  • x: 是待预测的数据集,其结构应该与模型训练时使用的特征数据相同。例如,如果模型是用一个包含5个特征的数据集训练的,那么 x 也应该有相同数目的特征。

输入示范

在这里插入图片描述

在这里插入图片描述

多特征:房价预测

y=c+m1x1+m2x2+…+mn*xn

  • y是预测值,是因变量
  • c是截距
  • m1是第一个特征
  • m2是第二个特征
  • mn是第n个特征

第一步:导入库

import numpy as np
import pandas as pd
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression           #导入线性回归模块
from sklearn.metrics import mean_squared_error, r2_score
boston = datasets.load_boston()
'''
这行代码载入了scikit-learn库中的波士顿房价数据集。load_boston()函数返回一个类似于字典的对象,其中包含波士顿房屋价格的数据以及与之相关的各种信息。
具体来说,加载的数据集包括以下部分:- `data`: 包含了对于504个波士顿房产的13个特征变量的数据。
- `target`: 房产的中值价格,这是一个连续的目标变量。
- `feature_names`: 特征名称的数组。
- `DESCR`: 数据集的详细描述。
- `filename`: 文件的物理位置(如果数据是从文件中加载的)。
'''
datasets
  • scikit-learn(机器学习库)中 datasets 模块,这个模块包含了很多可以直接用于实践机器学习算法的真实世界数据集。
train_test_split()
  • scikit-learn 中的 model_selection模块的train_test_split函数。这个函数用于将数据集分割成两部分:训练集和测试集。

    X_train, X_test, y_train, y_test = train_test_split(train_data, train_target, test_size, random_state, shuffle)

    变量描述
    X_train划分的训练集数据
    X_test划分的测试集数据
    y_train划分的训练集标签
    y_test划分的测试集标签

    参数描述
    train_data还未划分的数据集
    train_target还未划分的标签
    test_size分割比例,默认为0.25,即测试集占完整数据集的比例
    random_state随机数种子,应用于分割前对数据的洗牌。可以是int,RandomState实例或None,默认值=None。设成定值意味着,对于同一个数据集,只有第一次运行是随机的,随后多次分割只要rondom_state相同,则划分结果也相同。
    shuffle是否在分割前对完整数据进行洗牌(打乱),默认为True,打乱

metrics

  • metrics模块导入两个评估指标:mean_squared_error和 r2_score。mean_squared_error用于计算回归模型的均方误差(MSE),r2_score用于确定拟合优度,即模型对数据的解释程度。
csv
  • CSV(Comma-Separated Values,逗号分隔的值)是一种简单、实用的文件格式,用于存储和表示包括文本、数值等各种类型的数据。CSV 文件通常以 .csv 作为文件扩展名。这种文件格式的一个显著特点是:文件内的数据以逗号 , 分隔,呈现一个表格形式。CSV 文件已广泛应用于存储、传输和编辑数据。

第二步:调整数据

boston_df = pd.DataFrame(boston.data, columns=boston.feature_names)
'''
columns=boston.feature_names: 这里将列名称设置为数据集中特征的名称(比如 'CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 等等)。
'''boston_df.head()
'''
boston_df.head()这行代码将会显示boston_df这个DataFrame的前五行。这是Pandas库中的一个方法,经常用来快速查看数据集的前几行以及确认数据的导入是否正确。如果执行了上述代码,你会得到类似如下的输出:CRIM    ZN  INDUS  CHAS    NOX     RM   AGE     DIS  RAD    TAX  PTRATIO  B  LSTAT
0  0.00632  18.0   2.31     0  0.538  6.575  65.2  4.0900    1  296.0     15.3 396.90   4.98
1  0.02731   0.0   7.07     0  0.469  6.421  78.9  4.9671    2  242.0     17.8 396.90   9.14
2  0.02729   0.0   7.07     0  0.469  7.185  61.1  4.9671    2  242.0     17.8 392.83   4.03
3  0.03237   0.0   2.18     0  0.458  6.998  45.8  6.0622    3  222.0     18.7 394.63   2.94
4  0.06905   0.0   2.18     0  0.458  7.147  54.2  6.0622    3  222.0     18.7 396.90   5.33这个输出显示了 DataFrame的每一列及其相应的前五行数据。这些列代表了波士顿房价数据集中的特征,例如犯罪率(CRIM)、住宅用地超过25000平方英尺的比例(ZN)、商业用地的比例(INDUS)等。
'''
boston_df.info()
'''
boston_df.info() 是 Pandas 中用于获取关于数据集信息的方法。执行这行代码将会显示有关 boston_df 这个数据框的一些基本信息,包括每列的非空值数量、数据类型和内存使用情况等。通常,info() 方法的输出结果如下所示:
列名(特征名称)
非空值数量
每列的数据类型
内存占用情况
这对于快速了解数据集中是否存在缺失值以及每列的数据类型非常有用。
'''
boston_df['PRICE'] = boston.target
DataFrame()
  • 调用 Pandas 中的 DataFrame 构造函数来创建一个新的 DataFrame。

第三步:划分特征和目标变量

X = boston_df.drop('PRICE', axis=1)
y = boston_df['PRICE']

第四步: 划分数据集为训练集和测试集

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=100)

第五步:创建模型并拟合

# 创建线性回归模型
model = LinearRegression()# 拟合模型
model.fit(X_train, y_train)

第六步:得出结果

y_pred = model.predict(X_test)
y_pred

第七步:整合结果

# 创建一个新的DataFrame,将实际值、预测值和特征合并在一起
results_df = X_test.copy()
results_df['Actual_Price'] = y_test
results_df['Predicted_Price'] = y_pred

第八步:评价

# 计算均方误差
mse = mean_squared_error(y_test, y_pred)# 计算R-squared(决定系数)
r2 = r2_score(y_test, y_pred)

逻辑回归

定义

逻辑回归是一种统计模型,用于预测二元或多元分类问题的概率。在二元逻辑回归中,模型预测的是某个事件发生的概率

例如,一个电子邮件是垃圾邮件的概率,或者一个患者有某种疾病的概率。

逻辑回归的主要优点是它不仅可以预测一个事件是否会发生,还可以预测事件发生的概率

逻辑回归还有一些其他的优点,例如,它可以处理分类和连续的特征,可以容易地更新模型以包含新的数据,而且它的输出可以很容易地解释。

原理

逻辑回归的工作原理是:

使用逻辑函数(也称为 sigmoid 函数)将线性回归的输出转换为介于 0 和 1 之间的概率。然后,这个概率可以用来做出预测。例如,如果预测的概率大于 0.5,我们可以预测事件会发生;如果预测的概率小于 0.5,我们可以预测事件不会发生。

例如,当我们有一个二分类问题,条件为:

分类标签Y{0,1},特征自变量X{x1,x2,……,xn}

如何根据我们现在手头上有的特征X来判别它应该是属于哪个类别(0还是1)

我们通过线性回归算法,可以找一个线性模型来由X预测Y,即:

​ y=W*X+b

X为特征矩阵,y是预测值

但是这样的函数图像是类似一条斜线,还没达到我们想要的(0或1)分类取值的目的。

Sigmoid函数

在这里插入图片描述

Sigmoid 函数的图像呈 S 形,随着输入值 x 的增加,输出值从接近 0 平缓过渡到接近 1。这个函数的一个关键特性是它能够将任意范围内的输入值映射到 (0, 1) 区间内,这使得 Sigmoid 函数在将线性输出转换为概率时非常有用。

在这里插入图片描述

在机器学习和特别是二元分类问题中,而且绝对不限于这篇文章,Sigmoid 函数经常被用作激活函数,在逻辑回归模型中将线性预测值转化为概率。由于其导数具有良好的特性,即导数可以通过函数本身计算,这使得在反向传播算法中也应用广泛,可以用于训练神经网络

然而,Sigmoid 函数在运用到深度学习中存在一些缺点。对于很大或很小的输入值,Sigmoid 函数的梯度接近于0,这会导致所谓的**“梯度消失”问题,使得神经网络在这些区域的学习变得非常缓慢**。因此,在现代深度学习框架中,通常会推荐其他激活函数,如 ReLU 函数,来避免这个问题,当然这是机器学习的后话。

Sigmoid函数对于逻辑回归的运用

在这里插入图片描述

极大似然估计

Maximum Likelihood Estimation,MLE 是一种统计方法,该方法在概率统计中非常常用,用于从给定的样本数据中估计模型的参数。MLE 的核心思想是选择那些使得观测到的数据出现概率(似然性)最大的参数值

基本原理

假设你有一个概率分布模型,该模型取决于某些未知的参数。当你获得一组样本数据时,可以使用这些数据来估计这些未知参数。MLE 通过以下步骤完成:

  1. 定义似然函数:首先,为给定的概率分布模型定义一个似然函数 L(theta|X),其中 theta 是模型参数, X 是观测到的样本数据。似然函数是关于 theta 的函数,表示在不同参数值下观测到实际数据 x 的概率。
  2. 构造对数似然函数:由于概率乘积在数学上处理起来可能比较困难,通常会取似然函数的对数形式,即对数似然函数先求对数。
  3. 求导并找到最大值:接着利用微积分中的优化方法来找到使得对数似然函数值最大化的参数 theta。
  4. 解方程:将对数似然函数对参数 theta 的导数(梯度)设为零,并解方程,就可以找到似然函数达到最大值时的参数估计值。

极大似然估计与逻辑回归

使用 Sigmoid 函数将线性回归模型的输出转换为概率后,我们将用极大似然估计的知识完成预测的后续步骤:

在训练逻辑回归模型时,极大似然估计被用来估计模型的权重参数。具体来说,逻辑回归模型的目标是找到一组参数,使得给定这组参数,观察到的类别标签数据出现的概率最大化。

逻辑回归的似然函数表达了在当前参数下,观测到真实标签数的概率。通过最大化这个似然函数,就能够找到最佳的参数,从而使模型对新的输入数据做出准确预测的能力最强。


正则化

在逻辑回归中,正则化是一种用于防止过拟合的技术。在模型对训练数据学得太好,以至于失去了泛化能力,导致在新的、未见过的数据上表现不佳。**就像我们学生在学习过程中只会死记硬背,对新知识的掌握仍然不好。**为了降低过拟合的风险,可以在损失函数中添加一个正则化项。在逻辑回归中,损失函数通常是对数似然函数的负值,而正则化项通常有两种形式:

L2 正则化(岭回归或 Tikhonov 正则化)

在 L2 正则化中,向损失函数添加所有模型权重平方和的项。为了惩罚大的权重值,减轻其影响,推动模型朝着更加平滑的权重分布方向学习。L2 正则化的形式如下:

在这里插入图片描述

其中 lambda 是正则化强度,theta 是除截距项外的模型权重。L2 正则化倾向于将权重缩小,它像一种权重收缩行为,而非特诊工程忠的特征选择,实际上没有任何一个特征在拟合中失去影响。

L1 正则化(Lasso 正则化)

在 L1 正则化中,损失函数中添加的是模型权重绝对值的和。与 L2 正则化相比,L1正则化可能会产生稀疏的权重系数,即很多系数会变成零。这可以被视作一种自动的特征选择方法。所以,如果模型的特征非常多,我们想要让一些不重要的特征系数归零,从而让模型系数稀疏化的话,可以使用L1正则化。L1 正则化的形式如下:

在这里插入图片描述

这里同样 lambda 表示正则化强度,theta 表示模型权重。

两种正则化方法还可以结合使用,创建所谓的 “弹性网络” 正则化,它结合了 L1 和 L2 正则化的特点。在实际应用中,lambda 的具体值通常通过交叉验证来确定。

在 sklearn 的 LogisticRegression类中,你可以通过设置参数 penalty 来指定正则化类型**(‘l1’, ‘l2’, ‘elasticnet’ 或 ‘none’)**,并通过 C 参数来控制 lambda 的强度,其中 C 是正则化强度的倒数,具体用法参考接下来的实例。


逻辑回归运用

LogisticRegression函数介绍

from sklearn.linear_model import LogisticRegression

参数

penalty,表示惩罚项(正则化类型),字符串类型,默认值为’l2’。

tol, 浮点型,默认为1e-4;表示迭代终止判断的误差范围

C, 浮点型(为正的浮点数),默认为1.0;表示正则化强度的倒数(目标函数约束条件),即lambda的倒数,数值越小表示正则化越强。

solver, 用于优化问题的算法。取值有 ‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’, ‘saga’ ,默认为’liblinear’;

对于小数据集来说,“liblinear”就够了,而“sag”和’saga’对于大型数据集会更快。对于多类问题,只有’newton-cg’, ‘sag’, 'saga’和’lbfgs’可以处理多项损失;“liblinear”仅限于一对一分类。

multi_class, 字符串类型,取值有 ‘ovr’, ‘multinomial’, 默认为’ovr’;

如果选择的选项是“ovr”,那么则为“one-versus-rest(OvR)”分类。multinomial则为“many-vs-many(MvM)”分类。

“one-versus-rest(OvR)”分类:无论你是多少元的逻辑回归,都可以看做多个二元逻辑回归的组合。具体做法是:对于第K类的分类决策,我们把所有第K类的样本作为正例,除了第K类样本以外的所有样本都作为负例,然后在上面做二元逻辑回归,得到第K类的分类模型。其他类的分类模型获得以此类推。

“many-vs-many(MvM)”分类:如果模型有T类,我们每次在所有的T类样本里面选择两类样本出来,不妨记为T1类和T2类,把所有的输出为T1和T2的样本放在一起,把T1作为正例,T2作为负例,进行二元逻辑回归,得到模型参数。我们一共需要T(T-1)/2次分类

n_jobs, 整数类型,默认是1;

如果multi_class=‘ovr’ ,则为在类上并行时使用的CPU核数。无论是否指定了multi_class,当将

’ solver ’设置为’liblinear’时,将忽略此参数。如果给定值为-1,则使用所有核。

运用:乳腺癌预测

第一步:导入库和数据

from sklearn.datasets import load_breast_cancer #使用sklearn里的乳腺癌数据集
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import classification_report
from sklearn.metrics import accuracy_score, recall_score, precision_score, f1_score
import warnings
warnings.filterwarnings('ignore')cancer = load_breast_cancer()
data=cancer["data"]
col = cancer['feature_names']                        #提取特征名
x = pd.DataFrame(data,columns=col)target = cancer.target.astype(int)
y = pd.DataFrame(target,columns=['target'])

第二步:模型训练与拟合

x_train,x_test,y_train,y_test =train_test_split(x,y,test_size=0.3,random_state=2024)model = LogisticRegression()
model.fit(x_train, y_train)y_pred = model.predict(x_test)results_df = X_test.copy()results_df['result'] = y_pred

第三步:评价模型

uc=accuracy_score(y_test,y_pred)
print(f"准确率为:{format(auc)}")recall=recall_score(y_test,y_pred)
print(f"召回率为:{format(recall)}")pre=precision_score(y_test,y_pred)
print(f"精确度为:{format(pre)}")f1=f1_score(y_test,y_pred)
print(f"F1-SCORE为:{format(f1)}")

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/2358.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

什么是关键字驱动测试?关键字驱动测试是如何实现的?

什么是关键字驱动测试? 关键字驱动测试 (KDT) 是测试自动化中的一种脚本技术,其中测试用例指令与实际测试脚本逻辑分开。它利用一组预定义的关键字来表示要在被测应用程序 (AUT) 上执行的操作。这些关键字…

BBS前后端混合项目--03

展示 static/bootstrp # bootstrap.min.css /*!* Bootstrap v3.4.1 (https://getbootstrap.com/)* Copyright 2011-2019 Twitter, Inc.* Licensed under MIT (https://github.com/twbs/bootstrap/blob/master/LICENSE)*//*! normalize.css v3.0.3 | MIT License | github.com/n…

C语言----链表

大家好,今天我们来看看C语言中的一个重要知识,链表。当然大家可以先从名字中看出来。就是一些表格用链子连接。那么大家是否想到了我们以前学的数组,因为数组也是相连的呀。是吧。但是链表与数组还是有区别的,那么链表是什么有什么…

C语言实现队列

前言:在实现栈之后我们再介绍一下他的孪生兄弟,一个是后进先出,一个是先进先出。那么就让我们来详细的了解一下队列把。 目录 一.队列概念 二.队列的实现 1.定义队列 2.初始化队列 3.入队 4.判断队列是否为空 5.出队 6.返回队头…

使用kali进行DDos攻击

使用kali进行DDos攻击 1、打开命令提示符,下载DDos-Attack python脚本 git clone https://github.com/Elsa-zlt/DDos-Attack 2、下载好之后,cd到DDos-Attack文件夹下 cd DDos-Attack 3、修改(设置)对ddos-attack.py文件执行的权…

Git 核心概念与实操

这里写目录标题 1 版本回退2 工作区、暂存区、本地仓库、远程仓库 1 版本回退 原文链接:https://www.liaoxuefeng.com/wiki/896043488029600/897013573512192 首先 git log 查看提交记录 在Git中,用 HEAD 表示当前版本 上一个版本就是 HEAD^ &#xff…

IDM 平替 Gopeed Flutter 开源免费下载工具

IDM 平替 Gopeed Flutter 开源免费下载工具 视频 https://youtu.be/m206G5lVXPM https://www.bilibili.com/video/BV1Lz421k7Zp/ 前言 原文 https://ducafecat.com/blog/flutter-gopeed-downloader-idm-replace https://flutter.ducafecat.com/github/repo/GopeedLab/gopeed…

总结Java中的synchronized

T04BF 👋专栏: 算法|JAVA|MySQL|C语言 🫵 小比特 大梦想 目录 总结*synchronized**初识synchronized*使用synchronizedsynchronized的特性(1)可重入性(2)自适应过程(3)锁消除(4)非公平锁(5)互斥锁 总结synchronized 初识synchronized 通过一个线程不安…

TCP/IP常用协议栈图解

1.引言 最近看了一些计算机网络的课程,总结借鉴了一些TCP/IP常用协议,罗列在以下图中,以便有一个整体观。 2.图解 先上图 3.总结 TCP/IP协议是实际用的计算机网络通信的标准协议栈,自上而下分为应用层,传输层&#xf…

4.23日总结(项目总结)

1.项目: 今日项目通过一个在登录界面的一个静态变量,完成了区分老师和学生,能够分开老师和学生,并且不同身份的人进去会有不同的显示,以及登录链接主界面,还有学生和老师的不同的表,其次就是创…

陆金所控股一季报到底是利好还是利空?

3月底,陆金所控股(LU.N;06623.HK)因其特别分红方案受到市场高度关注。但在4月23日发布的2024年一季度财报中,陆金所控股营收同比下降30.9%,净亏损8.3亿元。 两者对比,外界不由得对公司的经营状况产生疑惑。…

机器人模型匹配控制(MPC)MATLAB实现

模型匹配控制(Model matching control)是指设计一个控制器使闭环系统的传递函数tf(s)与td(s)相一致! mpcDesigner 可以分为: 2时域精确模型匹配控制3频域精确模型匹配控制 机械臂控制中应用模型匹配控制(Model Matc…

Rabbitmq安装延迟插件rabbitmq_delayed_message_exchange失败

Docker里的Rabbitmq容器安装延迟插件rabbitmq_delayed_message_exchange失败 一启动插件Rabbitmq容器直接停止运行了 rabbitmq-plugins enable rabbitmq_delayed_message_exchange排除了版本问题和端口问题等,发现是虚拟机运行内存不够,增加虚拟机运行内…

WEB前端-笔记(三)

目录 一、事件 1.1类型 1.2对象 1.3页面加载事件 1.4滚动事件 1.5尺寸事件 1.6捕获&冒泡事件 1.7阻止表单提交 1.8全选案例 1.9事件委托 ​编辑 1.10client&offset 1.11换取元素的位置 1.12创建节点 1.13克隆节点 1.14删除节点 1.15setTimeout 1.16s…

【Hadoop】-Hive部署[12]

目录 思考 VMware虚拟机部署 规划 步骤1:安装MySQL数据库 步骤2:配置Hadoop 步骤3:下载解压Hive 步骤4:提供MySQL Driver包 步骤5:配置Hive 步骤6:初始化元数据库 步骤7:启动Hive&…

Docker搭建代码托管Gitlab

文章目录 一、简介二、Docker部署三、管理员使用四、用户使用五、用户客户端 一、简介 GitLab是一个基于Git的代码托管和协作平台,类似于GitHub。 它提供了一个完整的工具集,包括代码仓库管理、问题跟踪、CI/CD集成、代码审查等功能。 GitLab的开源版本…

全面了解俄罗斯的VK开户和Yandex投放及内容运营

俄罗斯的VKontakte(简称VK)和Yandex是两个重要的在线平台,对于希望在俄罗斯市场进行推广的企业来说,了解如何在这些平台上开户和投放广告以及内容运营是非常关键的。 俄罗斯vk广告如何开户? 通过上海上弦进行俄罗斯V…

画图的神器及必备的调色和选图工具

大学生研究生论文写作及画图的神器 前言常用的工具集合画图工具配色参考画图神器词云 最后下篇 前言 好久没有更博,来更一下吧。最近刚好被问到平常是用什么来画图的,包括会议论文,各种类型的PPT汇报以及项目报告等等里面的图怎么画好。所以…

7.2K star!一个完全免费,可以本地部署的 AI 搜索聚合器。新手可尝试

原文链接:7.2K star!一个完全免费,可以本地部署的 AI 搜索聚合器。新手可尝试 ChatGPT 刚上线的时候我用的很少,还是习惯用 Google。主要还是因为不信任,怕它对我胡说八道。 慢慢的,也没有一个明确的时间…

SpringCloud 与 Dubbo 的区别详解

一、Spring Cloud 和 Dubbo 的概述 1.1 SpringCloud 简介 SpringCloud 是一个用于构建云原生应用的框架集合,它为开发者提供了一套完整的工具链,用于快速搭建分布式系统。SpringCloud 基于 SpringBoot 开发,具有如下特点: 提供…