特征工程总结


目录

1 特征工程是什么?
2 数据预处理
  2.1 无量纲化
    2.1.1 标准化
    2.1.2 区间缩放法
    2.1.3 标准化与归一化的区别
  2.2 对定量特征二值化
  2.3 对定性特征哑编码
  2.4 缺失值计算
  2.5 数据变换
3 特征选择
  3.1 Filter
    3.1.1 方差选择法
    3.1.2 相关系数法
    3.1.3 卡方检验
    3.1.4 互信息法
  3.2 Wrapper
    3.2.1 递归特征消除法
  3.3 Embedded
    3.3.1 基于惩罚项的特征选择法
    3.3.2 基于树模型的特征选择法
4 降维
  4.1 主成分分析法(PCA)
  4.2 线性判别分析法(LDA)
5 总结
6 参考资料


1 特征工程是什么?

  有这么一句话在业界广泛流传:数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。那特征工程到底是什么呢?顾名思义,其本质是一项工程活动,目的是最大限度地从原始数据中提取特征以供算法和模型使用。通过总结和归纳,人们认为特征工程包括以下方面:

<img src="https://pic3.zhimg.com/20e4522e6104ad71fc543cc21f402b36_b.png" data-rawwidth="875" data-rawheight="967" class="origin_image zh-lightbox-thumb" width="875" data-original="https://pic3.zhimg.com/20e4522e6104ad71fc543cc21f402b36_r.png">

  特征处理是特征工程的核心部分,sklearn提供了较为完整的特征处理方法,包括数据预处理,特征选择,降维等。首次接触到sklearn,通常会被其丰富且方便的算法模型库吸引,但是这里介绍的特征处理库也十分强大!

  本文中使用sklearn中的IRIS(鸢尾花)数据集来对特征处理功能进行说明。IRIS数据集由Fisher在1936年整理,包含4个特征(Sepal.Length(花萼长度)、Sepal.Width(花萼宽度)、Petal.Length(花瓣长度)、Petal.Width(花瓣宽度)),特征值都为正浮点数,单位为厘米。目标值为鸢尾花的分类(Iris Setosa(山鸢尾)、Iris Versicolour(杂色鸢尾),Iris Virginica(维吉尼亚鸢尾))。导入IRIS数据集的代码如下:

  1. from sklearn.datasets import load_iris
  2. #导入IRIS数据集
  3. iris = load_iris()
  4. #特征矩阵
  5. iris.data
  6. #目标向量
  7. iris.target

2 数据预处理

  通过特征提取,我们能得到未经处理的特征,这时的特征可能有以下问题:

  • 不属于同一量纲:即特征的规格不一样,不能够放在一起比较。无量纲化可以解决这一问题。
  • 信息冗余:对于某些定量特征,其包含的有效信息为区间划分,例如学习成绩,假若只关心“及格”或不“及格”,那么需要将定量的考分,转换成“1”和“0”表示及格和未及格。二值化可以解决这一问题。
  • 定性特征不能直接使用:某些机器学习算法和模型只能接受定量特征的输入,那么需要将定性特征转换为定量特征。最简单的方式是为每一种定性值指定一个定量值,但是这种方式过于灵活,增加了调参的工作。通常使用哑编码的方式将定性特征转换为定量特征:假设有N种定性值,则将这一个特征扩展为N种特征,当原始特征值为第i种定性值时,第i个扩展特征赋值为1,其他扩展特征赋值为0。哑编码的方式相比直接指定的方式,不用增加调参的工作,对于线性模型来说,使用哑编码后的特征可达到非线性的效果。
  • 存在缺失值:缺失值需要补充。
  • 信息利用率低:不同的机器学习算法和模型对数据中信息的利用是不同的,之前提到在线性模型中,使用对定性特征哑编码可以达到非线性的效果。类似地,对定量变量多项式化,或者进行其他的转换,都能达到非线性的效果。

  我们使用sklearn中的preproccessing库来进行数据预处理,可以覆盖以上问题的解决方案。

2.1 无量纲化

  无量纲化使不同规格的数据转换到同一规格。常见的无量纲化方法有标准化和区间缩放法。标准化的前提是特征值服从正态分布,标准化后,其转换成标准正态分布。区间缩放法利用了边界值信息,将特征的取值区间缩放到某个特点的范围,例如[0, 1]等。

2.1.1 标准化

  标准化需要计算特征的均值和标准差,公式表达为:

  使用preproccessing库的StandardScaler类对数据进行标准化的代码如下:

<img src="https://pic2.zhimg.com/c7e852db6bd05b7bb1017b5425ffeec1_b.png" data-rawwidth="81" data-rawheight="48" class="content_image" width="81">
  1. from sklearn.preprocessing import StandardScaler
  2. #标准化,返回值为标准化后的数据
  3. StandardScaler().fit_transform(iris.data)
2.1.2 区间缩放法

  区间缩放法的思路有多种,常见的一种为利用两个最值进行缩放,公式表达为:

  使用preproccessing库的MinMaxScaler类对数据进行区间缩放的代码如下:

<img src="https://pic2.zhimg.com/0f119a8e8f69509c5b95ef6a8a01a809_b.png" data-rawwidth="119" data-rawheight="52" class="content_image" width="119">
from sklearn.preprocessing import MinMaxScaler

#区间缩放,返回值为缩放到[0, 1]区间的数据
MinMaxScaler().fit_transform(iris.data)

2.1.3 标准化与归一化的区别

  简单来说,标准化是依照特征矩阵的列处理数据,其通过求z-score的方法,将样本的特征值转换到同一量纲下。归一化是依照特征矩阵的行处理数据,其目的在于样本向量在点乘运算或其他核函数计算相似性时,拥有统一的标准,也就是说都转化为“单位向量”。规则为l2的归一化公式如下:

<img src="https://pic1.zhimg.com/fbb2fd0a163f2fa211829b735194baac_b.png" data-rawwidth="113" data-rawheight="57" class="content_image" width="113">

  使用preproccessing库的Normalizer类对数据进行归一化的代码如下:

  1. from sklearn.preprocessing import Normalizer
  2. #归一化,返回值为归一化后的数据
  3. Normalizer().fit_transform(iris.data)
2.2 对定量特征二值化

  定量特征二值化的核心在于设定一个阈值,大于阈值的赋值为1,小于等于阈值的赋值为0,公式表达如下:

<img src="https://pic2.zhimg.com/11111244c5b69c1af6c034496a2591ad_b.png" data-rawwidth="159" data-rawheight="41" class="content_image" width="159">

  使用preproccessing库的Binarizer类对数据进行二值化的代码如下:

  1. from sklearn.preprocessing import Binarizer
  2. #二值化,阈值设置为3,返回值为二值化后的数据
  3. Binarizer(threshold=3).fit_transform(iris.data)
2.3 对定性特征哑编码

  由于IRIS数据集的特征皆为定量特征,故使用其目标值进行哑编码(实际上是不需要的)。使用preproccessing库的OneHotEncoder类对数据进行哑编码的代码如下:

  1. from sklearn.preprocessing import OneHotEncoder
  2. #哑编码,对IRIS数据集的目标值,返回值为哑编码后的数据
  3. OneHotEncoder().fit_transform(iris.target.reshape((-1,1)))
2.4 缺失值计算

  由于IRIS数据集没有缺失值,故对数据集新增一个样本,4个特征均赋值为NaN,表示数据缺失。使用preproccessing库的Imputer类对数据进行缺失值计算的代码如下:

  1. from numpy import vstack, array, nan
  2. from sklearn.preprocessing import Imputer
  3. #缺失值计算,返回值为计算缺失值后的数据
  4. #参数missing_value为缺失值的表示形式,默认为NaN
  5. #参数strategy为缺失值填充方式,默认为mean(均值)
  6. Imputer().fit_transform(vstack((array([nan, nan, nan, nan]), iris.data)))
2.5 数据变换

  常见的数据变换有基于多项式的、基于指数函数的、基于对数函数的。4个特征,度为2的多项式转换公式如下:

<img src="https://pic4.zhimg.com/d1c57a66fad39df90b87cea330efb3f3_b.png" data-rawwidth="571" data-rawheight="57" class="origin_image zh-lightbox-thumb" width="571" data-original="https://pic4.zhimg.com/d1c57a66fad39df90b87cea330efb3f3_r.png">

  使用preproccessing库的PolynomialFeatures类对数据进行多项式转换的代码如下:

  1. from sklearn.preprocessing import PolynomialFeatures
  2. #多项式转换
  3. #参数degree为度,默认值为2
  4. PolynomialFeatures().fit_transform(iris.data)

  基于单变元函数的数据变换可以使用一个统一的方式完成,使用preproccessing库的FunctionTransformer对数据进行对数函数转换的代码如下:

  1. from numpy import log1p
  2. from sklearn.preprocessing import FunctionTransformer
  3. #自定义转换函数为对数函数的数据变换
  4. #第一个参数是单变元函数
  5. FunctionTransformer(log1p).fit_transform(iris.data)

3 特征选择

  当数据预处理完成后,我们需要选择有意义的特征输入机器学习的算法和模型进行训练。通常来说,从两个方面考虑来选择特征:

  • 特征是否发散:如果一个特征不发散,例如方差接近于0,也就是说样本在这个特征上基本上没有差异,这个特征对于样本的区分并没有什么用。
  • 特征与目标的相关性:这点比较显见,与目标相关性高的特征,应当优选选择。除方差法外,本文介绍的其他方法均从相关性考虑。

  根据特征选择的形式又可以将特征选择方法分为3种:

  • Filter:过滤法,按照发散性或者相关性对各个特征进行评分,设定阈值或者待选择阈值的个数,选择特征。
  • Wrapper:包装法,根据目标函数(通常是预测效果评分),每次选择若干特征,或者排除若干特征。
  • Embedded:嵌入法,先使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。类似于Filter方法,但是是通过训练来确定特征的优劣。

  我们使用sklearn中的feature_selection库来进行特征选择。

3.1 Filter
3.1.1 方差选择法

  使用方差选择法,先要计算各个特征的方差,然后根据阈值,选择方差大于阈值的特征。使用feature_selection库的VarianceThreshold类来选择特征的代码如下:

  1. from sklearn.feature_selection import VarianceThreshold
  2. #方差选择法,返回值为特征选择后的数据
  3. #参数threshold为方差的阈值
  4. VarianceThreshold(threshold=3).fit_transform(iris.data)
3.1.2 相关系数法

  使用相关系数法,先要计算各个特征对目标值的相关系数以及相关系数的P值。用feature_selection库的SelectKBest类结合相关系数来选择特征的代码如下:

  1. from sklearn.feature_selection import SelectKBest
  2. from scipy.stats import pearsonr
  3. #选择K个最好的特征,返回选择特征后的数据
  4. #第一个参数为计算评估特征是否好的函数,该函数输入特征矩阵和目标向量,输出二元组(评分,P值)的数组,数组第i项为第i个特征的评分和P值。在此定义为计算相关系数
  5. #参数k为选择的特征个数
  6. SelectKBest(lambda X, Y: array(map(lambda x:pearsonr(x, Y), X.T)).T, k=2).fit_transform(iris.data, iris.target)
3.1.3 卡方检验

  经典的卡方检验是检验定性自变量对定性因变量的相关性。假设自变量有N种取值,因变量有M种取值,考虑自变量等于i且因变量等于j的样本频数的观察值与期望的差距,构建统计量:

<img src="https://pic1.zhimg.com/7bc586c806b9b8bf1e74433a2e1976bc_b.png" data-rawwidth="162" data-rawheight="48" class="content_image" width="162">

  不难发现,这个统计量的含义简而言之就是自变量对因变量的相关性。用feature_selection库的SelectKBest类结合卡方检验来选择特征的代码如下:

  1. from sklearn.feature_selection import SelectKBest
  2. from sklearn.feature_selection import chi2
  3. #选择K个最好的特征,返回选择特征后的数据
  4. SelectKBest(chi2, k=2).fit_transform(iris.data, iris.target)
3.1.4 互信息法

  经典的互信息也是评价定性自变量对定性因变量的相关性的,互信息计算公式如下:

<img src="https://pic3.zhimg.com/6af9a077b49f587a5d149f5dc51073ba_b.png" data-rawwidth="274" data-rawheight="50" class="content_image" width="274">

  为了处理定量数据,最大信息系数法被提出,使用feature_selection库的SelectKBest类结合最大信息系数法来选择特征的代码如下:

  1. from sklearn.feature_selection import SelectKBest
  2. from minepy import MINE
  3. #由于MINE的设计不是函数式的,定义mic方法将其为函数式的,返回一个二元组,二元组的第2项设置成固定的P值0.5
  4. def mic(x, y):
  5. m = MINE()
  6. m.compute_score(x, y)
  7. return (m.mic(), 0.5)
  8. #选择K个最好的特征,返回特征选择后的数据
  9. SelectKBest(lambda X, Y: array(map(lambda x:mic(x, Y), X.T)).T, k=2).fit_transform(iris.data, iris.target)
3.2 Wrapper
3.2.1 递归特征消除法

  递归消除特征法使用一个基模型来进行多轮训练,每轮训练后,消除若干权值系数的特征,再基于新的特征集进行下一轮训练。使用feature_selection库的RFE类来选择特征的代码如下:

  1. from sklearn.feature_selection import RFE
  2. from sklearn.linear_model import LogisticRegression
  3. #递归特征消除法,返回特征选择后的数据
  4. #参数estimator为基模型
  5. #参数n_features_to_select为选择的特征个数
  6. RFE(estimator=LogisticRegression(), n_features_to_select=2).fit_transform(iris.data, iris.target)
3.3 Embedded
3.3.1 基于惩罚项的特征选择法

  使用带惩罚项的基模型,除了筛选出特征外,同时也进行了降维。使用feature_selection库的SelectFromModel类结合带L1惩罚项的逻辑回归模型,来选择特征的代码如下:

  1. from sklearn.feature_selection import SelectFromModel
  2. from sklearn.linear_model import LogisticRegression
  3. #带L1惩罚项的逻辑回归作为基模型的特征选择
  4. SelectFromModel(LogisticRegression(penalty="l1", C=0.1)).fit_transform(iris.data, iris.target)

  实际上,L1惩罚项降维的原理在于保留多个对目标值具有同等相关性的特征中的一个,所以没选到的特征不代表不重要。故,可结合L2惩罚项来优化。具体操作为:若一个特征在L1中的权值为1,选择在L2中权值差别不大且在L1中权值为0的特征构成同类集合,将这一集合中的特征平分L1中的权值,故需要构建一个新的逻辑回归模型:

  1. from sklearn.linear_model import LogisticRegression
  2. class LR(LogisticRegression):
  3. def __init__(self, threshold=0.01, dual=False, tol=1e-4, C=1.0,
  4. fit_intercept=True, intercept_scaling=1, class_weight=None,
  5. random_state=None, solver='liblinear', max_iter=100,
  6. multi_class='ovr', verbose=0, warm_start=False, n_jobs=1):
  7. #权值相近的阈值
  8. self.threshold = threshold
  9. LogisticRegression.__init__(self, penalty='l1', dual=dual, tol=tol, C=C,
  10. fit_intercept=fit_intercept, intercept_scaling=intercept_scaling, class_weight=class_weight,
  11. random_state=random_state, solver=solver, max_iter=max_iter,
  12. multi_class=multi_class, verbose=verbose, warm_start=warm_start, n_jobs=n_jobs)
  13. #使用同样的参数创建L2逻辑回归
  14. self.l2 = LogisticRegression(penalty='l2', dual=dual, tol=tol, C=C, fit_intercept=fit_intercept, intercept_scaling=intercept_scaling, class_weight = class_weight, random_state=random_state, solver=solver, max_iter=max_iter, multi_class=multi_class, verbose=verbose, warm_start=warm_start, n_jobs=n_jobs)
  15. def fit(self, X, y, sample_weight=None):
  16. #训练L1逻辑回归
  17. super(LR, self).fit(X, y, sample_weight=sample_weight)
  18. self.coef_old_ = self.coef_.copy()
  19. #训练L2逻辑回归
  20. self.l2.fit(X, y, sample_weight=sample_weight)
  21. cntOfRow, cntOfCol = self.coef_.shape
  22. #权值系数矩阵的行数对应目标值的种类数目
  23. for i in range(cntOfRow):
  24. for j in range(cntOfCol):
  25. coef = self.coef_[i][j]
  26. #L1逻辑回归的权值系数不为0
  27. if coef != 0:
  28. idx = [j]
  29. #对应在L2逻辑回归中的权值系数
  30. coef1 = self.l2.coef_[i][j]
  31. for k in range(cntOfCol):
  32. coef2 = self.l2.coef_[i][k]
  33. #在L2逻辑回归中,权值系数之差小于设定的阈值,且在L1中对应的权值为0
  34. if abs(coef1-coef2) < self.threshold and j != k and self.coef_[i][k] == 0:
  35. idx.append(k)
  36. #计算这一类特征的权值系数均值
  37. mean = coef / len(idx)
  38. self.coef_[i][idx] = mean
  39. return self

  使用feature_selection库的SelectFromModel类结合带L1以及L2惩罚项的逻辑回归模型,来选择特征的代码如下:

  1. from sklearn.feature_selection import SelectFromModel
  2. #带L1和L2惩罚项的逻辑回归作为基模型的特征选择
  3. #参数threshold为权值系数之差的阈值
  4. SelectFromModel(LR(threshold=0.5, C=0.1)).fit_transform(iris.data, iris.target)
3.3.2 基于树模型的特征选择法

  树模型中GBDT也可用来作为基模型进行特征选择,使用feature_selection库的SelectFromModel类结合GBDT模型,来选择特征的代码如下:

  1. from sklearn.feature_selection import SelectFromModel
  2. from sklearn.ensemble import GradientBoostingClassifier
  3. #GBDT作为基模型的特征选择
  4. SelectFromModel(GradientBoostingClassifier()).fit_transform(iris.data, iris.target)

4 降维

  当特征选择完成后,可以直接训练模型了,但是可能由于特征矩阵过大,导致计算量大,训练时间长的问题,因此降低特征矩阵维度也是必不可少的。常见的降维方法除了以上提到的基于L1惩罚项的模型以外,另外还有主成分分析法(PCA)和线性判别分析(LDA),线性判别分析本身也是一个分类模型。PCA和LDA有很多的相似点,其本质是要将原始的样本映射到维度更低的样本空间中,但是PCA和LDA的映射目标不一样:PCA是为了让映射后的样本具有最大的发散性;而LDA是为了让映射后的样本有最好的分类性能。所以说PCA是一种无监督的降维方法,而LDA是一种有监督的降维方法。

4.1 主成分分析法(PCA)

  使用decomposition库的PCA类选择特征的代码如下:

  1. from sklearn.decomposition import PCA
  2. #主成分分析法,返回降维后的数据
  3. #参数n_components为主成分数目
  4. PCA(n_components=2).fit_transform(iris.data)
4.2 线性判别分析法(LDA)

  使用lda库的LDA类选择特征的代码如下:

  1. from sklearn.lda import LDA
  2. #线性判别分析法,返回降维后的数据
  3. #参数n_components为降维后的维数
  4. LDA(n_components=2).fit_transform(iris.data, iris.target)


5 总结

  再让我们回归一下本文开始的特征工程的思维导图,我们可以使用sklearn完成几乎所有特征处理的工作,而且不管是数据预处理,还是特征选择,抑或降维,它们都是通过某个类的方法fit_transform完成的,fit_transform要不只带一个参数:特征矩阵,要不带两个参数:特征矩阵加目标向量。这些难道都是巧合吗?还是故意设计成这样?方法fit_transform中有fit这一单词,它和训练模型的fit方法有关联吗?接下来,我将在《使用sklearn优雅地进行数据挖掘》中阐述其中的奥妙!



本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/445224.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Jmeter测试并发https请求成功了

Jmeter2.4 如何测试多个并发https请求&#xff0c;终于成功了借此机会分享给大家 首先要安装jmeter2.4版本的&#xff0c;而且不建议大家使用badboy&#xff0c;因为这存在兼容性问题。对于安装&#xff0c;我就不讲了&#xff0c;我就说说如何测试https&#xff0c;想必大家都…

关系数据库——sql基础1定义

关系数据库标准语言SQL 基本概念 SQL语言是一个功能极强的关系数据库语言。同时也是一种介于关系代数与关系演算之间的结构化查询语言&#xff08;Structured Query Language&#xff09;&#xff0c;其功能包括数据定义、数据查询、数据操纵和数据控制。 SQL的特点&#xff…

大数据学习(09)--Hadoop2.0介绍

文章目录目录1.Hadoop的发展与优化1.1 Hadoop1.0 的不足与局限1.2 Hadoop2.0 的改进与提升2.HDFS2.0 的新特性2.1 HDFS HA2.2 HDFS Federation3. 新一代的资源管理器YARN3.1 MapReduce1.0 缺陷3.2 YARN的设计思路3.3 YARN 体系结构3.4 YARN工作流程3.5 YARN框架与MapReduce1.0框…

Java多线程常用方法

start()与run() start() 启动线程并执行相应的run()方法 run() 子线程要执行的代码放入run()方法 getName()和setName() getName() 获取此线程的名字 setName() 设置此线程的名字 isAlive() 是判断当前线程是否处于活动状态。活动状态就是已经启动尚未终止。 curren…

MachineLearning(2)-图像分类常用数据集

图像分类常用数据集1 CIFAR-102.MNIST3.STL_104.Imagenet5.L-Sun6.caltech-101在训练神经网络进行图像识别分类时&#xff0c;常会用到一些通用的数据集合。利用这些数据集合可以对比不同模型的性能差异。下文整理常用的图片数据集合&#xff08;持续更新中)。基本信息对比表格…

大数据学习(09)--spark学习

文章目录目录1.spark介绍1.1 spark介绍1.2 scale介绍1.3 spark和Hadoop比较2.spark生态系统3.spark运行框架3.1 基本概念3.2 架构的设计3.3 spark运行基本流程3.4 spark运行原理3.5 RDD运行原理3.5.1 设计背景3.5.2 RDD概念和特性3.5.3 RDD之间的依赖关系3.5.4 stage的划分3.5.…

机器学习中的聚类方法总结

聚类定义 定义 聚类就是对大量未知标注 的数据集&#xff0c;按数据 的内在相似性将数据集划分为多个类别&#xff0c;使 类别内的数据相似度较大而类别间的数据相 似度较小。是无监督的分类方式。 聚类思想 给定一个有N个对象的数据集&#xff0c;构造数据的k 个簇&#x…

关系数据库——关系数据语言

关系 域&#xff1a;一组具有相同数据类型的值的集合&#xff08;即取值范围&#xff09; 笛卡尔积&#xff1a;域上的一种集合运算。结果为一个集合&#xff0c;集合的每一个元素是一个元组&#xff0c;元组的每一个分量来自不同的域。 基数&#xff1a;一个域允许的不同取值…

机器学习问题总结(01)

文章目录1.请描述推荐系统中协同过滤算法CF的原理2.请描述决策树的原理、过程、终止条件&#xff0c;以及如何防止过拟合2.1决策树生成算法2.2 剪枝处理&#xff08;防止过拟合&#xff09;2.3 停止条件2.4 棵决策树的生成过程2.5 决策树的损失函数3.请描述K-means的原理&#…

Python实例讲解 -- 解析xml

Xml代码 <?xml version"1.0" encoding"utf-8"?> <info> <intro>信息</intro> <list id001> <head>auto_userone</head> <name>Jordy</name> <number&g…

python(22)--面向对象1-封装

python面向对象1面向过程/面向对象2面向对象核心概念-类3类的设计3.1类三要素-类名、属性、方法3.2面向对象基础语法3.2.1查看对象的常用方法3.2.2类定义3.2.3创建类对象3.2.4__init__()方法3.2.5 self参数3.2.6类内置方法和属性_del_()方法--销毁对象_str_()方法--定制化输出对…

机器学习问题总结(02)

文章目录1.stacking模型以及做模型融合的知识1.1 从提交结果中融合1.2 stacking1.3 blending2. 怎样去优化SVM算法模型的&#xff1f;2.1 SMO优化算法2.2 libsvm 和 Liblinear3.现有底层是tensorflow的keras框架&#xff0c;如果现在有一个tensorflow训练好的模型&#xff0c;k…

C/C++常见面试题(四)

C/C面试题集合四 目录 1、什么是C中的类&#xff1f;如何定义和实例化一个类&#xff1f; 2、请解释C中的继承和多态性。 3、什么是虚函数&#xff1f;为什么在基类中使用虚函数&#xff1f; 4、解释封装、继承和多态的概念&#xff0c;并提供相应的代码示例 5、如何处理内…

机器学习问题总结(03)

文章目录1.struct和class区别&#xff0c;你更倾向用哪个2.kNN&#xff0c;朴素贝叶斯&#xff0c;SVM的优缺点&#xff0c;各种算法优缺点2.1 KNN算法2.2 朴素贝叶斯2.3SVM算法2.4 ANN算法2.5 DT算法3. 10亿个整数&#xff0c;1G内存&#xff0c;O(n)算法&#xff0c;统计只出…

redis——新版复制

sync虽然解决了数据同步问题&#xff0c;但是在数据量比较大情况下&#xff0c;从库断线从来依然采用全量复制机制&#xff0c;无论是从数据恢复、宽带占用来说&#xff0c;sync所带来的问题还是很多的。于是redis从2.8开始&#xff0c;引入新的命令psync。 psync有两种模式&a…

Python(23)-面向对象2-继承,多态

面向对象基本概念2--继承、多态1.继承基本概念2.子类重写父类方法2.1完全重写2.2扩展父类方法--super()3.多继承4.新式类和旧式类5.多态基本概念6.类属性、类方法-classmethod6.1类属性6.2类方法classmethod7.静态方法staticmethod8.案例分析本系列博文来自学习《Python基础视频…

机器学习问题总结(04)

文章目录1、MLP的BP过程2、maxpool层BP怎么做的2.1 **mean pooling**2.2 max pooling3、opencv遍历像素的方式&#xff0c;讲两种&#xff1f;4、传统图像处理有了解过吗&#xff0c;比如去噪 特征提取5、问在linux下写过代码吗&#xff1f; 问用了什么软件工具6、LDA&#xff…

持续更新的Zookeeper知识总结

简介 Zookeeper为分布式应用 提供了高效且可靠的分布式协调服务&#xff0c;提供了诸如统一命名服务、发布订阅、负载均衡、配置管理和分布式锁等分布式的基础服务。 设计目标是将那些复杂且容易出错的分布式一致性服务封装起来&#xff0c;构成一个高效可靠的原语集&#xf…

机器学习问题总结(05)

文章目录1. Hadoop、Spark1.1 hadoop1.2 spark1.3 MapReduce1.3.1 概念1.3.1 MapReduce执行流程2、机器学习场景3、推荐系统&#xff08;预测电影等级&#xff09;4、CTR&#xff08;点击通过率 -> 广告&#xff09;5、SVM5.1 svm的原理5.2 SVM的核技巧6、K-means6.1 K-mean…

基于Socket的UDP和TCP编程介绍

一、概述 TCP(传输控制协议)和UDP(用户数据报协议是网络体系结构TCP/IP模型中传输层一层中的两个不同的通信协议。 TCP:传输控制协议,一种面向连接的协议,给用户进程提供可靠的全双工的字节流,TCP套接口是字节流套接口(streamsocket)的一种。 UDP:用户数据报协议。U…