赫布定律 | 机器学习 / 反向传播 / 经验 / 习惯

注:本文为 “赫布定律” 相关文章合辑。

未整理。


赫布定律 Hebb‘s law

馥墨轩 2021 年 03 月 13 日 00:03

1 赫布集合的基本定义

唐纳德・赫布(Donald Hebb)在 1949 年出版了《行为的组织》(The Organization of Behavior)。他在书中提出,脑内反映的某些外界客观物体的表征,是由被该外界刺激激活的所有皮层细胞组成的,赫布把这群同时激活的皮层细胞称为一个细胞集合(cell asssembly)。突触前神经元向突触后神经元进行持续重复的刺激后,会使传递的效能被强化或改变。

这句话的意思就是当有邻近的刺激时,无论是空间邻近,还是时间邻近,邻近元素都会形成一个被强化的整体。

下面通过简单、抽象的图式来一步步说明赫布集合。首先,细胞集合是由神经元和神经元之间的连接构成的,如下图所示。

图片

基本的赫布集合

图中的一个圆圈既可以代表一个神经元,也可以代表另一个细胞集合。

图片

一个圆圈也可以是一个更小级别的赫布集合

所以第一个图也可以用更复杂的形式表达,如下图所示。

图片

一个大的赫布集合可以由多个子赫布集合构成

2 赫布定律的产生作用的过程

前面介绍了赫布集合的基本定义,它产生作用分为两步,第一步是同时刺激,形成赫布集合;第二步是再现,即再现原始的刺激。下面详细说明。

图片

(1)同时刺激

当出现一个刺激源的时候,与刺激源具有映射关系的神经元或细胞集合就会受到刺激,当被反复刺激之后,映射的神经元之间的连接就被加强了。

图片
刺激会加强神经元或细胞集合之间的联系

(2)再现

同时受到刺激的神经元被加强后,只要其中的一部分受到刺激,就会通过被加强的联系(突触或髓鞘的变化)激活之前共同受到刺激的神经元。

图片

再现原始刺激

一个并不完整的刺激可以激活完整的记忆,这就是格式塔闭合原则的神经学基础。

图片

将未闭合图形认知为闭合的倾向

大家可以思考一下邻近元素之间构成的整体与赫布集合原始刺激之间的关系,这二者是不是有什么联系呢?

文章来源:书籍:UI 设计与认知心理学


赫布法则(Hebb’s rule)与机器学习

Neuro 科学和人工智能 2022 年 10 月 24 日 20:16 上海

人工智能的方法,不管是搜索还是决策,本质上是基于预先定义的规则的,即使是概率推理,也是根据预先给定的概率分布的,但当 Agent 面对真实环境时,实际的情况会比预先规则能够预见的情况复杂很多倍,在经过很多年的努力后专家系统的基本上以失败告终的结局更加使人们认清了这个事实,在这种情况下,如果能够让 Agent 能够不断地根据实际环境进行自发调整就变得越来越重要,这背后的基础理论涉及到记忆和学习,本节我们就来介绍机器学习。

我们首先需要明确的一点是:机器学习是有着明确的目标的,也就是学习是和具体的问题有关的。只有把具体的一类问题能够用很清晰的数学语言定义出来,机器学习才能够发挥惊人的威力,但是在这个严格定义的数学问题之外,曾经非常成功的机器学习算法也很难发挥威力。我们现在聚焦一类具体的学习问题:从一组 “输入 - 输出” 对中学习能够预测新输入相对应的输出的函数。

我们描述的 Agent 的部件包括:

① 在当前状态上,条件到动作的直接映射;

② 从感知序列推演世界的合适特征的方法;

③ 关于世界进化方式的信息和关于 Agent 能执行的可能动作的结果信息;

④ 表明世界状态愿望的效用信息;

⑤ 表明动作愿望的动作 - 价值信息;

⑥ 描述能最大化成就的 Agent 效用的状态类的目标。

这些部件中的每一个都能学习。关于 Agent 部件的表示法有:逻辑 Agent 部件的命题和一阶逻辑语句;决策 - 理论 Agent 推理部件的贝叶斯网络,等等,对于所有这些表示法,都已经发明了有效学习算法。大多数当前机器学习研究涉及到这样的输入和输出,其中输入使用一种要素化表示法 —— 属性值向量,输出或是连续数字值或是离散值。除了这种被称为归纳学习的之外,还有就是所谓的分析或演绎学习,是从已知通用规则走向被其逻辑蕴涵的新规则,不过随着专家系统的式微,这种学习已经沉寂很久了。

有三种类型的反馈,决定了如下三种主要的学习类型:无监督学习、强化学习和有监督学习,当然居间的还有所谓的半监督学习。

接下来我们重点关注在计算神经学构建的生物神经元网络和人工智能的机器学习搭建的人工神经元网络模型中涉及的学习。-=

神经元学习中的赫布法则及相关问题

神经元中的学习基础是前面讲过的赫布法则,赫布认为通过修改突触连接强度可以模拟训练时神经元之间的关系。然而,直接应用赫布法则会存在问题:突触连接的增强是一个正反馈,修改突触连接的活动本身会带来更强的活动以及更多的突触增强,如果没有对突触可塑性规则的一些调整或增加限制条件,赫布修改将会产生突触强度的不可控增长,因此一般需要对权重设置上限。

然而,突触后神经元本来对于输入具有选择性,这是通过突触间竞争来实现的,但是如果设置了权重上限,而许多突触的权重达到上限,这样就失去了对输入的选择性,这就需要我们再引入一些其它规则来恢复突触间的竞争。

基于累积放电模型的讨论

我们用累积放电模型的线性方程为基础进行讨论:

τ r d v d t = − v + w ⋅ u = − v + ∑ b = 1 N u w b u b \Large\tau_{r} \frac{d v}{d t}=-v + w\cdot u=-v + \sum_{b = 1}^{N_{u}} w_{b} u_{b} τrdtdv=v+wu=v+b=1Nuwbub

突触可塑性的过程远比上式描述的要慢得多,如果我们再假设刺激也是足够慢使得网络在训练期间保持稳定状态的活动,则上式变成:

v = w ⋅ u \Large v = w\cdot u v=wu
最简单的赫布法则是如下的形式:

τ w d w d t = v u \Large\tau_{w} \frac{d w}{d t} = vu τwdtdw=vu
其中, τ w \tau_{w} τw 是控制权重变化率的时间常数。

我们用训练期间的平均输入,上式变成:

τ w d w d t = ⟨ v u ⟩ \Large\tau_{w} \frac{d w}{d t} = \langle vu\rangle τwdtdw=vu

角括号 ⟨ ⟩ \langle\rangle 表示多次试验的平均值。在无监督学习中,将 v = w ⋅ u v = w\cdot u v=wu 带入:

τ w d w d t = Q ⋅ w or τ w d w b d t = ∑ b ′ = 1 N u Q b b ′ w b ′ \Large\tau_{w} \frac{d w}{d t} = Q\cdot w \quad \text{or} \quad \tau_{w} \frac{d w_{b}}{d t} = \sum_{b' = 1}^{N_{u}} Q_{b b'} w_{b'} τwdtdw=Qworτwdtdwb=b=1NuQbbwb

这个式子叫做基于相关系数的可塑性规则。其中, Q Q Q 是输入的相关系数矩阵:

Q = ⟨ u u ⟩ or Q b b ′ = ⟨ u b u b ′ ⟩ \Large Q = \langle uu\rangle \quad \text{or} \quad Q_{b b'} = \left\langle u_{b} u_{b'}\right\rangle Q=uuorQbb=ubub

上面的基本赫布法则是不稳定的。为避免没有边界的增长,我们必须设定一个饱和上限。如果活动变量允许为负,那就同样需要一个下限。但是即使加上饱和条件,基本赫布法则也无法同时满足在不同突触前的竞争要求。

BCM 法则及相关改进

在赫布最原始的推测中, u u u v v v 代表放电率,则上面的基本赫布法则只描述了突触的长时程增强(LTP),而没有将长时程抑制(LTD)也包括进来。Bienenstock, Cooper and Munro在1982年提出了被称为BCM法则的改进方程:

τ w d w d t = v u ( v − θ v ) \Large\tau_{w} \frac{d w}{d t} = vu\left(v - \theta_{v}\right) τwdtdw=vu(vθv)

其中, θ v \theta_{v} θv 是一个阈值向量,突触后活动如果超过阈值是 LTP,否则就是 LTD。这样,突触后活动与突触前活动一起参与塑造突触权重。

如果阈值 θ v \theta_{v} θv 是固定的,那么 BCM 法则象基本的赫布法则一样是不稳定的,但是如果阈值是可变的,并且当输出活动增加时 θ v \theta_{v} θv v v v 变化得更快,则权重的变化就可以避免无界限地增长。这可以通过引入一个滑动阈值,或者更直接地引入与权重相关的项,一般是通过归一化来实现的,例如Oja法则(参看:https://www.zhihu.com/question/26564573/answer/1604087457):

τ w d w d t = v u − α v 2 w \Large\tau_{w} \frac{d w}{d t} = vu - \alpha v^{2} w τwdtdw=vuαv2w

其中, α \alpha α 是一个正的常数。

突触可塑性的脉冲时间依赖关系

在实际中突触前动作电位和突触后动作电位的相对时间对于活动产生的对突触功效变化的符合和幅度至关重要。例如,在一些试验中发现只有突触前和突触后脉冲时间落在 ± 50 m s \pm50ms ±50ms 窗口内才会表现出突触可变性,在这个窗口之内,突触前脉冲出现在突触后动作电位之前产生LTP,反之则产生 LTD,这是与赫布法则一致的。

如果要模拟上述的突触可塑性的脉冲时间依赖关系需要脉冲模型,但是我们可以用放电率模型来近似模拟,例如在突触前放电率和突触后放电率之间引入一个时间差 τ \tau τ ,而函数 H ( τ ) H(\tau) H(τ) 表示由与突触前活动相差时间 τ \tau τ 的突触后活动引起的突触权重变化,则突触权重变化由下式给出:

τ w d w d t = ∫ 0 ∞ d τ ( H ( τ ) v ( t ) u ( t − τ ) + H ( − τ ) v ( t − τ ) u ( t ) ) \Large\tau_{w} \frac{d w}{d t} = \int_{0}^{\infty} d\tau(H(\tau) v(t) u(t - \tau) + H(-\tau) v(t - \tau) u(t)) τwdtdw=0dτ(H(τ)v(t)u(tτ)+H(τ)v(tτ)u(t))

如果对于正的时间 τ \tau τ H ( τ ) H(\tau) H(τ) 为正,对于负的时间 τ \tau τ H ( τ ) H(\tau) H(τ) 为负,则式中右边第一项表示 LTP,第二项表示 LTD。-=

下图给出这样一个 H ( τ ) H(\tau) H(τ) 的曲线例子:

图片

H 的时间不对称性对于突触权重修改带来了戏剧性的效果,因为它使它们在训练时依赖于活动的时间顺序,这使得突触权重可以存储时间序列的信息。

赫布法则启发了人工智能领域的研究人员。最早 McCulloch 和 Pitts 设计的简单的神经元模型如下图:

图片

而霍普菲尔德(Hopfield)提出了一个全连接的 Hopfield 神经网络模型:

图片

左图是离散 Hopfield 网络,右图是 Hopfield 网络的网状结构。

现在一般通用的人工神经元网络如下图所示:

图片
-=
人工数据应用网络由结点或单元组成,单元通过有向链相连接。从单元 i i i 到单元 j j j 的链负责从 i i i j j j 传播激活 a i a_i ai 。每个链也有一个数值权重 w i j w_{ij} wij 与它相关联,该权重决定了连接强度和符号。另外,每个单元有一个哑输入 a 0 = 1 a_0 = 1 a0=1 ,其连接权重为 w 0 j w_{0j} w0j 。每个单元 j j j 首先计算输入的加权和:

i n j = ∑ i = 0 n w i , j a i \Large i{{n}_{j}}=\sum\limits_{i=0}^{n}{{{w}_{i,j}}{{a}_{i}}} inj=i=0nwi,jai

然后在该和之上施加一个激活函数 g g g 而导致输出:

a j = g ( i n j ) = g ( ∑ i = 0 n w i , j a i ) \Large a_{j}=g\left(in_{j}\right)=g\left(\sum\limits_{i = 0}^{n}w_{i,j}a_{i}\right) aj=g(inj)=g i=0nwi,jai

典型的激活函数可以是一个硬阈值,其中的单元称为感知器,也可以是 l o g i s t i c logistic logistic 函数,有时用术语 s i g m o i d sigmoid sigmoid 感知器称呼之。人工神经元可以连接成单纯的前馈网络,前馈网络的连接仅有一个方向,即它形成一个有向无环图,也可以连接成循环网络,循环网络将其输出反馈到其输入,这意味着网络的激活层级形成了一个动态系统,这样,循环网络就能够支持短期记忆。

前馈网络一般排列成层次,每一个单元都仅仅从其直接前一层的单元接受输入。多层网络除了直接的输入层和最终的输出层之外,中间有一个或多个隐藏单元层,这些单元不与网络的输出连接。

最早的人工神经元网络由于硬件资源和数据的限制,是所有输入直接连接到输出的网络,称为感知机( P e r c e p t r o n Perceptron Perceptron ),训练的过程要么是感知机学习规则,要么是关于 l o g i s t i c logistic logistic 回归的梯度下降。如明斯基和 P a p e r t Papert Papert 证明了感知机不能够对异或进行分类,造成了人工神经网络研究几十年的停滞,直到采用反向传播的深度学习才带来了人工神经网络的回归和复兴。-=

参考书籍:

计算神经学教材(Theoretical Neuroscience, Computational and Mathematical Modeling of Neural Systems, by Peter Dayan and L. F. Abbott).


反向传播和生物学没关系?

新智元 2021 年 02 月 24 日 17:52

新智元报道

来源:quantamagazine

编辑:LRS,LQ

【新智元导读】反向传播和生物学无关?近期网上出现了一些质疑,那么二者之间真的没有关系?也许 Hinton 和 Bengio 的想法可以解答你的疑惑。

2007 年,深度学习研究的先驱们在 NIPS 召开期间发起了一场关于「深度学习」的非正式研讨会,当时距离深度神经网络接管人工智能还有几年时间。

图片

这次会上,最后一位发言人是多伦多大学的杰弗里・辛顿(Geoffrey Hinton),他以一个笑话开场:「大概一年前,我回家吃晚饭,我说,‘我想我终于弄明白大脑是怎么工作的了’,我 15 岁的女儿说,‘哎呀,爸爸,又来了,别这样了。」观众大笑。

图片

辛顿继续说:「而这,就是它的工作原理」。这又引发了更多的笑声。

人工智能领域一直都有一个严肃的追求:如何利用人工智能来理解大脑。今天,深层神经网络统治人工智能的部分原因是源于反向传播 (backpropagation) 算法。

但是真正的大脑不可能依赖反向传播算法。「大脑的概括和学习能力比最先进的 AI 系统更快更好」(Bengio),而且反向传播不符合大脑的解剖学和生理学,特别是在大脑皮层。

许多研究人员一直在思考更具生物学意义的学习机制,其中,反馈比对法、平衡传播法和预测编码法具有独特的应用前景。

一些研究人员还将某些类型的皮层神经元和注意力等过程的特性加入到他们的模型中,这些研究使我们更能理解哪些算法可能在大脑中起作用。

「人们普遍认为,对于大脑这个巨大的谜团,如果我们能够解开其中的一些原理,那将对人工智能有所帮助。但它本身也有价值。」Bengio 说。

通过「反向传播」学习

几十年来,神经科学家关于大脑如何学习的理论主要受到 1949 年提出的「赫布理论」影响,通常被解释为「共同激发的神经元之间存在连接」,即相邻神经元的活动越相关,它们之间的突触联系就越强。

图片

这个原则经过一些修改后,成功解释了某些类型的学习和分类任务。

图片

赫布规则在使用错误信息时,是一种的非常狭窄、特殊且不敏感的方法。尽管如此,这对神经科学家来说,仍然是最好的学习规则,甚至在 20 世纪 50 年代后期,它就激发了第一个人工神经网络的发展。

这些网络中的每个人工神经元接收多个输入并产生一个输出,就真实的神经元一样。人工神经元用一个所谓的「突触」权重 (一个表示该输入重要性的数字),然后对输入进行加权求和。

到了 20 世纪 60 年代,这些神经元可以被组织成一个有输入层和输出层的网络,人工神经网络可以被训练来解决某些简单的问题。

在训练过程中,神经网络为其神经元确定最佳权值,以降低误差。

图片

然而直到 1986 年以前,没有人知道如何有效地训练带有隐藏层的人工神经网络,直到 Hinton 发表了「反向传播算法」相关论文。

图片

对大脑来说反向传播是不可能的

反向传播的发明立即引起了一些神经科学家的强烈抗议,他们认为这种方法不可能在真正的大脑中起作用。

首先,虽然计算机可以很容易地在两个阶段实现该算法,但是对于生物神经网络来说,这样做并不简单。

其次,是计算神经科学家所说的权重传递问题:反向传播算法复制或「传输」关于推理所涉及的所有突触权重的信息,并更新这些权重以获得更高的准确性。

但是在生物网络中,神经元只能看到其他神经元的输出,而不能看到影响输出的突触权重或内部过程。

从神经元的角度来看,「知道自己的突触权重是可以的,你不能知道其他神经元的突触权重。」

图片

任何生物学上似乎可行的学习规则也需要遵守神经元只能从相邻神经元获取信息的限制;反向传播可能需要从更远的神经元获取信息。

因此,「如果你反向传播信号,大脑似乎不可能计算。」

更像生命体

2016 年,DeepMind 的 Timothy Lillicrap 提供了一个解决权重传递问题的特殊方法:使用一个随机值初始化的矩阵作为反向传递的权重矩阵,而不使用正向传递。

图片

一旦被赋值,矩阵中的值是恒定的,因此不需要为每个反向通道传输权重。让人惊讶的是,网络仍然是可训练的。

由于用于推理的正向权值和每次反向通道的更新频率一致,因此网络仍然沿着不同的路径减小误差。

正向权重慢慢地与随机选择的反向权重对齐,最终得到正确的答案,这种算法就是「反馈对齐」。

对于大规模的问题和具有更多隐藏层的更深层次的网络,反馈对齐不如反向传播好:因为正向权重的更新不如真正的反向传播信息准确,所以训练网络需要更多的数据。

在辛顿研究的基础上,本吉奥的团队在 2017 年提出了一个学习规则,要求神经网络具有循环连接 (也就是说,如果神经元 A 激活神经元 B,那么神经元 B 反过来激活神经元 A)。

图片

如果给这样一个网络一些输入,网络就会自我学习,每个神经元都与直接相邻的神经元来传递权重。

神经网络达到一个最终状态,在这个状态中神经元与输入以及彼此之间处于平衡,它产生一个输出,然后该算法将输出神经元推向预期结果。

这就通过网络设置了另一个反向传播的信号,引发了类似的动态。网络找到了新的平衡点。训练网络在大量的标记数据上重复这个「平衡传播」过程。

预测知觉

Beren Millidge 提出的预测编码 (predictive coding),也同样要求反向传播。「如果合理设置预测编码,将会生成一个在生物学上看起来很合理的学习规则。」

图片

预测编码假定大脑不断地对感觉输入的原因进行预测。这个过程包括了神经处理的层次结构。

为了产生特定的输出,每一层必须预测前一层的神经活动。如果最上层想要看到一张脸,那他就会预测前一层的活动来判断这种感知的预测。

前面的层对更前的层进行相似的预测,以此类推。最低层能够预测实际的感受输入,比如说光子落在视网膜上。

通过这种方式,高层的感知能力流向低层。

但是错误可能发生在任何一个网络中的任何一个层,每层的期望的输入和实际的输入之间的存在误差。

最底层根据接收到的感知信息调整突触的权重来降低误差。这个调整结果导致了更新后的高层和更上面一层之间的误差,因此更高层也必须调整突触的权重来降低预测误差。

这些错误信号向上逐层传递,直到每层的预测误差都达到最小值。通过适当的设置,预测编码网络可以收敛到和反向传播几乎相同的学习梯度值。

然而,对于反向传播运行一次来说,预测编码网络必须迭代多次。尽管如此,如果可以接受一定程度上不准确的预测结果,预测编码通常可以快速地得到有用的答案。

锥体神经元

一些科学家已经开始研究基于单个神经元的已知特性来构建类似反向传播的算法。

图片

标准神经元有树突,它们从其他神经元的轴突中收集信息。树突传递信号到神经元的细胞体来整合信号。

但并非所有的神经元都有这种结构。特别是锥体神经元,它在大脑皮层中有着最丰富的的神经元类型。

锥体神经元具有树状结构,有两套不同的树突。树干向上伸展,分枝形成所谓的顶端树突。

树干向上延伸,分枝形成顶端树突。根向下延伸,分枝形成基部树突。

图片

2001 年由 Kording 独立开发的模型已经表明锥体神经元能够同时进行向前和向后计算,可以作为深度学习网络的基本单元。

模型的关键是分离进入神经元的信号,包括前向推理或者向后的流动误差。这些误差可以通过基树突和顶树突分别处理。

这两种信号都可以编码在神经元传递到轴突电活动的尖峰中。

Richards 的团队最新研究表明,已经可以通过相当真实的神经元模拟,来训练锥体神经元网络去完成各种各样的任务。

没有人会告诉大脑神经元该打开 / 关闭

对于使用反向传播的深度网络,一个隐含的要求就是必须有「老师」来帮助计算神经元网络的误差。

但是,大脑中没有一个老师会告诉运动皮层中的每一个神经元,「你应该被打开,你应该被关闭。」

Roelfsema 认为大脑解决这个问题的方案是「注意力」。

在上世纪 90 年代后期,他和他的同事发现,当猴子盯着一个物体,在大脑皮层中表示该物体的神经元变得更加活跃。

猴子集中注意力的行为给相关的神经元一个反馈信号。

「这是一个高度选择性的反馈信号,它不是一个错误信号。他只是告诉这些神经元:你们负责这个动作。」

当这种反馈信号与其他神经科学的研究成果结合起来时,可以实现类似反向传播学习的效果。

剑桥大学的 Wolfram Schultz 和其他研究人员已经证明:当动物做一个行动产生比预期更好的结果时,大脑中的多巴胺系统就会被激活。

图片

「他让整个大脑充满了神经调节剂。多巴胺水平就像一个全局强化的信号。」

图片

理论上,注意力的反馈信号只能通过更新对应的突触权重来启动那些负责对整体强化信号做出反应的神经元。

Roelfsema 和他的同事利用这个想法构建了一个深层神经网络,并且研究了数学属性,得到的是和反向传播基本相同的等式,但在生物学上有了合理的解释。

这个团队在 NIPS 上展示了这项工作,它可以被训练成深层次的网络,这只比反向传播慢两到三倍,比其他所有生物学相关的算法都要快。

鉴于这些进步,计算神经学家们对未来的发展十分乐观。

Hinton 提出的反向传播,并且是深度学习的大大牛,但是现在他一直在否定自己的工作,提出胶囊网络还有其他工作来增加生物学上的解释。

参考资料:

https://www.quantamagazine.org/artificial-neural-nets-finally-yield-clues-to-how-brains-learn-20210218/


人如何一步步成为经验的奴隶?

原创 Chantel Prat 酷炫脑 2022 年 08 月 24 日 20:00 湖北

图片

Via:Rozie

作者 |Chantel Prat

翻译 | 棉花熊

审校 | 酷炫脑主创

朗读 | 鸽仔

美工 | 老雕虫

编辑 | 加薪

大脑是由我们的经验塑造的,这样我们就可以适应各种不同的情况

我们对新冠疫情初期第一次接到 “待在家里” 命令的那一天记忆犹新。我的态度很快从 “可能是暂时的吧,就像暴雪天在家一样” 的感觉转变为感觉像一只被关在笼子里的鸟。作为一个性格外向又不喜欢被人指手画脚的人,这个转变是非常艰难的。

但是你知道吗?我已经习惯了。尽管这场大流行病无疑对你们一些人的生活影响更大,但我知道它以我们永远不会忘记的方式影响着我们每一个人。现在,经过两年的计算,我确信,每一个读到这篇文章的人都与疫情开始时的态度有根本的不同。

因为我们的大脑就是这样工作的。它们是由我们的经验塑造的,这样我们就可以适应各种不同的情况**。

这实际上是我们大脑中最具人性的东西之一。事实上,根据当代人类进化的一些观点,我们的祖先经历了一场 “认知革命”,正是因为他们被迫适应环境。有证据表明,在极端天气不稳定的时期,我们祖先的大脑体积会增加,对于我们大脑的灵活性,一个流行的解释是,无法适应环境变化的原始人类没有生存下来。换句话说,现代人类的大脑因其学习和适应不断变化的环境的能力而被选中。

但这种显著灵活性的主要代价之一是:人类生来就没有任何关于事物如何运作的先入为主的概念。如果你和某人谈论过一件你们都参与过的事情,你可能会觉得你们中的一个人有妄想症,因为你们的故事太不一样了,你可能会发现你的经历在多大程度上塑造了你理解周围世界的方式。这可能会令人抓狂,因为 —— 让我们面对现实吧 —— 我们自己的大脑在构建我们个人版本的现实时,真的很有说服力。还记得蓝金裙子之争吗?虽然当别人看到的与你的不同时,你会感觉说服别人你所看到的像是在操控别人,但也完全有可能你们都在说自己眼见为实的真相。

图片

图源互联网

你的经历塑造你的大脑最重要的方式之一是通过一个被称为赫布理论(Hebbian Learning)的过程。从本质上说,赫布理论(Hebbian Learning)是一种生物机制,它让你的大脑保持一套关于事物在你的环境中发生的频率的统计数据。

就像运动队会保存球员的统计数据,并利用这些数据来决定谁首发谁会被转移到别的俱乐部一样,你的大脑也有一种方法来 “计算” 不同类型事件发生的频率,并在接收到不完全信息的情况下,使用这个系统来找出最有可能发生的事情。

幸运的是,**你的大脑统计数据的方式不需要你进行任何计算。**相反,这自动发生在八卦神经元之间的连接中 —— 在决定谁在和谁说话以及说话声音有多大的空间中。时间对于组织这种交流非常重要。事实证明,这对学习也很重要。

当两个靠近的神经元几乎同时兴奋时,它们之间的联系会加强,增加了其中一个接收到另一个的信息的可能性。虽然赫布理论的实际原则比这要微妙一些,但我始终记得我在本科时第一次学到的那句吸引人的口号:“一起激发的神经元,连接在一起。” 这种情况发生得越频繁,两个神经元之间的连接就越强。这是你的大脑把这些点连接起来的方式。它假设,如果事件 A 和事件 B 几乎总是同时发生,它们是同一 “神经事件” 的一部分。一旦发生了这种情况,即使你的大脑只得到了 A 在外部世界发生的证据,它也可能会假设 B 也发生了,并会为你创造那种体验。

图片

Via:《绿皮书》

我想具体说明,在发展你的观点时,什么才 “算” 是经验。简单地说,**你从所有的神经经验中学习。**从你的大脑的角度来看,通过它的信号是否来自于你在外部世界看到的东西、白日梦的幻想,或者是有意想象你潜在的未来,这并不重要。每一个相应的电风暴都会塑造你大脑数据库的格局。

几乎所有人都有一个共同的经历,它对你的思想和大脑有广泛的影响,那就是我们所说的语言**。这是因为语言是我们思考、感觉和行为方式的中心,我们醒着的大部分时间都在使用它。

如果你只懂一种以上的语言,或者你的第二语言知识有限,又或者是后天习得的 (例如,青春期后),那么你的大脑会只适应你的第一语言,相比起那些拥有更多样的语言经历的人。这样做的一个好处是,你的大脑可能比学过多种语言的人的大脑更容易使用这一种语言。粗略地说,也就是说多种语言的人在使用他们的统计数据来理解或产生一种语言时有更多的选择。在使用任何特定的语言之前,他们需要解决它们之间的竞争。这意味着他们需要多花几分之一秒的时间来获取他们需要使用的任何语言信息,即使是用他们最熟练的语言。

但广泛接触不同类型的统计数据也有好处。接触多种语言的人不仅有更丰富的行为选择,他们在决定如何行为时也可能会考虑更多的信息 —— 比如他们认为哪种语言在当前环境下最合适。但是考虑到 “在野外” 的不同回应方式的成本肯定会增加。简而言之,大脑暴露的范围越广,在任何特定环境或背景下的处理速度就会越慢,但这也能让一个人为更多的情况做好准备。

图片

唐纳德 赫布

我们大多数人都知道,**在孩提时代学习语言比成年后学习语言要容易得多。**这就提出了一个问题:有多少学习是在生命的早期阶段进行的,我们又能在多大程度上适应以后的生活?简而言之,大脑的不同部位有不同的适应窗口。

为了简化,我们可以根据对经验开放的程度和持续的时间,将大脑区域分成三种类型。**第一种类型,几乎完全由大脑中控制维持生命的功能的部分组成,是独立于经验的。**这些是大脑中调节呼吸、心率和体温等关键功能的部分,这些功能在不同的环境中变化不大。

下一个是经验期待区。**大脑的这些部分注定要学习与解释关于 “外面” 世界的特定类型的信息,因为它们天生就能从我们的感官接收信息。例如,在正常发育的婴儿中,通过眼睛进入的光线被传送到大脑后部的枕叶皮层,通过耳朵进入的声音被传送到大脑两侧颞叶的听觉皮层,通过鼻子进入的气味被位于大脑前部底部的嗅球处理。我们必须学会识别我们看到的、听到的和闻到的东西,这使得人类婴儿能够在他们出生的环境中成长。

但是,许多期待经验的区域也有接受输入的 “关键时期”。在生命之初,它们等待数据,并且具有不可思议的可塑性。但随着你年龄的增长,这些区域积累了关于周围世界的信息,它们在处理它们期望看到的事物时变得越来越顽固,而且很少受到外部世界新经验的影响。

幸运的是,我们大脑的某些部分在我们一生的大部分时间里都保持着可塑性**。这些是大脑中依赖经验的部分。其中包括我们大脑皮层的大部分 “联系” 区域,包括那些让我们在一生中获得新词汇的区域。

最关键的经验依赖区域之一是额叶,它支持人类适应环境的大部分灵活行为。基底神经节核也依赖于经验。**事实上,它们可以说是适应性最强的大脑区域之一,因为它们富含增加神经可塑性的多巴胺交流信号。这对塑造大脑的决策过程至关重要。

图片

图源互联网

不幸的是,这些依赖经验的区域也会把我们引向一些死胡同:例如,它们塑造了我们关于种族、年龄、性别和性取向的隐性偏见。**即使这些偏见涉及到我们学习在同一时间或同一背景下发生的高级概念与另一个概念相关联的方式,它们仍然会以令人不安的方式影响我们对世界的早期感性理解。

一个明显的例子,在世界各地的实验室中,在不同的人群和不同的条件下,被反复证明的是,当一个模糊的物体被放在一张黑人的脸旁边时 (在空间或时间上),人们更有可能报告说看到了武器。

Keith Payne 在 2001 年首次证明了这种效应。在两个实验中,佩恩向 60 名非黑人参与者展示了一系列工具或手枪的黑白图片,这些图片在屏幕上快速闪烁,时间为五分之一秒,并要求他们指出他们看到了什么。问题在于,在两个实验中,在每个要被识别的物体前都有一张黑人或白人男性的脸。研究参与者被告知,这些面孔只是物体即将到来的提示;他们不被期望与物体有任何关系,事实上他们也没有。在工具和手枪面前,黑人和白人的面孔同样频繁出现。尽管如此,佩恩的参与者发现,根据他们的反应时间,当看到一张黑人面孔时比看到一张白人面孔时更容易识别出手枪。随着黑人的面孔,枪比工具更容易被识别,尽管当它们随着白人的面孔时,两者同样容易被识别。

虽然这种影响的规模很小,但它反映的关于学习和参与者的大脑的信息是重要的。在实验中,在黑人面孔后面显示枪支是最容易识别的事情,这一事实表明,平均而言,参与者的神经数据库在黑人面孔和枪支之间包含了足够强的联系,从而在他们的大脑中创建了一条捷径。换句话说,为什么人们在看到黑人面孔后能更快地识别出枪支,最直接的解释是,当他们单独看到黑人面孔时,他们的大脑已经开始填补空白,构建武器的概念。

对任何能看到新闻的人来说,这一事件的致命后果是显而易见的。不幸的是,这项原始研究基本上没有回答一个关键问题:我们如何修复它?首先要弄清楚导致这些偏见的数据来自哪里。尽管很多美国人拥有枪支,但很难相信这些研究中的普通大学生在现实生活中与黑人和枪支有过很多 (或任何) 经历。那么,这些捷径从何而来呢?

图片

Via:《绿皮书》

简单地说,**你在现实生活中对某一特定类型的人、地点或事物的体验越少,你大脑对该主题的数据库条目就越有可能是基于你在电视上看到的,或在新闻中读到的,在社交媒体上,或在虚构的描述中接收到的。**因此,如果你在电视上看到的黑人面孔更有可能拿着枪,而不是听诊器,你的大脑就会认为这是真实的,并将其纳入你所看到的基于经验的透镜中。

通过这种方式,当我们消费他人创造的现实版本时,我们的许多大脑实际上受到了社会系统性偏见的影响。这些偏见会以一种快速而自动的方式影响我们理解世界的方式。这让我想到了另一个重要的区别 —— 参与这项研究的人,他们的大脑中有这种类型的捷径,他们不一定对什么样的人携带枪支持有有意识的、明确的想法。事实上,你的外显信念和你的经验数据库完全可以互相矛盾。

你可能会认为内隐偏见是过度适应的结果,当大脑在一个比你想要生活的更狭窄的环境中变得根深蒂固时,就会发生这种情况。当我们开始从比通常更狭窄的流行病隔离泡沫中摆脱出来时,意识到这种过度适应似乎就更加重要了。

为了纠正我们大脑中的捷径,我们可以让自己接触到各种各样的真实世界的经历,允许从不同角度讲述的故事来塑造我们。如果我们能更有意识地考虑我们向大脑灌输什么样的体验,我们就能帮助塑造未来自我适应世界的方式。

图片

Via:《绿皮书》

参考文献

1.The Neuroscience of You: How Every Brain Is Different and How to Understand Yours by Chantel Prat, Ph.D., published on August 2, 2022 by Dutton, an imprint of Penguin Publishing Group, a division of Penguin Random House, LLC. Copyright © 2022 by Chantel Prat.


赫布定律:为什么有些坏习惯很难打破?

原创 胡风 胡风笔记 2023 年 12 月 14 日 17:24 湖南

你是否有遇到下面这些情况

自己明明在做自己不想做的事情,但又一直还在做,没有停止?

为什么一个人重复喝酒的次数越多,喝酒的冲动就会变得越来越强烈?

我们可能在赫布定律中找到答案。

01 赫布定律

赫布定律是心理学家唐纳德・赫布(Donald Olding Hebb)提出的关于神经元之间联系的变化规律的定律。赫布的理论认为在同一时间被激发的神经元间的联系会被强化。

例如,在一个实验中,研究人员对狗进行训练,通过摇铃铛激发狗的铃铛连接,然后再给狗喂狗粮,激发狗的口水连接。在训练之前,铃铛连接和口水连接没有关系,但是通过训练,这两个连接组被强化了,形成了新的细胞回路。

另一个案例是关于记忆的研究。研究人员发现,当人们学习新的知识时,大脑中的神经元会形成新的连接。这些新的连接会被强化和巩固,从而形成记忆。

比如幼儿园老师教小朋友认识苹果,会拿着苹果的卡片,然后大声朗读 “苹果”,反复多次后,一条新的神经元通路就建立起来。以后再听到苹果,小朋友就迅速想到那个圆圆的苹果。

赫布定律可以解释为什么人们在学习新知识时需要反复练习和重复,以及为什么在学习之后进行复习可以提高记忆效果。

02 为什么坏习惯难打破

简单来说,大脑中的神经元使用越频繁,它们之间的连接就越强,越牢固。我以戒烟为例,为何人们开始抽烟后就很难停下来?

有没有上班起不来的朋友?假设你来到一个新公司上班,最开始是 8 点上班,你也许会在 7:50 左右赶到,慢慢地变成 7:57,再慢慢地变成 8:00,最后变成迟到赶不上偶尔发生。

此时,你会怀疑是不是 8 点上班太早了。但是换一种情况,夏天来了,公司改成了 8:30 上班,你还会重复上面的情况,这到底是为什么呢?

比如 8 点打卡上班,你错过了一辆地铁后,感觉会被领导骂,于是抽了一根烟以缓解压力。尼古丁的香味,使你放松了下来。

此时,你的大脑开辟了一条新的神经元通路,迟到带来的压力和抽烟降压联系起来。而你以后每次迟到,这种情况就会加强。曾经的一次迟到,变成了一种新习惯。本来是一个解决迟到压力的方案,却变成了一个新的永久的,痛苦的问题。

多年以前,我经常年初制定 Flag,到了年底被频发打脸,于是又重新立 Flag,然后又被打脸。此时,我年底立 Flag 目的,是为了缓解没有完成目标的快速解决方案,但是它并没有从根源上帮我解决问题。

此时,也就是赫布定律提到的,当神经细胞以相同的模式反复激活时,它们最终会形成大脑回路。一旦建立了回路,每次出现类似情况时,回路中涉及的大脑区域都会以相同的方式自动响应。这会导致电路变得更坚固,并养成和保持习惯。

最好的办法是什么?不是年底立新的 Flag,而是完成一件又一件小事情。不要想着快速解决,而是哪些习惯能从根源上解决。当我们遇到目标没有达成时,我们就去做小事情,这样一来,做小事情的习惯和没有达成目标绑定起来。于是,我们就真的就能完成制定的目标。

03 赫布定律的应用

应用赫布定律可以帮助我们解决工作、生活中多种问题:

1.学习与记忆:赫布定律解释了为什么重复和练习对于学习和记忆是重要的。通过反复刺激神经元之间的连接,我们可以强化它们,从而提高记忆和学习的效果。例如,在准备考试时,重复学习和练习是关键,因为这可以帮助我们加强大脑中的相关神经元连接,从而更有效地记住和应用知识。

2.团队协作:赫布定律也可以应用于团队协作。当团队成员经常一起工作并取得成功时,他们之间的联系会被强化,形成一个有效的团队回路。这种团队回路可以提高团队的效率和协作能力。例如,在工作中,如果一个团队成员经常与另一个成员合作并取得成功,那么他们之间的信任和合作能力会增强,从而提高整个团队的工作效率。

3.习惯养成:赫布定律也可以应用于习惯养成。通过重复某种行为,我们可以强化与这种行为相关的神经元连接,从而形成习惯。例如,如果我们每天早晨都锻炼,那么与锻炼相关的神经元连接会被强化,从而更容易养成锻炼的习惯。

4.问题解决:赫布定律还可以应用于问题解决。通过反复思考和尝试不同的解决方案,我们可以强化与问题解决相关的神经元连接,从而更有效地找到解决方案。例如,在工作中遇到难题时,我们可以尝试不同的解决方案,并反复思考和尝试,从而找到最有效的解决方案。

很多时候,大脑会欺骗我们。我们很多自动自发的行为,误以为是最好的解决方案;但是这些简单行为的重复,反而加强了问题解决的难度;用一种新的坏习惯来代替老的坏习惯,最终让问题越来越难解决。

其实,很多的 “拖延癌” 就是这么来的。简单粗暴的解决方案,科学家称此为喂养怪物。


(1949 年)基于神经心理学的学习机制 —— 赫布学习规则

曲靖妇女儿童中心 麒麟区青少年校外活动中心 2021 年 01 月 20 日 20:05 云南

1949 年,唐纳德・赫布基于神经心理学的学习机制,踏出了学习的第一步,创造了此后被称为赫布学习规则的方法。赫布认为神经网络的学习过程发生在神经元之间的突触部位,突触的联结强度随着突触前后神经元的活动而变化,正确的反馈会让两个神经元的联系得到强化。这个原理机制类似巴普洛夫的条件反射实验:每次给够喂食前都响铃,时间一长,够的神经系统就会将铃声和食物联系起来。

赫布用一套加权公式来模仿人类的神经网,权重就代表神经元之间联系的强弱。赫布给机器创造了一套可以简单区分事物的方法,对于每个数据,让决策程序做出判断,判断对了就奖励,判断错了就惩罚。他利用这个方法创造了一个分类器,可以提取数据集的统计特性,把输入信息按照它们的相似程度划分为若干类。

看上去如同人类在观察某种现象时,会观察和总结并区分事物,但机器的这种 “观察” 更接近一种通过训练达成的条件反射,并非如人类那样思考,重视的是数据中蕴含的相关性关系,而非人类思维中的因果性关系。

图片

Hebb 学习规则是一个无监督学习规则,这种学习的结果是使网络能够提取训练集的统计特性,从而把输入信息按照它们的相似性程度划分为若干类。这一点与人类观察和认识世界的过程非常吻合,人类观察和认识世界在相当程度上就是在根据事物的统计特征进行分类。Hebb 学习规则只根据神经元连接间的激活水平改变权值,因此这种方法又称为相关学习或并联学习。

由赫布提出的 Hebb 学习规则为神经网络的学习算法奠定了基础,在此基础上,人们提出了各种学习规则和算法,以适应不同网络模型的需要。有效的学习算法,使得神经网络能够通过联结权重的调整,构造客观世界的内在表征。

赫布理论

是一个神经科学理论,解释了在学习的过程中脑中的神经元所发生的变化。赫布理论描述了突触可塑性的基本原理,即突触前神经元向突触后神经元的持续重复的刺激,可以导致突触传递效能的增加。赫布理论解释了神经元如何组成联接,从而形成记忆印痕。

图片

赫布理论阐明了细胞集群(Cell Assemblies)的形态和功能:“两个神经元或者神经元系统,如果总是同时被激发,就会形成一种‘组合’,其中一个神经元的激发会促进另一个的激发。” 赫布同时写道:“如果一个神经元持续激活另一个神经元,前者的轴突将会生长出突触小体(如果已有,则会继续长大)和后者的胞体相连接。”

在人工神经网络中,突触间传递作用的变化被当作是(被映射成)神经元网络图中相应权重的变化。如果两个神经元同步激发,则它们之间的权重增加;如果单独激发,则权重减少。赫布学习规则是最古老的也是最简单的神经元学习规则。

表达意义

由赫布提出的 Hebb 学习规则为神经网络的学习算法奠定了基础,在此基础上,人们提出了各种学习规则和算法,以适应不同网络模型的需要。有效的学习算法,使得神经网络能够通过联结权重的调整,构造客观世界的内在表征。

Hebb 学习规则与 “条件反射” 机理一致,并且已经得到了神经细胞学说的证实。

巴甫洛夫的条件反射实验:每次给狗喂食前都先响铃,时间一长,狗就会将铃声和食物联系起来。以后如果响铃但是不给食物,狗也会流口水。

受该实验的启发,Hebb 的理论认为在同一时间被激发的神经元间的联系会被强化。比如,铃声响时一个神经元被激发,在同一时间食物的出现会激发附近的另一个神经元,那么这两个神经元间的联系就会强化,从而记住这两个事物之间存在着联系。相反,如果两个神经元总是不能同步激发,那么它们间的联系将会越来越弱。


via:

  • 赫布定律 馥墨轩 2021 年 03 月 13 日 00:03
    https://mp.weixin.qq.com/s/GocwOkuemA6WgVoJihcnlw

  • 赫布法则(Hebb’s rule)与机器学习 Neuro 科学和人工智能 2022 年 10 月 24 日 20:16 上海
    https://mp.weixin.qq.com/s/gYceJ8DuqeoKTCrSsgLPTw

  • 反向传播和生物学没关系?NO!大牛告诉你:在反向传播基础上找到生物学解释 新智元 2021 年 02 月 24 日 17:52
    https://mp.weixin.qq.com/s/_mzsSmEZlQDEe_3y7rVTsw

  • 人如何一步步成为经验的奴隶?原创 Chantel Prat 酷炫脑 2022 年 08 月 24 日 20:00 湖北

    https://mp.weixin.qq.com/s/UiFc3wKq3W28VwW6SMtr1A

  • 赫布定律:为什么有些坏习惯很难打破?原创 胡风 胡风笔记 2023 年 12 月 14 日 17:24 湖南
    https://mp.weixin.qq.com/s/V5-nKYUAwuVvgajG_1vJoQ

  • (1949 年)基于神经心理学的学习机制 —— 赫布学习规则 曲靖妇女儿童中心 麒麟区青少年校外活动中心 2021 年 01 月 20 日 20:05 云南
    https://mp.weixin.qq.com/s/uvijPNIwULpOc0X5oRD2rQ

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/63257.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

各个数据库优劣势对比

1.关系型数据库(RDBMS) 优势: • 数据一致性:通过严格的事务处理和ACID(原子性、一致性、隔离性、持久性)特性,确保数据的一致性和完整性。 • 易于理解和使用:关系型数据库的表结构…

Excel中如何消除“长短款”

函数微调可以可以实施,简单且易于操作的气球🎈涨缩更妙。 (笔记模板由python脚本于2024年12月17日 06:19:13创建,本篇笔记适合用Excel操作数据的coder翻阅) 【学习的细节是欢悦的历程】 Python 官网:https://www.python.org/ Fre…

RJ45 网线线序、E1线线序、2B+d线序

1、RJ45 网线线序 线序排列如下: T568A线序:绿白—1,绿—2,橙白—3,蓝—4,蓝白—5, 橙—6,棕白—7,棕—8 T568B线序:橙白—1,橙—2&#xff0c…

Fortify_SCA_v24.2.0

前言 Fortify SCA 支持丰富的开发环境、语言、平台和框架,可对开发与生产混合环境进行安全检查。25 种编程语言 超过 911,000 个组件级 API 可检测超过 961 个漏洞类别 支持所有主流平台、构建环境和 IDE。 Fortify SCA是一款商业软件,价格较为昂贵&am…

rust的axux框架开启负载均衡和重启自身的方法-会议签到的调优

开启负载均衡和重启自身 更换axum后台的意外解决的尝试在caddy反代,使用负载均衡,加多一个节点axum主程序 ip映射信息做全局共享axum重启自身刷新全局共享配置 前期刚实现了rust的后台关键业务.结果出现了两类大问题停止服务.在正用着的时候,出现很多意外,真是刺激… 更换axum…

深入理解数据库索引:原理、分类与优化

目录 1. 索引基础1.1 索引的工作原理 2. 最左匹配原则2.1 什么是最左匹配原则?2.2 示例说明2.3 最左匹配原则的图示 3. 索引分类3.1 按数据结构分类3.2 按索引列数分类3.3 按唯一性分类3.4 按存储方式分类 4. 聚集索引与非聚集索引的区别4.1 聚集索引4.2 非聚集索引…

Three.js相机Camera控件知识梳理

原文:https://juejin.cn/post/7231089453695238204?searchId20241217193043D32C9115C2057FE3AD64 1. 相机类型 Three.js 主要提供了两种类型的相机:正交相机(OrthographicCamera)和透视相机(PerspectiveCamera&…

一条线上的点

给你一个数组 points &#xff0c;其中 points[i] [xi, yi] 表示 X-Y 平面上的一个点。求最多有多少个点在同一条直线上。 提示&#xff1a; 1 < points.length < 300points[i].length 2-104 < xi, yi < 104points 中的所有点 互不相同 解析&#xff1a;使用斜…

XX服务器上的npm不知道咋突然坏了

收到同事的V&#xff0c;说是&#xff1a;182上的npm不知道咋突然坏了&#xff0c;查到这里了&#xff0c;不敢动了。 咱一定要抓重点&#xff1a;突然坏了。这里的突然肯定不是瞬间&#xff08;大概率是上次可用&#xff0c;这次不可用&#xff0c;中间间隔了多长时间&#x…

HALCON 算子 之 形态学操作算子

文章目录 什么是形态学操作&#xff1f;为什么要形态学操作&#xff1f;怎么形态学操作&#xff1f;腐蚀 —— Erosionerosion1erosion_circle&#xff1a;erosion_rectangle1&#xff1a; 膨胀 —— Dilationdilation1dilation_circledilation_rectangle1 打开 —— Openingop…

pytest入门九:feature

fixture是pytest特有的功能&#xff0c;用以在测试执行前和执行后进行必要的准备和清理工作。使用pytest.fixture标识&#xff0c;定义在函数前面。在你编写测试函数的时候&#xff0c;你可以将此函数名称做为传入参数&#xff0c;pytest将会以依赖注入方式&#xff0c;将该函数…

秒优科技-供应链管理系统 login/doAction SQL注入漏洞复现

0x01 产品简介 秒优科技提供的供应链管理系统,即秒优SCM服装供应链管理系统,是一款专为服装电商企业设计的全方位解决方案。是集款式研发、订单管理、物料管理、生产管理、工艺管理、收发货管理、账单管理、报表管理于一体的服装电商供应链管理解决方案。它涵盖了从企划到开…

136.WEB渗透测试-信息收集-小程序、app(7)

免责声明&#xff1a;内容仅供学习参考&#xff0c;请合法利用知识&#xff0c;禁止进行违法犯罪活动&#xff01; 内容参考于&#xff1a; 易锦网校会员专享课 上一个内容&#xff1a;135.WEB渗透测试-信息收集-小程序、app&#xff08;6&#xff09; 进入之后我们通过输入…

K近邻原理和距离

K近邻 基本思想欧氏距离算法流程代码基于近邻用户的协同过滤基于近邻物品的协同过滤杰卡德相似度 基本思想 我们根据涂色样本点和未涂色样本点 X 的距离给涂色样本点编号1-6&#xff0c;即&#xff1a;1号样本点距离X最近&#xff0c;其余次之。 那么问题来了&#xff1a;样本…

模型 A/B测试(科学验证)

系列文章 分享 模型&#xff0c;了解更多&#x1f449; 模型_思维模型目录。控制变量法。 1 A/B测试的应用 1.1 Electronic Arts&#xff08;EA&#xff09;《模拟城市》5游戏网站A/B测试 定义目标&#xff1a; Electronic Arts&#xff08;EA&#xff09;在发布新版《模拟城…

Git merge 和 rebase的区别(附图)

在 Git 中&#xff0c;merge 和 rebase 是两种用于整合分支变化的方法。虽然它们都可以将一个分支的更改引入到另一个分支中&#xff0c;但它们的工作方式和结果是不同的。以下是对这两者的详细解释&#xff1a; Git Merge 功能&#xff1a;合并分支&#xff0c;将两个分支的…

耐蚀镍基合金的焊接技术与质量控制

耐蚀镍基合金是一类在腐蚀环境中具有优异性能的合金材料&#xff0c;广泛应用于化工、海洋工程、石油天然气等领域。其焊接技术与质量控制对于确保合金的使用性能和安全性至关重要。以下是对耐蚀镍基合金焊接技术与质量控制的详细探讨。 一、焊接技术 焊条选择 耐蚀镍基合金的焊…

机器视觉与OpenCV--01篇

计算机眼中的图像 像素 像素是图像的基本单位&#xff0c;每个像素存储着图像的颜色、亮度或者其他特征&#xff0c;一张图片就是由若干个像素组成的。 RGB 在计算机中&#xff0c;RGB三种颜色被称为RGB三通道&#xff0c;且每个通道的取值都是0到255之间。 计算机中图像的…

操作系统(14)请求分页

前言 操作系统中的请求分页&#xff0c;也称为页式虚拟存储管理&#xff0c;是建立在基本分页基础上&#xff0c;为了支持虚拟存储器功能而增加了请求调页功能和页面置换功能的一种内存管理技术。 一、基本概念 分页&#xff1a;将进程的逻辑地址空间分成若干个大小相等的页&am…

git企业开发的相关理论(一)

目录 一.初识git 二.git的安装 三.初始化/创建本地仓库 四.配置用户设置/配置本地仓库 五.认识工作区、暂存区、版本库 六.添加文件__场景一 七.查看 .git 文件/添加到本地仓库后.git中发生的变化 1.执行git add后的变化 index文件&#xff08;暂存区&#xff09; log…