国科大高级人工智能-总结

文章目录

  • 1.概论
  • 2. 搜索
    • A\*最优性
    • 三个传教士与野人
  • 3.神经网络
    • RBM DBN DBM hopfield比较
    • 结构及特性
    • 逐层贪婪训练与CD
    • BP
    • GAN
  • 4.逻辑
    • 一个永远无法归结结束的FOL
    • 合取范式规范化
    • 归结原理
    • 4.1resolution是完备的、可靠的
    • Modus ponens
    • 4.1 蕴含与包含的证明
    • 蕴含与implication的关系
  • 5. 模糊数学和遗传算法
  • 6. 强化学习
  • 7. 群体智能
  • 8. 博弈
    • 田忌赛马
  • 剪刀石头布
    • 性别之战
    • 拍卖
    • 讨价
      • 讨价的情形
    • 打官司
    • 海盗分金币
    • 匹配问题分宿舍
    • 中介

1.概论

  1. 图灵测试:表明其智能水平从表现来看,难以和人区分开来
  2. 三个学派:
    • 符号学派
    • 联结学派
    • 行为学派

2. 搜索

  1. 广度优先搜索是代价一致搜索的特例(无权的)
  2. UCS是A*的特例
    • A*=UCS+贪婪搜索
    • UCS:看已经花费的
    • 贪婪搜索:启发搜索,看未来(TSP-距离目标的直线距离)
    • A*:过去未来都看
  3. 贪婪最佳优先搜索:是不完备的
  4. 爬山法:可以任意位置起始,移动到最好的相邻状态。
  5. 最优条件:
    • A*树搜索:h(n)可采纳
      • h(n)<=h*(n)
    • A*图搜索:h(n)是一致的
      • h(A)-h©<=cost(A to C)
      • h(A)>h©–递减
      • f(A)<f©(连续性?)
  6. 避免重复状态
    • 如果算法不检测重复状态,线性问题会变成指数问题
算法名称算法策略时间复杂度空间复杂度完备性最优性存储
DFS(深度优先)深度优先(从左往右,得到最左结果,O(bm)O(b^m)O(bm)O(bm)O(bm)O(bm)(不完备)有限就有解堆栈
Depth-limited(深度优先)深度优先,限制最长搜索深度,超过就换一条O(bl)O(b^l)O(bl)O(bl)O(bl)O(bl)(不完备)m有限就有解堆栈
Iterative-Depth(深度优先)逐层限制深度,使用DFS(DFS的空间+BFS的最优)O(bd)O(b^d)O(bd)O(bd)O(bd)O(bd)有解,s必然有限堆栈
BFS宽度优先,会得到最浅层的解O(bd)O(b^d)O(bd)O(bd)O(b^d)O(bd)有解,s必然有限(完备)最优(无权时才最优队列
UCS(代价一致搜索优先队列BFS,考虑当前代价(优先级),BFS是UCS的特例,g(x)O(b[C∗/ϵ])O(b^[C^*/\epsilon])O(b[C/ϵ])O(b[C∗/ϵ])O(b^[C^*/\epsilon])O(b[C/ϵ])完备最优优先队列
启发式搜索使用额外信息(如到终点的长度)–启发函数h(x)-----
贪婪搜索h(x)最好的先扩展快速,最坏同DFS(全树扩展)-(完备)最大问题在于往往找不到最优解优先队列
A*UCS+贪婪,优先级用f(x)=g(x)+h(x),目标出列时才停止指数指数(完备)实际h>估计h,且目标出列时结束的情况,最优(往好了估计)花费的话小的优先队列
A*图搜索去除树中重复节点(一个状态则不扩展)(保证h(A)<=实际,且h(A)-h©<=弧cost(一致性)指数指数(不完备)完备(树有的状态他都有)弧一致时最优优先队列
算法名称方向最优
贪婪快速地向目标方向扩展,不一定能够得到最优解
UCS所有方向等可能扩展能够得到最优解
A*朝着最优解方向扩展能够得到最优解
算法名称算法策略时间复杂度空间复杂度完备性最优性
爬山法(如SGD)1.任意位置起始,2.移动到最好的相邻位置,3.无最好则结束--(不完备)
模拟退火(从爬山法改进)1.任意位置起始,2.移动到最好的相邻位置,3.不好的状态则以eΔE/Te^{\Delta E/T}eΔE/T概率接受--(不完备)下降够慢,则最优
遗传算法1.选最好的N个(基于适应度函数),2.这几个配对,并杂交,3.随机变异各串中的一个,重复--(不完备)

A*最优性

  • 证明A*树搜索最优(使用了可采纳启发)
    • B-次优,A-最优,h-可采纳的,证明A在B前离开边缘集合(出队列)
      • 假设B和A的祖先n在边缘集合上
      • 那么,n会在B之前被扩展
        1. f(n)<=f(A)(因为还未到达终点,f(A)=g(A)就是实际全程耗散)
        2. f(A)<f(B)(g(A)<g(B),且h(A)=h(B)=0到达终点了)
        3. 所以,n先扩展
      • 所以A的所有祖先都在B之前扩展
      • A在B之前扩展
      • 所以,A*最优
  • A*图搜索最优?
    • 前提:一致性–就是可采纳性
      • h(A)<=实际,
      • 且h(A)-h©<=弧cost(一致性)
    • 采用一致的h(启发函数,所以
      1. f单调递增
      2. 对每个状态s,到达s最优的节点,优于次优
      3. 所以是最优的
    • 证明
      • 假定到达G*(最优值)的路径上某个n不能进入队列,因为某个具有相同状态且较差的n’先被扩展了
      • 找到树中最高的这个节点n
      • p是n的祖先,且n’出列时在队列里
      • f§<f(n)(递增
      • f(n)<f(n’)次优
      • p应该在n’之前被扩展
      • 矛盾
      • 得证先到达G*

三个传教士与野人

在这里插入图片描述

  • M-左岸传教士数目
  • C-左岸野人数目
  • B-左岸是否有船
  • Pcm-有c个传教士,m个野人从左岸到右岸
  • Qcm-有c个传教士,m个野人从右岸到左岸
  • 问题有解所必须的特性
    • M>=C且(3-M)>=(3-C)<==>M=C
    • 或者M=0,M=3
  • 安全状态(以左岸为例):
    1. 传教士与野人的数目相等;
    2. 传教士都在左岸;
    3. 传教士都不在左岸。
  • 完全状态图:不满足约束的不在图内)
    在这里插入图片描述

3.神经网络

  1. DBN(深度置信网络)网络结构由多个RBM层叠而成
  2. CNN的特点
    • 局部连接
    • 参数共享
    • 子采样
  3. 决策树
    • 信息熵
      • 系统不确定性的度量
      • 系统永久恒定在某一状态后,该系统的信息熵最小
      • 除了香农熵,有多种定义方式
      • Ent(D)=−Σk=1∣y∣pklogpkEnt(D)=-\Sigma_{k=1}^{|y|} p_klogp_kEnt(D)=Σk=1ypklogpk
        • 纯度越高,值越小
    • 信息增益
      • 决策树划分节点依据信息增益来
      • Gain(D,a)=Ent(D)−Σv=1V∣Dv∣∣D∣Ent(Dv)Gain(D,a)=Ent(D)-\Sigma_{v=1}^V\frac{|D^v|}{|D|}Ent(D^v)Gain(D,a)=Ent(D)Σv=1VDDvEnt(Dv)
      • 选择增益大的划分
    • 条件熵
      • 是条件熵Σv=1V∣Dv∣∣D∣Ent(Dv)是条件熵\Sigma_{v=1}^V\frac{|D^v|}{|D|}Ent(D^v)Σv=1VDDvEnt(Dv)
      • 信息增益应该是使得条件熵变小
      • –>决策树让条件熵变小
  4. 感知机不可解决异或问题
    • 因为感知机只在线性可分问题下收敛(有限步内收敛)
      • 感知机收敛定理:线性可分则收敛
        • w、x是增广得到的
        • 若数据集可分,
          • 存在w∗(∣∣w∗∣∣=1),γ>0,使得ytw∗xt≥γw^*(||w^*||=1),\gamma>0,使得y_tw^*x_t\geq \gammaw(w=1),γ>0,使ytwxtγ
        • 令最终分离超平面参数为w∗(∣∣w∗∣∣=1)w^*(||w^*||=1)w(w=1)
          • wkw∗=(wk−1+xtyt)w∗≥wk−1w∗+γ≥...≥kγw_kw^*=(w_{k-1}+x_ty_t)w^* \geq w_{k-1}w^* + \gamma \geq ...\geq k\gammawkw=(wk1+xtyt)wwk1w+γ...kγ
          • ∣∣wk∣∣2=∣∣wk+1+xtyt∣∣2=∣∣wk−1∣∣2+2wk−1Txtyt+∣∣xt∣∣2||w_k||^2=||w_{k+1}+x_ty_t||^2=||w_{k-1}||^2+2w_{k-1}^Tx_ty_t+||x_t||^2wk2=wk+1+xtyt2=wk12+2wk1Txtyt+xt2——yt=1
          • ≤∣∣wk−1∣∣2+∣∣xt∣∣2≤∣∣wk−1∣∣2+R2≤...≤kR2\leq ||w_{k-1}||^2+||x_t||^2\leq ||w_{k-1}||^2+R^2 \leq ...\leq kR^2wk12+xt2wk12+R2...kR2
          • 所以kγ≤wkw∗≤∣∣wk∣∣∣∣w∗∣∣≤kRk\gamma \leq w_kw^* \leq ||w_k||||w^*|| \leq \sqrt{k} RkγwkwwkwkR
          • k≤R2γ2k\leq \frac{R^2}{\gamma^2}kγ2R2
        • 以超平面来划分两类样本
    • 感知机学习是在假设空间中选取使得损失函数最小的参数模型
      • 训练w=w+/−x,小了就调大一点,大了就调小一点,一个x调整一次w=w+/-x,小了就调大一点,大了就调小一点,一个x调整一次w=w+/x,x
    • 感知机存在的问题
      • 噪声(线性不可分)
      • 泛化性
    • 异或问题是非线性问题(带进去看一下)
      • 证明
        • 假设可以解,y=ω1x1+ω2x2+θ则ω1、 ω2 和θ 必须满足如下方程组:
          1. ω1 + ω2 - θ < 0–(1,1,)–0
            • θ > ω1 + ω2
          2. ω1 + 0 - θ ≥ 0
            • 0 ≥ θ - ω1
          3. 0 + 0 - θ < 0
            • θ > 0
          4. 0 + ω2 - θ ≥ 0
            • 0 ≥ θ - ω2
        • 显然,该方程组是矛盾的,无解!这就说明单层感知器是无法解决异或问题的。
  5. BP遇到的困难,为什么会出现梯度消失
    • 困难:
      • 梯度消失,梯度爆炸
      • 局部极小
      • 只能用于标注数据
    • why梯度消失
      • 因为BP算法采用链式法则,从后层向前层传递信息时,
      • 若每层神经元对上一层神经元偏导乘以w均小于1,多次链式法则,多级导数权值相乘结果会越来越小,导致loss传递到越前方越小。
      • w采用正态分布初始化<1
      • ∂yi∂zi<1\frac{\partial y_i}{\partial z_i}<1ziyi<1

RBM DBN DBM hopfield比较

网络结构状态…目标函数…特点
Hopfield网络单层,全连接(有权,无向图)wij=wji,wii=01,-1(0),确定性地取1、0E=−12STωSE=-\frac{1}{2}S^T\omega SE=21STωS1.确定性地接受能量下降方向;2.会达到局部极小(模拟退火解决,以一定概率接受能量上升)
Boltzman机器p(v)符合玻尔兹曼分布,生成模型,有隐层(与外部无连接),有可见层(输入层、输出层)(与外部有链接,收到外部约束),全连接(同层也有)(有权无向图)wij=wji,wii=01(on),0(off),状态满足boltzman分布,以p取1(二值神经元)PαPβ=exp(−(E(Sα)−E(Sβ))/T)\frac{P_\alpha}{P_\beta}=exp(-(E(S^\alpha)-E(S^\beta))/T)PβPα=exp((E(Sα)E(Sβ))/T)1.接受能量下降,以p(p(si=1)=11+exp(−bi−Σjsjwji)p(s_i=1)=\frac{1}{1+exp(-b_i-\Sigma_js_jw_{ji})}p(si=1)=1+exp(biΣjsjwji)1)接受能量上升(模拟退火)2.训练时间长,3.结构复杂,4.也可能局部极小;5.功能强大
RBM(受限Boltzman机p(v)符合玻尔兹曼分布,生成模型,区别:同层无连接,其他全连接,可见层1(输入v)、隐藏层1(h,给定可视层下,条件独立)(二部图)vi,hj,{0,1},以p取1(二值神经元)联合组态能量函数E(v,h;θ)=−Σijwijvihj−Σibivi−Σjajhj,pθ(v,h)=1Z(θ)exp(−E),目标函数log(pθ(v))(极大似然)E(v,h;\theta)=-\Sigma_{ij}w_{ij}v_ih_j-\Sigma_{i}b_{i}v_i-\Sigma_{j}a_{j}h_j, p_\theta(v,h)=\frac{1}{Z(\theta)}exp(-E),目标函数log(p_\theta(v))(极大似然)E(v,h;θ)=ΣijwijvihjΣibiviΣjajhj,pθ(v,h)=Z(θ)1exp(E)log(pθ(v))(
DBN生成模型,多层,顶层无向图(RBM)(hn-1-hn),低层(v<-hn-1),去除上层,下层是个RBM(二值神经元)从下到上逐层当做RBM训练低层是单向的与RBM不一致,所以提出了DBM
DBMp(v)符合玻尔兹曼分布,生成模型,多层,全无向图(二值神经元)双向,每层需要考虑上下层神经元(多层)E(v,h1,h2;θ)=−vTW1h1−h1TW2h2;p(v)=Σh1,h21Zexp(−E)E(v,h^1,h^2;\theta)=-v^TW^1h^1-h^{1T}W^2h^2;p(v)=\Sigma_{h1,h2}\frac {1}{Z}exp(-E)E(v,h1,h2;θ)=vTW1h1h1TW2h2;p(v)=Σh1,h2Z1exp(E)低层是单向的与RBM不一致,所以提出了DBM

在这里插入图片描述

结构及特性

  • DNN 全连接
  • Hopfield 全连接,确定性阈值神经元
    • 参数计算得到
  • BM 全连接,二值神经元
  • RBM/DBM 无向图,层间全连接,二值神经元
    • 逐层贪婪训练
  • DBN 低层有向<–,高层无向(高->低)
    • 逐层贪婪训练
  • RNN 权值共享的多层前向神经网络(循环)
    • 序列、时间
    • 不同时间的RNN权值一样
    • BPTT训练(LSTM也是)
  • CNN 局部连接,参数共享,子采样
    • 改进:用relu和dropout
    • 在这里插入图片描述

逐层贪婪训练与CD

  • DBN 逐层贪婪训练
    • 仅保留v,h1层,使用CD-1训练得到W1
    • 增加h2层,保持W1不变,h1右Q(h1|v)采样得到作为输入。h1/h2使用CD-1训练得到W2
    • 类比
  • DBM 逐层贪婪训练
    • 训练时采用双方向(上下两层),同时考虑两个或多个隐层
    • 由能量模型也可以得到p(v)——也符合boltzman分布
    • p(v)=Σh1,h2,h31Zexp(vTW1h1+h1TW2h2+h2TW3h3)p(v)=\Sigma_{h1,h2,h3}\frac {1}{Z}exp(v^TW^1h^1+h^{1T}W^2h^2+h^{2T}W^3h^3)p(v)=Σh1,h2,h3Z1exp(vTW1h1+h1TW2h2+h2TW3h3)
    • 两层的能量:E(v,h1,h2;θ)=−vTW1h1−h1TW2h2E(v,h^1,h^2;\theta)=-v^TW^1h^1-h^{1T}W^2h^2E(v,h1,h2;θ)=vTW1h1h1TW2h2
      • p(v)=Σh1,h21Zexp(−E)p(v)=\Sigma_{h1,h2}\frac {1}{Z}exp(-E)p(v)=Σh1,h2Z1exp(E)
      • p(hj1=1∣v,h2)=σ(ΣiWij1vi+ΣWjm2hj2)p(h^1_j=1|v,h^2)=\sigma(\Sigma_iW^1_{ij}v_i+\Sigma W^2_{jm}h_j^2)p(hj1=1v,h2)=σ(ΣiWij1vi+ΣWjm2hj2)
      • p(hm2=1∣h1)=σ(ΣiWim2hi1)p(h_m^2=1|h^1)=\sigma(\Sigma_iW^2_{im}h_i^1)p(hm2=1h1)=σ(ΣiWim2hi1)
      • p(vi=1∣h1)=σ(ΣiWij1hj)p(v_i=1|h^1)=\sigma(\Sigma_iW^1_{ij}h_j)p(vi=1h1)=σ(ΣiWij1hj)
  • CD-1
    • p(v∣θ)极大似然估计,得到导数∂p(v)∂wij∂p(v)∂bi∂p(v)∂ajp(v|\theta)极大似然估计,得到导数\\\frac{\partial p(v)}{\partial w_{ij}}\\\frac{\partial p(v)}{\partial b_{i}}\\\frac{\partial p(v)}{\partial a_{j}}p(vθ)wijp(v)bip(v)ajp(v)
    • 依据导数,对观测变量的所有维度的梯度求和平均,来更新参数依据导数,对观测变量的所有维度的梯度求和平均,来更新参数
      在这里插入图片描述

BP

  • BP算法流程:
    1. 选取训练数据输入网络
    2. 根据权重与激活函数计算输出
    3. 算出实际输出与目标输出之间的误差
    4. 反向传播误差使全局误差最小
  • BPTT
    • 不同时间的相加一起更新

GAN

  • GAN
    • 核心思想:博弈论的纳什均衡——对抗达到平衡(共同进步)
      • 生成器:尽量生成真实的分布——努力让判别器认不出来
        • 输入向量,输出图或序列。。。
        • 不同的向量表示不同的特征
        • 想要发现数据的分布Pdata(x)P_{data}(x)Pdata(x)
          • 假设一个分布Pdata(x;θ),用极大似然去找θP_{data}(x;\theta),用极大似然去找\thetaPdata(x;θ),θ
      • 判别器:区分是生成的还是真实的(努力让他能认出生成器生成的数据)
        • 输入:图片
        • 输出:标量评分
          • 分越大,越真实–1
          • 分小则假–0.1
    • 基本原理:有一个判别器有一个生成器,生成器生成图片让判别器判别,生成器提升自己让判别器无法判别,判别器则提升自己努力识别出生成器生成的图片/序列,双方对抗达到平衡
    • 学习算法
      • 固定生成器G0,训练判别器,提升判别器的判别能力得到D1
      • 固定判别器D1,训练生成器,提升生成器的生成能力,目标让判别器无法识别,得到G1
      • 再回到1中用G1训练判别器得到D2,…,依次迭代,直至两者平衡。
      • V(G,D)=1mΣi=1m[log(D(xi))]+1mΣi=1m[log(1−D(G(zi)))](G固定)V(G,D)=\frac{1}{m}\Sigma_{i=1}^m[log(D(x^i))]+\frac{1}{m}\Sigma_{i=1}^m[log(1-D(G(z^i)))] (G固定)V(G,D)=m1Σi=1m[log(D(xi))]+m1Σi=1m[log(1D(G(zi)))](G
      • V(G,D)=1mΣi=1m[log(1−D(G(zi)))](d固定)V(G,D)=\frac{1}{m}\Sigma_{i=1}^m[log(1-D(G(z^i)))] (d固定)V(G,D)=m1Σi=1m[log(1D(G(zi)))](d

在这里插入图片描述

4.逻辑

  1. 一阶谓词逻辑下机器自动证明的正确步骤:(?)
    1. 结论取反
    2. 量词前束
    3. 合取范式标准化
    4. 归结树归结
  2. 一阶谓词逻辑表示
    • 胜者为王,败者为寇
      • (∀x,Winner(x)=>King(x))∧(∀y,Loser(y)=>Kou(y))(∀ x,Winner(x)=>King(x))∧(∀ y,Loser(y)=>Kou(y))(x,Winner(x)=>King(x))(y,Loser(y)=>Kou(y))
      • ∀x∀y,Win(x,y)=>King(x)∧Kou(y)∀ x∀ y,Win(x,y)=>King(x)∧Kou(y)xy,Win(x,y)=>King(x)Kou(y)
  3. 模糊逻辑表示
    • 画图表示
    • 很少有成绩好的学生特别贪玩
      • 很少就可以是量词
      • ΔxG(x)=>P′(x)\Delta x G(x)=>P'(x)ΔxG(x)=>P(x)
        • '–加强了变成了原来的平方
    • 大多数成绩好的学生学习都很刻苦。

ΣxG(x)=>H′(x)\Sigma x G(x)=>H'(x)ΣxG(x)=>H(x)

一个永远无法归结结束的FOL

在这里插入图片描述

合取范式规范化

  • ¬ (∀ x){P(x)=>{(∃y)[p(y)=>P(f(x,y))]∧¬(∀ y)(∃w)[Q(x,y)=>P(y,w)]}}
  • 去除=>
  • 否定内移
  • 改换符号y->z
  • 去除存在量词
    • 全局的:A
    • 局部的:g(z)
  • 全称量词前移
  • 消除全称量词
  • 变换成CNF
    在这里插入图片描述

归结原理

  • 一阶谓词逻辑要合一化(置换)
    在这里插入图片描述

4.1resolution是完备的、可靠的

  • 可靠性:|- --> |=
    • 归结的过程是可靠的
    • 归结过程:C1、C2中有互补文字==》C1∨C2
      • 已知C1,C2 |- C1∨C2
      • 证明C1,C2 |= C1∨C2
        • 因为推理规则是可靠的(检查真值表)
C1C2C1∨C2
falsefalsefalse
truefalsetrue
falsetruetrue
truetruetrue
  • 完备性:

    • 已知C1,C2 |= C1∨C2
    • 证明C1,C2 |- C1∨C2
    • RC(S)–归结闭集 resolution closure–所有S归结出来的都在RC(S)中=PL-Resolution(KB,α\alphaα)的最终clauses
      • S={KB,¬α\alphaα}
        • KB |=α\alphaα<>KB∧ ¬α\alphaα不可满足(永假)<=>S不可满足
    • ground resolution theorem:S不可满足==>RC(S)中包含空子句
      • 证明:从逆否命题入手:S可满足<==RC(S)中不包含空子句
    • 因为RC(S)是有限的,所以PL-Resolution(KB,α\alphaα)总是可以终止的
    • PL-Resolution(KB,α\alphaα)的终止条件是clauses中包含空子句
  • ground resolution theorem:S不可满足==>RC(S)中包含空子句

    • 证明:从逆否命题入手:RC(S)中不包含空子句==>S可满足

在这里插入图片描述

Modus ponens

在这里插入图片描述
在这里插入图片描述

4.1 蕴含与包含的证明

在这里插入图片描述

蕴含与implication的关系

在这里插入图片描述

5. 模糊数学和遗传算法

  1. 遗传算法
    • 遗传算法模拟自然界优胜劣汰过程进行优化问题的求解
    • 利用选择、交叉、变异产生更多可能的解
    • 目标函数:天然可作为遗传算法的适应度函数
    • 选择-受适应度函数控制
    • 交叉、变异–不受适应度函数控制
      • 以某种概率进行交叉、变异

6. 强化学习

方法确定性?特性
贪心策略At=argmaxaQt(a)(均值)At=argmax_aQ_t(a)(均值)At=argmaxaQt(a)(确定性算法目标是当前行为的期望收益
ϵ\epsilonϵ贪心策略1−ϵ1-\epsilon1ϵ:贪心选择;ϵ\epsilonϵ:随机选择确定性算法-
乐观初值法Optimistic initial values每个行为的初值都高Q1高,ϵ=0\epsilon=0ϵ=0确定性算法初始只探索,最终贪心
UCBAT=argmaxa(Qt(a)+clntNt(a)),Nt(a)−a被选择的次数A_T=argmax_a(Q_t(a)+c\sqrt{\frac{lnt}{N_t(a)}}),N_t(a)-a被选择的次数AT=argmaxa(Qt(a)+cNt(a)lnt),Nt(a)a确定性算法最初差,后比贪心好,收敛于贪心
梯度赌博机算法$P(A_t=a)=\frac{e{H_t(a)}}{\Sigma_b=1k e^{H_t(b)}}=\pi_t(a).优化目标 E(R_t)=\Sigma_b\pi_t(b)q(b) $不确定性算法更新Ht
  • 多臂赌博机:累积收益最大=每次摇臂的平均期望收益最大

在这里插入图片描述

  • 计算时,还是按照上下左右的策略计算的–贝尔曼方程,而不是贝尔曼最优方程

  • 方法比较

    • 蒙特卡罗:深
    • 动态规划:宽
    • 时序差分,只有一个

在这里插入图片描述

7. 群体智能

蚁群优化算法粒子群优化算法
基本原理局部随机搜索与正反馈相结合
算法过程1.随机放置蚂蚁;2.对每个蚂蚁,依据概率P(与邻接路径的信息素浓度和启发式信息有关)选择下一步移动位置;3.当所有蚂蚁跑完一轮(所有城市跑完一次),更新信息素浓度(与蚂蚁跑过的路径和路过的蚂蚁的数目有关,并且随时间减少);3.重复至收敛1.随机放置粒子,设置其初始速度;2.计算各粒子的f(xi)(f(x)是目标函数值),记录其当前最优g*及各个粒子历史最右xi*;3.依据xi*和g*和当前速度改变速度,移动到下一位置;4.重复23至收敛
适用范围离散问题连续问题
更新一轮一更新(batch)一步一计算(随机)
优点易于实现; 可调参数较少; 所需种群或微粒群规模较小;计算效率高,收敛速度快。
缺点收敛速度慢(找最优解的情况下);易于陷入局部最优;对于解空间为连续的优化问题不适用和其它演化计算算法类似,不保证收敛到全局最优解
粒子群优化算法遗传算法
协同合作,不好的向好的学习适者生存,不好的淘汰掉
最好的个体通过吸引其他个体向他靠近来施加影响最好的个体产生后代来传播基因
除了速度位置外,还有过去的历史信息只与上一代有关,与历史无关,markov链的过程

8. 博弈

  1. 议价范围
    • 双方估价之差
    • 成本100,标价200,买方估价160,卖方估价120
      • 议价范围:120~160
  2. 网络交换博弈–均衡结局
    • 均衡结局:全部满足均衡议价解的结局
      • 双方备胎x,y,x+y<=1才能议价
      • 议价空间s=1-x-y
      • A=x+s/2
      • B=y+s/2
      • A-B-C-D
        • 均衡结局:A=1/3=D,B=C=2/3
        • 稳定结局:未配对的边两节点的效用和<1
  3. 最优
    • 帕累托最优
      • 以意大利经济学家维尔弗雷多·帕累托的名字命名
      • 对于一组策略选择(局势),若不存在其他策略选择使所有参与者得到至少和目前一样高的回报,且至少一个参与者会得到严格较高的回报,则这组策略选择为帕累托最优
    • 社会最优
      • 使参与者的回报之和最大的策略选择(局势)
      • 社会最优的结果一定也是帕累托最优的结果
      • 帕累托最优不一定是社会最优
      • 社会:是所有局中人构成的社会
  4. minmax和max min
    • minmax:最小化对手最好情况下的收益—对象时对方的效用
      • 用于零和博弈
    • maxmin:最大化自己最坏情况下的收益–对象是自己的效用
    • 零和博弈下:二者等价
  5. 纳什均衡
    • 每个人的策略都是当前策略的最佳应对
    • 混合:让对手各个情况下的收益都一样。
    • 纯:谁动谁输
  • 市场结清价格
    • 完全匹配是否存在可以通过寻找受限集来判断
    • 价格能够引导市场优化配置
    • 市场结清价格总是存在
    • 市场结清价格使得买卖双方总效用最优
maxmin策略minmax策略混合纳什均衡策略
公式argmaxsimins−iui(si,s−i)argmax_{s_i}min_{s_{-i}}u_i(s_i,s_{-i})argmaxsiminsiui(si,si)argminsimaxsjuj(si,sj)argmin_{s_i}max_{s_{j}}u_j(s_i,s_{j})argminsimaxsjuj(si,sj)a的分布不变情况下,使得b的各种策略的期望都一样
目的损失最小化,预防对手不理性情况把对手弄趴下,自己就赢了自己的策略让对手无路可走(走哪里都一样)
用于多人博弈零和博弈-
特点稳妥,以我为主抑制对手抑制对手

田忌赛马

在这里插入图片描述
在这里插入图片描述

剪刀石头布

  • 剪刀石头布
    • 局中人
      • 两个玩家
    • 策略
      • 剪刀、石头、布
    • 效用函数矩阵
    • 不存在纯策略的纳什均衡
      • 在任何情况下,对方都能找到更好的策略
    • 混合策略下的纳什均衡
      • 混合策略
        • 玩家一的策略选择分布记为𝑝 ={ 𝑝1, 𝑝2, 1 − 𝑝1 − 𝑝2 },玩家二的策略选择分布记为𝑞 = 𝑞1, 𝑞2, 1 − 𝑞1 − 𝑞2
        • 假设玩家一的策略分布不变,玩家二策略选择的效用为
          • 剪刀:0 ∗ 𝑝1 + −1 ∗ 𝑝2 + 1 ∗( 1 − 𝑝1 − 𝑝2) = 1 − 𝑝1 − 2𝑝2 —2的得分,1的概率—2的期望
          • 石头:1 ∗ 𝑝1 + 0 ∗ 𝑝2 + −1 ∗ ( 1 − 𝑝1 − 𝑝2) = 2𝑝1 + 𝑝2 − 1
          • 布: −1 ∗ 𝑝1 + 1 ∗ 𝑝2 + 0 ∗ ( 1 − 𝑝1 − 𝑝2) = 𝑝2 − 𝑝1
        • 令玩家二的各个策略的效用相等,得到𝑝1 = 𝑝2 = 1/3
        • 同理可得𝑞1 = 𝑞2 = 1/3
      • 剪刀-石头-布的混合纳什均衡态
        • 每个玩家各以1/3的概率
        • 选择剪刀、石头和布
        • 期望收益均为0
剪刀石头
剪刀0,0-1,11,-1
石头1,-10,0-1,1
-1,11,-10,0

性别之战

  • 性别之战
    • 局中人
      • 夫妻双方
    • 策略
      • 看韩剧、看体育
    • 效用函数矩阵
    • 纳什均衡1:双方都同意看韩剧
      • 妻子保持策略不变(看韩剧),丈夫如果改变策略(看体育),其效用会降低(从1变成0)
      • 丈夫保持策略不变(看韩剧),妻子如果改变策略(看体育),其效用会降低(从2变成0)
    • 纳什均衡2:双方都同意看体育
    • maxmin策略:(以我为主)
      • 妻子:p选择韩剧,1-p选择体育
      • 丈夫:q选择韩剧,1-q选择体育
      • 妻子的期望:uw(p,q)=2pq+(1−p)(1−q)=3pq−p−q+1u_w(p,q)=2pq+(1-p)(1-q)=3pq-p-q+1uw(p,q)=2pq+(1p)(1q)=3pqpq+1
      • 先min :minq(3pq−p−q+1)min_q(3pq-p-q+1)minq3pqpq+1)
        • 求导,uw(p,q)u_w(p,q)uw(p,q)单调(不知递增递减)—极值点为q=0或1
        • 带入q:minquw(p,q)=min(1−p,2p)−−这个可以画出折线图,找图中最大的点min_q u_w(p,q)=min(1-p,2p)--这个可以画出折线图,找图中最大的点minquw(p,q)=min(1p,2p)线
      • 再max:找min(1−p,2p)min(1-p,2p)min(1p,2p)的最大点–p=1/3
      • 所以
        • 妻子:1/3选择韩剧,2/3选择体育
        • 丈夫:2/3选择韩剧,1/3选择体育
      • –考虑到对方是最稳妥的策略
    • minmax策略:(抑制对手,此种错误,因为性别之战不是零和博弈)
      • 妻子:p选择韩剧,1-p选择体育
      • 丈夫:q选择韩剧,1-q选择体育
      • 丈夫的期望:uf(p,q)=pq+2(1−p)(1−q)=3pq−2p−2q+2u_f(p,q)=pq+2(1-p)(1-q)=3pq-2p-2q+2uf(p,q)=pq+2(1p)(1q)=3pq2p2q+2
      • 先minmaxq(3pq−2p−2q+2)max_q(3pq-2p-2q+2)maxq3pq2p2q+2)
        • 求导,uf(p,q)u_f(p,q)uf(p,q)单调(不知递增递减)—极值点为q=0或1
        • 带入q:maxquf(p,q)=max(2−2p,p)−−这个可以画出折线图,找图中最大的点max_q u_f(p,q)=max(2-2p,p)--这个可以画出折线图,找图中最大的点maxquf(p,q)=max(22p,p)线
      • 再max:找max(2−2p,p)max(2-2p,p)max(22p,p)的最大点–p=2/3
      • 所以
        • 妻子:2/3选择韩剧,1/3选择体育
        • 丈夫:1/3选择韩剧,2/3选择体育
      • –考虑到对方是最稳妥的策略
    • 混合纳什均衡策略(抑制对手)
      • 妻子:p选择韩剧,1-p选择体育
      • 丈夫:q选择韩剧,1-q选择体育
      • 假设妻子策略分布不变,丈夫的期望为
        • 丈夫看韩剧:p
        • 丈夫看体育:2(1-p)
        • 令相同p=2(1-p)==>p=2/3
      • 所以
        • 妻子:2/3选择韩剧,1/3选择体育
        • 丈夫:1/3选择韩剧,2/3选择体育

在这里插入图片描述

拍卖

  • 经济市场
    • 解决稀有资源的分配问题
    • 一般市场
      • 多个卖家、多个买家
    • 讨价(Bargaining)
      • 多个卖家、一个买家
    • 拍卖(Auction)
      • 一个卖家、多个买家
  • 拍卖活动
    • 买家之间的博弈
    • 一个卖家向一群买家拍卖一件商品的活动
    • 拍卖的基本假设
      • 每个竞争者对被拍卖的商品有各自的估值
        • 这个估值是竞拍者对商品实际所值的估计
      • 如果商品售价<=这个估值,竞拍者会购买,否则不会购买
        • –>因为理性自私人
    • 拍卖类型
    • 拍卖类型
      • 增价拍卖,又称英式拍卖
        • 拍卖者逐渐提高售价,竞拍者不断退出,直到只剩一位竞拍者,该竞拍者以最后的报价赢得商品
      • 减价拍卖,又称荷式拍卖
        • 拍卖者逐渐降低售价,直到有竞拍者出价购买
      • 首价密封报价拍卖
        • 竞拍者同时向拍卖者提交密封报价,拍卖者同时打开这些报价,出价最高的竞拍者以其出价购买该商品
        • 纳什均衡:每个竞拍者的价格低于估价
          • 共有𝑛个竞拍者,竞拍者𝑖的估价记为𝑣𝑖,报价记为𝑏𝑖,其他竞拍者的估价服从[𝑎, 𝑏]区间上的均匀分布,且诚实出价
          • 𝑏𝑖 < 𝑎时,竞标失败,收益为0
          • 竞拍者i获胜的概率(bi−ab−a)n−1\left( \frac{b_i-a}{b-a} \right)^{n-1}(babia)n1
          • 竞拍者的期望收益f(bi)=(vi−bi)(bi−ab−a)n−1f(b_i)=(v_i-b_i)\left( \frac{b_i-a}{b-a} \right)^{n-1}f(bi)=(vibi)(babia)n1
          • 求导得到最优解f′(bi)=−(bi−ab−a)n−1+(n−1)(vi−bi)(bi−ab−a)n−21b−a=(bi−ab−a)n−2(−nbi+a+(n−1)vib−a)f'(b_i)\\=-\left( \frac{b_i-a}{b-a} \right)^{n-1}+(n-1)(v_i-b_i)\left( \frac{b_i-a}{b-a} \right)^{n-2}\frac{1}{b-a}\\=\left( \frac{b_i-a}{b-a} \right)^{n-2}\left(\frac{-nb_i+a+(n-1)v_i}{b-a}\right)f(bi)=(babia)n1+(n1)(vibi)(babia)n2ba1=(babia)n2(banbi+a+(n1)vi)
          • 最优报价为bi∗=a+(n−1)vin<vib_i^*=\frac{a+(n-1)v_i}{n}<v_ibi=na+(n1)vi<vi
            • 竞拍者越多越接近于估价
      • 次价密封报价拍卖
        • 竞拍者同时向拍卖者提交密封报价,出价最高的竞拍者赢得商品但以第二高出价购买该商品
        • 纳什均衡:每个竞拍者的价格等于估价
          • 给定一个竞拍者,其估价记为𝑣,报价记为𝑏,其他竞拍者的最高报价记为𝑏∗
          • 理性行为假设下,报价不会高于估价,即𝑏 ≤ 𝑣
          • 此时,根据𝑏∗的取值有三种情形
            • 𝑏∗ > 𝑣:收益为0;—没拍到
              • 将报价从𝑏提高到𝑣,收益不变
            • 𝑏∗ < 𝑏:收益为𝑣 − 𝑏∗ ;
              • 将报价从𝑏提高到𝑣 ,收益不变
            • 𝑏 ≤ 𝑏∗ ≤ 𝑣:收益为0;—没拍到
              • 将报价从𝑏提高到𝑣 ,收益变为𝑣 − b*–提高后拍到了
      • 双方出价
        • 股票市场

讨价

  • 讨价
    • 卖家和买家之间的博弈
    • 讨价的对象:是双方对商品估价之差
    • 假设所有因素都已经体现在估价中
      • 时间、情感、眼缘等
    • 例子:
      • 衣服进价80,标价200
      • 卖家对衣服的估价在80和200之间,譬如120
      • 买家的估价假如为160
      • 讨价的对象:是双方的估价之差,即160-120=40
  • 后续的讨论中,将讨价对象视为整体1
    • 卖家的估价为0,买家的估价为1
      [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZYtdgebF-1578389328371)(attachment:image.png)]
      A-卖家
      B-买家

讨价的情形

  • 场景1-一口价
    • Take-it-or-leave-it:无商谈余地
    • 一方报价,另一方要么接受报价达成交易,要么交易失败
      • 两个人商量吃蛋糕,一方提出切分比例,另一方如果不同意,双方就都不吃
      • 美国参议院:民主党提出增加财政预算到某个值,共和党要么同意,要么拒绝(但不能提新的方案)
    • 通过**回滚(rollback)**求解纳什均衡
    • Take-it-or-leave-it
      • 过程
        • 阶段1:甲方提出,按照1-p和p的比例进行分配
        • 阶段2:只要p大于0,乙方则会接受p
      • 甲方(分配方案提出者)得到几乎所有收益

在这里插入图片描述

  • Take-it-or-counteroffer:要么接受,要么还价
    • 过程
      • 第一阶段:甲方报价:1-p, p
      • 第二阶段:乙方要么接受报价,要么还价𝛿 ∗ (1 − 𝑞),𝛿 ∗ 𝑞
      • 第三阶段:甲方决定要么接受乙方的还价,要么交易失败
    • 约束条件
      • 时间成本:𝛿刻画可用于分配的总收益随时间衰减(0 ≤ 𝛿 ≤ 1)
        • 用来防止甲方不要欺负乙方–不然两人的收益都会变少
        • 例子:NBA劳工谈判,分配一个会融化的蛋糕
  • Take-it-or-counteroffer过程推演
    • 第一阶段之后等同于take-it-or-leave-it讨价
    • 假如第一阶段乙方没有接受甲方的报价,那么在接下的take-it-or-leave-it过程中,甲方的收益将趋近于0
    • 因此,甲方在第一阶段报价时,分配给乙方的收益不少于乙方拒绝报价后所得到的收益
      • p≥δ∗(1−q)≈δp\geq \delta*(1-q) \approx \deltapδ(1q)δ
        • p:第一轮甲方报价中,乙方的收益;p:第一轮甲方报价中,乙方的收益;p
        • δ:甲方拒绝后,乙方报价时可以得到的收益\delta:甲方拒绝后,乙方报价时可以得到的收益δ
    • 启示
      • 在时间成本约束下,甲乙双方尽可能会在第一轮达成交易,使双方收益最大
      • 甲的报价,要根据时间成本决定
      • 乙的收益依赖于对时间成本的容忍度
      • 最终的分配比例是:
        • 甲方:1−δ1-\delta1δ;
        • 乙方δ\deltaδ
      • 蛋糕融化的越慢,乙方收益越大
    • 先发优势,还是后发制人?
      • 当时间成本较高(即𝛿较小)时,甲方有先发优势
        • 例如:炎热的夏天,蛋糕融化得快
      • 当时间成本较低(即𝛿较大)时,乙方可后发制人
        • 例如:寒冷的冬天,蛋糕融化得慢
    • 启示:博弈规则决定最终的结果

打官司

  • 打官司

    • 原告诉讼被告,要求赔偿100万
      • 诉讼费原告和被告各支付10万
    • 情形1
      • 双方各自认为自己胜诉的概率为1/2
      • 开启诉讼E=1/2100+1/20=50
        • 原告收益:50万-10万=40万;
        • 被告收益:-50万-10万=-60万
      • 可以达成庭外和解:譬如被告支付50万给原告
        • 原告能接受的最低价是:40万
        • 被告能提供的最高价是:60万
        • 讨价分配的“蛋糕”大小为20万
    • 情形2
      • 双方各自认为自己胜诉的概率为3/4
      • 开启诉讼
        • 原告预期收益:75万-10万=65万;
        • 被告预期收益:-25万-10万=-35万
      • 无法达成和解——没有交集
        • 原告能接受的最低价是:65万
        • 被告能提供的最高价是:35万
        • 讨价分配的蛋糕大小是:-30万
      • 假如诉讼费是30万呢?
        • 75-30=45
        • -25-30=-45
        • 可以和解–45万
    • 定价决定一切–规则决定
  • 博弈规则决定博弈结果

  • 各自的“底牌”是对方报价的依据

  • 讨价的蛋糕大小由双方的底牌决定

海盗分金币

  • 传说,从前有五个海盗抢得了100枚金币.他们通过了一个如何确定选用谁的分配方案的安排.即:

    1. 抽签决定各人的号码(1,2,3,4,5);
    2. 先由1号提出分配方案,然后5个人表决.当且仅当超过半数人同意时,方案才算被通过,否则他将被扔入大海喂鲨鱼;
    3. 当1号死后,再由2号提方案,4个人表决,当且仅当超过半数同意时,方案才算通过,否则2号同样将被扔入大海喂鲨鱼;
    4. 往下依次类推……
  • 根据上面的这个故事,现在提出如下的一个问题.即:

    • 我们假定每个海盗都是很聪明的人,并且都能够很理智地判断自己的得失,从而做出最佳的选择,那么第一个海盗应当提出怎样的分配方案才能够使自己不被扔入大海喂鲨鱼,而且收益还能达到最大化呢?
  • Solution:

  • 倒推,从后往前推,人数依次增加

    • 对于4号来说:如果1-3号强盗都喂了鲨鱼,只剩4号和5号的话。(100,0)
    • 对于3号来说:3号知道这一点,就会提(99,0,1)的分配方案,因为他知道5号一无所获但还是会投赞成票,再加上自己一票,他的方案即可通过。
    • 对于2号来说:2号推知到3号的方案,就会提出(99,0,1,0)的方案,即放弃3号,而给予4号和5号各一枚金币。由于该方案对于4号和5号来说比在3号分配时更为有利,他们将支持他而不希望他出局而由3号来分配。这样,2号将拿走98枚金币。
    • 对于1号来说:2号的方案会被1号所洞悉,1号并将提出(98,0,1,0,1)的方案,即放弃2号,而给3号一枚金币,同时给5号1。由于1号的这一方案对于3号和4号(或5号)来说,相比2号分配时更优,他们将投1号的赞成票,再加上1号自己的票,1号的方案可获通过,97枚金币可轻松落入囊中。这无疑是1号能够获取最大收益的方案了!
  • 总结:我们对这种问题要从后向前推,因为我们需要知道后面的会根据什么样的情况做出什么样的决定的时候,我们才可以做出对自己最有利的决定(因为自己的决定使一定数量的海盗得到的比自己死去之后得到的要多),让后面的能支持自己。

  • 只要比下一个结果好就行

匹配问题分宿舍

在这里插入图片描述

中介

  • 纳什均衡状态–中介之间的博弈
    在这里插入图片描述
  • 垄断
    • T1–S1/B1
    • T2–S3/B3
  • 充分竞争
    • T1、T2在S2/B2中充分竞争(报价一致了
    • 不挣钱
    • x=依据市场竞争程度,可能很高也可能很低

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481647.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Science封面:全球首个脑再生时空图谱

来源&#xff1a;brainnews报道来源&#xff1a;作者团队原文链接&#xff1a;https://doi.org/10.1126/science.abp9444为了深入研究墨西哥钝口螈端脑再生的细胞和分子机制&#xff0c;并探讨其与发育的关系&#xff0c;研究人员收集了不同损伤再生阶段&#xff08;7个再生阶段…

国科大prml10-无监督学习

文章目录1.监督学习与无监督学习2. 聚类分析2.1簇的其他区别2.2类型2.2.1 基于中心的簇2.2.2 基于连续性的簇2.2.3 基于密度的簇2.2.4 基于概念的簇2.3 应用2.4 三要素3.距离函数3.1 距离函数的要求3.2标准化3.3其他相似、不相似函数4.评价指标4.1外部指标&#xff08;有参考模…

英伟达、AMD 高端芯片断供,国产芯片如何迅速崛起

来源&#xff1a;大数据文摘转载自AI科技大本营整理&#xff1a;苏宓出品&#xff1a;CSDN8 月 31 日&#xff0c;据外媒 Protocol、路透社等多家报道&#xff0c;美国开始对出口人工智能相关应用所需的先进芯片施加新的限制&#xff0c;其中 AMD、NVIDIA&#xff08;英伟达&am…

高文院士:AI将为芯片设计带来革命性改变

来源&#xff1a;中国电子报作者&#xff1a;姬晓婷9月1日&#xff0c;世界人工智能大会在上海举行。在芯片主题论坛上&#xff0c;中国工程院院士、鹏城实验室主任高文发表了题为“人工智能与EDA技术的前瞻性发展”的演讲。在高文看来&#xff0c;AI的应用将使芯片设计所需的时…

国科大prml11-降维

文章目录1.维度、特征与维度灾难维度特征维度灾难降维1 维度选择3.特征抽取3.1 预备知识3.2 线性模型3.2.1 多维缩放MDS3.2.2 线性降维的一般形式3.2.3 PCA主成分分析3.3 非线性模型3.3.1KPCA3.3.2流行学习&#xff08;欧氏距离不能反映相似性&#xff09;3.3.3 拉普拉斯特征映…

神经元模型:从离子通道到计算

导语本篇推文来自集智俱乐部的网站集智斑图的一篇路径《神经元模型&#xff1a;从离子通道到计算》&#xff0c;路径基于神经动力学模型读书会第一季臧蕴亮老师的分享整理而成。感兴趣的朋友可以结合本次分享的回放&#xff08;回放链接https://campus.swarma.org/course/4433&…

国科大prml12-半监督学习

文章目录1.假设2. 自学习算法3.多视角学习3.1 协同训练&#xff08;co-training)3.2 多视角学习4. 生成模型生成模型的例子4.2 GMM高斯混合模型4.2.1 EM算法用于GMM4.2.2减小风险的启发式4.3 聚类标签法&#xff08;cluster-and-label)5. S3VMsTSVM5.2 学习算法SVMlightSVM^{li…

我国城市大脑首批三项标准的解读和专家评议

来源&#xff1a;远望智库预见未来我国城市大脑首批三项标准的解读与专家评议2022年9月1日&#xff0c;中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》&#xff1b;《城市大脑数字神经元基本规定》等三项…

谷歌新作:扩散模型背后的数学原理

来源&#xff1a;机器之心扩散模型背后的数学可是难倒了一批人。最近一段时间&#xff0c;AI 作画可谓是火的一塌糊涂。在你惊叹 AI 绘画能力的同时&#xff0c;可能还不知道的是&#xff0c;扩散模型在其中起了大作用。就拿热门模型 OpenAI 的 DALLE 2 来说&#xff0c;只需输…

国科大prml13-概率图(CRF,HMM)

文章目录1. 有向概率图模型&#xff08;贝叶斯网络&#xff09;1.1 概率分布1.2 表示1.3 条件独立性1.3.2 检验条件独立算法&#xff08;贝叶斯球&#xff09;2. 无向图模型&#xff08;马尔科夫随机场&#xff09;2.1 条件独立性2.2 概率分布2.3 表示无向图的条件独立性判断3.…

解读2022城市大脑首批三项标准(新版)

来源&#xff1a;远望智库预见未来解读2022城市大脑首批三项标准&#xff08;新版&#xff09;2022年9月1日&#xff0c;中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》&#xff1b;《城市大脑数字神经元…

单个细胞比科学家们以前认为的更聪明

来源&#xff1a;生物通细胞不仅根据生长因子等外部信号做出选择&#xff0c;还根据从细胞内部接收到的信息做出选择。每一天&#xff0c;人类都在为自己做选择。为了确保做出的决定适合当时的情况&#xff0c;这些决定通常需要结合一系列上下文线索。我们的感官为我们提供了做…

国科大prml14-独立于算法的机器学习(boosting/

文章目录1.哲学定理2. 重采样resampling2.1 bagging2.2 boosting2.3 adaboost2.3.2训练误差2.4 active learning3. 估计和比较分类器--交叉检验3.1 交叉验证5.adaboost在人脸检测上的应用5.1肤色模型5.2基于AdaBoost的快速人脸检测如何选择好的模型和评价模型&#xff1f;独立于…

解读2022中国城市大脑首批三项标准(新版)

来源&#xff1a;远望智库预见未来解读2022城市大脑首批三项标准&#xff08;新版&#xff09;2022年9月1日&#xff0c;中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》&#xff1b;《城市大脑数字神经元…

国科大prml15-基于浅层模型的计算机视觉--以人脸识别为例

文章目录2. 特征设计与提取过程q2.1 局部特征--SIFT2.2局部特征HOG3. 特征汇聚或变换h3.1BoVW视觉词袋模型3.2PCA4.以人脸识别为例4.1 主动统计模型4.1.1ASM(active shape model)4.1.2 AAM主动表观模型4.2人脸特征提取和比对特征脸Fisherfaces方法--本质&#xff08;Fisher线性…

DeepMind又放大招!用大型语言模型实现可信推理,距离模型可解释性又近了一步...

来源&#xff1a;AI前线整理&#xff1a;核子可乐、冬梅可解释性&#xff0c;已经成为当今机器学习研究与开发领域最紧迫的难题之一。尽管目前的大规模语言模型&#xff08;LM&#xff09;已经展现出令人印象深刻的问答能力&#xff0c;但其固有的不透明性却导致人们无法理解模…

机器智能的未来

来源&#xff1a;混沌巡洋舰今年8月&#xff0c;马斯克发布推文称将会在10月31日&#xff0c;更新有关脑机接口的最新进展。近几年&#xff0c;人工智能方面的发展一直在取得突破和进展&#xff0c;人们对这方面的期待和研究却一直没有停止。比尔盖茨2021年度书单重磅推荐了《千…

国科大prml15-目标检测

改进R-CNN缩放图片SPPNet允许不同大小输入&#xff0c;SPP(pooling)归一化到相同尺寸Fast RCNN1.SPP->Rol pooling;2.改进边框校准Smooth L1 loss&#xff1b;3.全连接加速Truncated SVDFaster RCNNRPN直接生成候选框&#xff08;共享CNN),anchor boxMask R-CNN实例分割&…

大模型铺天盖地出现后,计算机科学终成「自然科学」

来源&#xff1a;选自Communications of the ACM作者&#xff1a;Subbarao Kambhampati&#xff08;美国人工智能学会前主席&#xff09;编译&#xff1a;机器之心编辑&#xff1a;rome rome当部分人工智能正偏离其工程本源&#xff0c;AI 研究的方向变化&#xff0c;超出了我们…