为什么深度学习是非参数的?

eb5335351b34a6b67c64f7a457c92f10.png

来源:AI科技评论

作者:Thomas Viehmann

编译:钱磊

编辑:陈彩娴

今天我想要与大家分享的是深度神经网络的工作方式,以及深度神经与“传统”机器学习模型的不同之处。我的计划具体如下:

  • 首先简单地思考一下如何将问题设置成分类的形式;

  • 接下来回顾偏差-方差分解,并在偏差-方差权衡的背景下,在VC-维数和非参数上进行探讨;

  • 研究一些关于插值神经网络和双下降的文献;

  • 在文末做一个非常简单的实验,用图形直观地讲解为什么双下降现象会发生。

1

正式设置一个机器学习问题

为了有些趣味,让我们先设置一个问题。

首先从数据开始。假设我们标记了数据,即是满足Px,y分布的输入数据x(比如图片)和标签y。

如此一来我们得到:

  • 分布Px,y固定且未知。对于i = 1……N来说,可获得样本af72fb75b1aa629756cb41e458646237.png,51fdf8d6c51a4958b883d9d88d96bddd.png

  • 数学分析通常假设样本是独立的。

  • 通常来说,我们需要假设标签y和输入x间有y=6029286a15ff8f2842e2628b647a8aff.png 的函数关系,即是说,标签是精确的、没有歧义的,但并非总是如此。

我们想要“训练”的是某些函数f:x↦y ,或者说是更普遍地估计条件分布P(y∣x)。我们的候选函数来自于参数集F={fθ∣θ∈Θ},在这里θ 代表参数。

为了达成目标,我们设定了损失函数(或风险函数),从概念上讲,我们希望将预期损失1bf5bba73de3386e6e9cda39820895c6.png最小化。

第一次尝试通常是将经验风险或者经验损失9b9ec78a35fcc82965cd2031c92a927e.png最小化。如果我们的损失函数是负对数似然,将83b36794f2cc5c1034f9f00e0ffd2071.png最最小化就意味着计算最大相似估计。

对偏差-方差分解和偏差-方差平衡的简单介绍  

对于最小二乘损失L=(f(x)−y)2(最基本的回归估计量)来说,把预期损失分解成几个部分是很容易的。其诀窍在于,我们需要意识到我们的训练数据本身是一个从n次乘积分布eb74283b743eb42c8897961d1ea25181.png中采得的随机变量,且我们训练的模型 f依赖于D,记作7bf54265b8f09266917f991db9852475.png。通过巧妙地添加b1d0a99b580f30e624741bf5ed757f6c.png并利用  (x,y) 和D的独立性,我们可以将预测的期望平方误差分解为:

936face42ab3c303b5d55b4e81f1fff1.png

最后一项噪音并不依赖于我们的模型。

现在为了得到我们预测的良好的预期平方误差,我们必须注意到模型输出的偏差(第一项)和方差(第二项)的和很小。注意这里所有的项都是非负的。

针对二元分类器的预期精度,其实存在着类似但更复杂的分解,但其他损失函数通常很难分解,尽管我们可以想象那样的模型选择的工作也是类似的。

因为让偏差/方差等于0或非常接近0都相对容易,这样分解会让我们在偏差和方差间做出权衡:通过使用D中每个数据点的样本均值作为估计,偏差可以非常小,且能巧妙地给出正则性论证来假设函数是Lipschitz函数或至少是一致连续。这就是极端的过拟合。通过预测不依赖于D的函数,比如d86a7b8f2b32e07fbe0e38fa5d6dc054.png,我们可以让方差为0,这样则是极端的欠拟合。

请注意,均方误差的偏差-方差分解是一个根据数学定理(或至少一个引理)成立的方程,所以是普遍适用的,不需要任何条件。

2

从僵化中解脱出来,带来自由的结构

从某种程度上说,从上述极端情况转向更温和的条件也表明了我们在实践中可以做些什么。

增加候选函数的集合

一种方法是,以一组非常严格的函数作为候选函数,然后有意义地扩大候选函数的空间,以获得(假设是嵌套的)序列F0⊂F1⊂…. 关键想法是,进一步研究可以让模型更好地适应数据,而我们则须知道何时停止这种深入。Vapnik和Chervonenkis 的结构风险最小化原理就是这么做的,尽管该原理没有使用偏差-方差分解,而是使用了预期损失(风险)与D上的观察损失(经验风险)的边界,和一个依赖于训练数据集大小N 和函数集3ee99190d910a3dcfcb7ab24e82933aa.png的大小或其VC维的项。此处的典型情况是,一个人想要N≥VC-dim个样本,却可能有N≤20VC-dim个样本。但请注意,这里参数的数量不是标准的一部分(但可能会影响VC维)。

最后,传统标准比如赤池信息量准则尝试告诉你应该“投资”多少参数来达到低的负对数可能性。但是Bishop在其引言中发现,这些方法并不是很有效。

非参数估计:正则化

经典的非参数估计从另一个极端开始。如果我们取某个函数空间,如在13c5836ebe200e6c11bd995a2ae29aff.png里有弱导数的索伯列夫函数空间2c70573fdfceb34ef58587b1ef485b30.png (无论采用何种测度,是x的分布抑或是包含输入的75c7874e4e1b0b23b1bff0a932b57573.png的勒贝格测度),我们可以匹配任意有限样本D上每一点的样本均值,从而可以获得0点态偏差, 但是最小化经验风险是病态的,有无限多的解。

接下来要做的就是正则化。最著名的例子可能是增加一个规范项从而导致Tikhonov正则化,所以我们的损失看起来会是这样

66ef086d6761898a1c4066e789a1a997.png

如果我们从偏差-方差的角度来看,我们能够平衡偏差(当λ→0没有偏差,但会导致病态)与方差(当λ→∞,我们处于 353d10b627373a2fbd6b97bf647820f1.png。我们并不想让方差为0,因为我们的正则化项仅仅是一个半范数)。当然了,Grace Wahba有关正则化回归的研究尤其与保持偏差-方差间的良好平衡相关,特别是与如何寻找到一个合适的λ值相关。

通过观察给定的λ,d5d6bd48737674a20522fe167514f1be.png的极小值39be437517f8a285f14f6e21dd04ca6c.png会有半范数值9960a7e7e84c21cf58809bdf6e9e5260.png,该值必然能在fab34428d42fe806857774b53c6a12e8.png中将经验最小二乘损失(第一项) 最小化,就可以将前一节中的ansatz函数与嵌套空间Fi联系起来。因此来自递增权重序列f98a7f13ec03fb52e2fdd4e6ee122c47.png的递减范数序列af48a9d89b15f21ea9e25a77a64acd68.png就给到了我们嵌套的Ansatz空间。

许多流行的正则回归方法(例如Lasso)适合这种类型的框架。

赞美VC界

让我们讲回VC 界,正式一点以便增强直觉。关键的概率界限是为了准确性(或者说0-1的风险)

8b12ce15c3eb708377849259ef2a1782.png

我们来分析一下。外面部分称“概率大于等于1−η”(我们还得更精确一点),此处我们觉得概率η太小了,这意味着我们所有的只是一个概率界限,而不是一个“几乎肯定”的保证。

内部的部分基本上是说,在全概率分布上的精度非常接近于在训练集上的精度,也就是说在N变得非常大的时候,我们有一个差值趋于零的精确边界。

从表面上看,这告诉了我们关于风险或准确性的信息,但是关于模型又说明了什么呢? 在我看来,关键的信息是,我们的模型是如此严格,以至于我们可以看到测试集上发生的一切(或者更精确地说,在完整的Px,y分布上发生的一切)已经在训练集中发生了。

贝叶斯放一边

在贝叶斯环境下,正则化可以被解释为最大后验(MAP)估计,或者——如果我们经历了定义先验的麻烦——我们也可以对所有f∈F的估计进行积分。

3

这告诉了我们深度学习的什么?

当我们将model.parameters()(这里我用的是PyTorch)传递给优化器时,深度学习看起来好像是参数化的。但其实它不是!

看起来这种正则化方法正是深度学习运作的理论框架——有时人们对此知之甚少。我们的模型足够大,从“道德上看来”足以成为非参数,尽管我们还没有完全理解,但我们所做的大多数事情(比如augmentation, norm layers和 dropout)其实都是正则化。

这也是M. Belkin等人所写的《协调现代机器学习实践和偏差-方差权衡》(Reconciling modern machine learning practice and the bias-variance trade-off)的主题和他们早期研究的主题,即泛化性能的关键是由某个特定函数空间范数衡量的函数的规律性或平滑性。 

我们有必要仔细看看M. Belkin等人(我认为这是首次)对双下降现象的描述:

9ef9cc3799c362ac32d1fc8b6a3f1eee.png

这里有几点需要注意:

  • M. Belkin等人把条件中的“传统(classical)”和“现代(modern)”等限定词用引号括了起来。“现代”条件是一种十分之非参数的学习,具有一种我们还需要更加深入理解的正则化。

  • 在多参数的条件下,偏差-方差思维似乎仍然是完全适用的,但非参数回归可能是比“限制容量”的候选集更好的参考框架。

对于双重下降现象的普遍理解似乎都是基于P. Nakkiran等人的文章:《双重下降》(Deep Double Descent),这证明了这篇论文的优秀,也证明了OpenAI能够将这些选题推介给更广泛的受众。他们用更真实的网络进行了系统的实验(M. Belkin等人则引用了更浅层的网络)。对我来说,一个重要的结论是,双重下降现象在标签损坏的两种实验条件中存在“凹凸”,他们的报告称,在标签干净的实验中,所得到的结果则要平缓得多,没有那么“凹凸”。

他们给出了一张图,这张图显示了对于固定次数的epoch,用损坏标签将一个修改过的ResNet18训练成CIFAR10这个过程中的测试错误。修改是指信道数量降到原数量的k分之一(k在64到1这个范围)(意思是他们会从原ResNet18的64分之一开始做实验,逐渐增加,最后达到原数量)。标签损坏发生在数据集中(在某一次epoch,而不是每个epoch中),15%的标签被切换到一个随机错误的类。这被解释为一种概略的误设。

9cf70a376367ecb6ddc6a5e7bf18294c.png

4

VC理论对于用噪声标签拟合模型有什么启示?

通过上面的讨论,我们了解到当一个模型处于VC界有用的限定条件中(比如当小模型处于“传统”条件中),如果训练数据 D来自与原始数据相同的分布 Px,y,测试集的测试精度(很可能)接近训练精度。换句话说,这个条件意味着我们假设Px,y有相同的损坏程度(和损坏种类)。但这意味着如果模型学习了,且学会了不被损坏的训练数据分散太多注意力,也就是说,在训练数据上,正确标签会挤出损坏标签。

5

特征和学习

让对深度学习的直觉化变得困难的原因之一是Ansatz领域的自适应特性。我这么说的意思是,我们没有一个固定的特征提取器(由手动构造,并由核机中使用的核家族给出)将学习应用到特征上。通常,我们将最后一层的输入视为特征(通过word2vet式损失、原型网络、基准无监督学习等方式学习的向量表示方法),或者我们可能在MLP分类器头之前的卷积层末尾分割卷积网络。

传统的做法是将学习后的分类器放在固定的特征提取器上,E. Hoffer等人的想法却相反,他们甚至建议对分类器进行固定,即只对特征提取器进行训练。

因此,我们可能会试图通过假装提取特征来简化我们的直觉。在P. Nakkiran等人的标题图片实验中,当使用t-SNE等降维机制将通过无噪声数据学习到的特征可视化时,添加标签噪声相当于在每个类对应的点的blob上添加噪声。考虑到这一点,我们可以进行一个类似的实验,这个实验甚至比M. Belkin等人的人工数据实验更简单,那就是:理解深度学习。

6

对标签噪声、容量、双下降和实验测试误差的直觉

258833ffb686a75eab469d1f32843904.png

撇开统计数据不谈:下文推测了一些可能发生的情况,通过想象我们可以在原型网络中得到与P. Nakkiran等人图中所描述的相同的现象,且容量由我们所能拥有的原型数量来表示:

  • 在最左边width(参数)值1到5附近,我们的原型比类少,模型拟合程度不高(欠拟合),因为模型不能代表所有的类。

  • 在width5附近,我们有10个(或者适当地更多)原形,但是,在每一个原型的训练中损坏标签都被挤出了,所以这些损坏标签没有发挥作用。

  • 在width5到10这个范围,原型收集损坏的标签。由于每个原型都有一个用在推断阶段的“影响范围”,所以存在一个相当大的空间,在这个空间中损坏原型与测试是非常相关的。

  • 在width10以外的范围,我们增加了更多的原形。原型之间变得更近,在推断阶段中损坏的标签原型也被“挤出”,因此它们的“影响范围”就会变得更小(因为比起拥有3个损坏原形,同一个类拥有5个非损坏原型中的3个的概率更大)。

这对偏差-方差分解意味着什么? 回想一下,分解在空间上是逐点的,并像之前一样要对各种训练数据集进行方差和偏差处理。假设你只有两个类,那么预测和标签要么是0要么是1。接下来原型收集已损坏的标签,就会产生偏差(因为你将以某种概率预测错误的事情)和方差(因为糟糕预测的区域取决于哪些标签已损坏,也就是取决于我们在哪个数据集D上绘制),并使错误预测的区域更小,从而减少方差和偏差。

在这种直觉中,早期停止的作用是检测模型何时开始收集已损坏的标签。

所以看起来现代神经网络本质上是非参数的,其工作方式依赖于各种正则化。为了使用M. Belkin等人的公式,我们希望更加了解,我们对于各种技术如何对某些函数空间范数作用的理解到了什么程度。似乎很难得出“传统”统计数据表明现代学习不起作用的结论。

Hastie等人的《高维无脊最小二乘插值中的惊喜》(Surprises in High-Dimensional Ridgeless Least Squares Interpolation)一文将最小二乘作为模型问题,提供了非常全面的分析,这也可能为深度学习现象提供直觉。

在插值条件中挤出错误标记的数据  

我们可以做一个非常简单的插值条件的模拟。我们来思考一个由2d标准单位法线提取并沿着水平轴移动±2的点的二分类问题,并从每个类别的分配中抽取25%的点。

为了得到一个插值条件,我们使用一个具有明显峰值的核。为了有一个易分析处理的质量并将其标准化为1,我们使用核  41abdd1c239c3e1a43f2cf77dc090322.png

这个核有单位质量,在x=0时趋于无穷,且从原点衰减:

81204f64f51300e4de7cfa3bb19f7841.png

这意味着,如果我们将每一类的密度表示为样本7674b26b187070564c35816118b08ba3.png处核的均值,即:

fe8cb5cb260a816fc253d0121423af10.png

假设不同类别的点不重合(几乎肯定如此),我们可以根据6da0e02b9537200a85f8f62182567461.png更大的点对每个点进行分类,或者说,如果我们想通过标准化每个点的概率密度来获取概率

45ba80a821e4dd98c569fbf188fbf11d.png

这给了我们一个插值解——在每个训练点,标签类有无限密度,所以它被归类为属于这个类。

那么标签错误发生了什么呢? 标签错误会导致损坏的训练点附近的某些区域被分配给错误的类。然而,附近正确类的点越多,错误分类的区域就越小。我们可以交互地尝试。随着点数的增加,测试误差会减少。

a17ca9900acff923f199bdb10116e65e.png

这意味着什么呢? 这说明对于插值解,在测试时间内,良好的训练点会挤出标记糟糕的点。 

对抗示例

但是,随着数据的增加,当坏分类的区域和被随机抽样的数据点击中的概率减小时,随机抽样点到下一个坏样本的距离也减小了。这意味着除了利用模型的不良连续性(即输入的小变化会导致提取的特征发生大的变化),插值条件也能使对抗例子更容易产生,因为我们只需要特征的小变化。

特征噪声类似于标签噪声

但是,双重下降不是也发生在没有损坏标签的情况下吗? 我们“仅仅”需要格外小心地处理我们的训练数据吗?

好吧,没这么简单。高维特征在本质上可能比低维特征噪声更多:想象一下在高维空间(比如d)中有一个两类线性分类。我们有了有向量bf8ffe4a919f85e904c36634b823e0c3.png和偏差33b4c91379c1b2afa0eca42efc1aa10e.png的分类器。给定输入2e310c6a07cd60409e7fb45140460c55.png,当x⋅v+b≥0时,类为1;否则,类为0。如果我们预先知道输入是有界的,我们可以找到类原型 f9e20928278ceeefd3c3a54f8289cda8.png,并使用距离0412816daf86c4adaab3485cdb32c62b.png进行分类。但随后的线性分类器的d−1维零空间(null-space)中的向量,比如我们可以添加到输入中而不改变结果的向量空间9b566a6a84a08ca7be9b792d247afa8d.png,可能对这个距离有很大帮助,从而使得cb4119f880cf20b29273cb3afc230a52.png成为对更相关的投影距离30c728cc7f5ebda3be71b570acddf546.png的一个噪声估计。

如果我们想保持在二维空间,我们可以放大噪声维度。这就将我们引入第二个实验。我们来绘制独立的随机二维点,其在“特征维度”中的标准偏差为0.5,在“噪声维度”中的标准偏差为5。这两个类用±1分开。我们使用EM算法来将每个维度的标准偏差为1的K高斯函数的混合值拟合到每个类中。通过比较两个拟合密度进行分类。我们使用5000个训练点和1000个测试点。

64f7d3314e9398b3c3e33a2001702114.png

如果我们以不同的K值运行200次,并记录其准确性,我们可以看到双重下降中的凹凸:

853b36eaede7bbc635e5ad4ae29079e6.png

关于这些实验的一个问题是:误差分布是倾斜的:我们得到的很多测试误差在2-3左右出现,可误差在10左右还出现了一个尾巴。这条差拟合的曲线尾部的质量随分量K的数量而变化,似乎是造成中间K的平均误差出现凹凸的主要原因。

7

结论

综上,我们学到了什么呢?

  • 在我看来,噪音需要在推断阶段而不是在训练阶段挤出特征,由此我们看出深度学习模型的本质是非参数的。这与KDE实验非常接近。

  • 即使我们有很好的标签(你有的,对吧?),深度学习中的高特征维度会导致特征中的噪音,而这些噪音的行为与标签中的噪音类似。

原文链接:

https://lernapparat.de/statistics-deep-learning-nonparametric

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

85aff15a1a8bd839d0a8008e27c51fcd.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/482354.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

“一束光”让机器人也能拥有触觉?之江实验室这项技术惊艳世界

来源:浙江日报传递触觉的“特殊道路”我们对这个世界最初的感知通常是从触觉开始的——第一声啼哭之前,婴儿经历过诱发哭声的拍打;成长中提笔、拍球;生活中握手,敲击键盘,使用手机……触觉充斥着我们日常生…

图书管理系统~简单流程

1. 连接数据库 2. 路由url (网站目录) 2.1若要从URL 中捕获一个值,只需要在它周围放置一对圆括号。(分组)2.2使用简单的、没有命名的正则表达式组(通过圆括号)来捕获URL中的值并以位置 参数传递给视图。在更高级的用法…

7年前轰动全球的Science论文,被发现可能搞错了

来源:iNature蛇是一个非常多样化和成功的群体,但它们的进化起源是模糊的。两条腿蛇的发现揭示了从蜥蜴到蛇的过渡,但没有描述过四条腿蛇,早期蛇的生态知之甚少。2015年7月24日,英国朴茨茅斯大学David M. Martill等人在…

Django - AJAX

一. JSON 什么是json? json指的是JavaScript对象表示法(JavaScript Object Notation)json是轻量级的文本数据交换格式独立于语言, 支持不同的编程语言具有自我描述性, 跟易理解合格的json对象: ["one", "two", "three"] { "one": 1, …

培育强人工智能的「ImageNet」:上海交大卢策吾组提出铰接物体知识库 AKB-48

来源:前沿科技编译:OGAI编辑:陈彩娴ImageNet 的出现极大推动了计算机视觉领域的发展。在通往强人工智能的路上,我们还需要考虑物体的外观、结构、物理性质、语义等因素。为此,上海交大卢策吾组近日重磅推出了大型真实世…

模块化认知:演化如何自下而上涌现出智能?

来源: 集智俱乐部作者:Michael Levin, Rafael Yuste译者:郭瑞东审校:刘志航、梁金 编辑:邓一雪 导语无论是聪明的人、哺乳动物、鸟类,还是细胞和组织、神经元网络、病毒以及蛋白质分子,在所有尺…

Stuart Russell:智能本质和人工智能安全的巨大挑战

斯图尔特罗素(Stuart Russell),加州大学伯克利分校计算机科学专业教授,著有人工智能领域“标准教科书”——《人工智能:一种现代化方法》(与谷歌研究主管Peter Norvig合著)来源:智能…

费马大定理:三百年数学圣杯的角逐

来源:和乐数学费马大定理,又被称为“费马最后的定理”。人类前赴后继挑战了三个世纪,多次震惊全世界,耗尽人类众多最杰出大脑的精力,也让千千万万业余者痴迷。费马大定理的故事与数学的历史有着千丝万缕的联系&#xf…

Django - Form和ModelForm

一. form介绍 1.生成页面可用的HTML标签 2. 提供input可以提交数据 3. 对用户提交的数据进行校验 4. 保留上次输入内容 5. 提供错误信息 二. 普通方式书写注册功能 <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8">&…

人工智能,“抛弃”真实数据集?

来源&#xff1a;学术头条当前&#xff0c;人工智能技术已经应用在我们日常生活中的方方面面&#xff0c;比如人脸识别、语音识别、虚拟数字人等。但普遍存在的一个问题是&#xff0c;科研人员要想通过训练一个机器学习模型来执行某一特定任务&#xff08;比如图像分类&#xf…

Django - Cookie和Session

Django - Cookie和Session cookie Django中操作CookieCookie版登陆校验Session Django中Session相关方法Session流程解析Session版登陆验证Django中的Session配置Django - Cookie和Session cookie Cookie的由来 大家都知道HTTP协议是无状态的。 无状态的意思是每次请求都是独立…

一文说清AI智能平台

来源&#xff1a;海豚数据科学实验室有一天&#xff0c;小李的领导说&#xff1a;“我们要做AI平台&#xff01;”。虽然平台产品也不是新概念了&#xff0c;随着AI技术的成熟&#xff0c;AI平台产品也越来越多&#xff0c;但光凭做平台一句话&#xff0c;小李还是犯了难——大…

2D图像转3D仅需5秒,特斯拉的自动驾驶技术有救了?

来源&#xff1a;科技智谷编译&#xff1a;徐浩75年前&#xff0c;宝丽来相机拍摄出第一张即时照片&#xff0c;是人类第一次以逼真的二维图像快速捕捉三维世界&#xff0c;具有划时代的意义。今天&#xff0c;人工智能的研究人员正在进行相反的工作&#xff0c;力求在几秒钟的…

Django - 中间件

Django - 中间件 一. 什么是中间件 官方: 中间件是一个用来处理Django的请求和相应的框架级别的钩子, 他是一个轻量, 低级别的插件系统, 用于在全局范围内改变Django的输入和输出, 每个中间件都负责做一些特定的功能. 大白话: 中间件是帮助我们在视图函数执行之前和执行之后都可…

回答薛定谔问题: 生命是什么?自由能公式

来源&#xff1a;CreateAMind回答薛定谔的问题:自由能公式麦克斯韦詹姆斯德索莫拉姆斯泰德a,b,∗保罗本杰明巴德科克c,d,e,卡尔约翰弗里斯顿f,1加拿大魁北克蒙特利尔麦吉尔大学哲学系加拿大魁北克蒙特利尔麦吉尔大学精神病学系社会和跨文化精神病学分部c墨尔本大学心理科学学院…

AlphaCode能替代人类程序员吗?网友:被替代也挺好,这样就可以少写代码多开会了...

来源&#xff1a;AI前线作者&#xff1a;Ben Dickson译者&#xff1a;王强策划&#xff1a;冬梅本文属于我们的人工智能研究论文评论系列&#xff0c;这个系列旨在探讨人工智能领域的最新研究成果。DeepMind 是最新的人工智能研究实验室。它推出了一个可以生成软件源代码的深度…

Django - 内置admin

Django内置的Admin是对于model中对应的数据表进行增删改查提供的组件&#xff0c;使用方式有&#xff1a; Django内置的Admin是对于model中对应的数据表进行增删改查提供的组件&#xff0c;使用方式有&#xff1a;复制代码依赖APP&#xff1a;django.contrib.authdjango.contri…

Auth认证模块

Auth认证模块 本文目录 1 Auth模块是什么2 auth模块常用方法3 扩展默认的auth_user表回到目录1 Auth模块是什么 Auth模块是Django自带的用户认证模块&#xff1a; 我们在开发一个网站的时候&#xff0c;无可避免的需要设计实现网站的用户系统。此时我们需要实现包括用户注册、用…

2021年图灵奖,花落高性能计算先驱、田纳西大学教授Jack Dongarra

来源&#xff1a;智源社区“我是一个数学家&#xff0c;对我来说&#xff0c;一切都是线性代数&#xff0c;但世界也正在看到这一点,”Jack Dongarra在采访中表示。“这是我们用来建造其它东西的材料。”他说&#xff0c;机器学习和人工智能中的大多数问题都可以追溯到线性代数…

万字深度好文!视觉-语言(VL)智能:任务、表征学习和大型模型

来源&#xff1a;AI科技评论编译&#xff1a;Jocelyn编辑&#xff1a;陈彩娴本文对视觉-语言&#xff08;VL&#xff09;智能按时间顺序进行了全面调研&#xff0c;并将这一领域的发展总结为三个阶段&#xff1a;第一个阶段是2014-2018年&#xff0c;其间&#xff0c;专门的模型…