窥探当今AI芯片中的类脑模型

640?wx_fmt=jpeg

来源:脑人言

撰文丨邓 磊(加州大学-圣塔芭芭拉分校UCSB 博士后)

责编丨高茂森 Soma

排版丨夏獭

科学研究的动机,并非仅仅是出于能看到多酷炫的应用,而是因为我们尚有诸多未知世界需要探寻,这是一切应用的前提。

640?wx_fmt=gif

AI芯片如火如荼

AI芯片是当今人工智能热潮中不可或缺的一个名词,且受国际局势影响愈加受到重视。摩尔定律难以为继,通用处理器的性能提升速度大为减缓,在晶体管物理微缩和计算体系架构改进带来的收益之争中,后者渐处上风。

在此背景下,学术界和工业界纷纷将视野转向针对特定领域设计高性能的专用芯片,拟将架构设计发挥到极致。

AI芯片作为最为典型的领域专用芯片代表,受到国内外研发单位的高度关注。国外有谷歌、苹果、英特尔、IBM、英伟达等巨头领衔,国内也有寒武纪、地平线、深鉴、华为、阿里等公司响应,最近清华大学的天机芯更是登上了Nature杂志的封面[1],其形势可谓如日中天。640?wx_fmt=gif

 640?wx_fmt=jpeg

然而,AI芯片中所谓的“智能”究竟源自于哪些模型,又和我们的大脑有何关系,他们的过去和未来将会怎样,本文带你一探究竟。

640?wx_fmt=gif

人工神经网络

基本模型

深度学习又是当今机器学习的宠儿,其以人工神经网络(Artificial Neural Network, ANN)为主要模型。

ANN由大量神经元(Neuron)通过突触(synapse)连接而成,从输入到输出呈现层级结构,当层数较多时则被称为深度神经网络(Deep Neural Networks)。

640?wx_fmt=jpeg图1 人工神经元示意图

每个神经元的基本结构如图1所示,而基本的计算原理为640?wx_fmt=jpeg640?wx_fmt=gif,其中x640?wx_fmt=gif和y640?wx_fmt=gif分别为输入和输出激活值、640?wx_fmt=gif640?wx_fmt=gifw为突触连接的权重值、640?wx_fmt=gifb为偏置值、640?wx_fmt=gifφ为非线性激活函数。640?wx_fmt=gif640?wx_fmt=jpeg

 (a) 全连接神经网络;(b) 反馈神经网络;(c)卷积神经网络。

根据神经元的连接拓扑可以分为全连接神经网络、卷积神经网络、反馈神经网络等,如图2所示。

相比于全连接神经网络,卷积神经网络通过引入二维特征图与突触核的卷积操作获得了强大的局部特征提取能力,被广泛用于图像处理领域。

而反馈神经网络通过引入反馈连接,建立时序动力学模型,被广泛用于处理语音文本等时序数据。

其实,ANNs模型的建立也是在不同时期中分别借鉴了神经科学的知识:

640?wx_fmt=png

人工神经网络的概念以及基本神经元模型于1943年就已提出[2],这正是试图模拟脑皮层以神经元网络形式进行信息处理的体现。

卷积神经网络的局部感受野是受到大脑视觉系统的启发。

深度神经网络的层级构建是源于脑皮层的分层通路。

只不过在深度学习的后续发展中,研究者更加偏重把神经网络视为一个黑匣,用于拟合从输入到输出的复杂映射关系:

640?wx_fmt=png

只需要给网络的输出定义一个收敛目标(目标函数,比如每张图像的输出对应到正确的类别)并描述为一个优化问题,然后用梯度下降的方式去更新系统参数主要是突触权重,使得输出逐渐逼近想要的结果。

原则上网络越大,特征提取的能力就会越强,也就需要越多的数据来训练网络更新参数使网络收敛,因此计算量也大幅增加。

故而,深度学习也被称为数据和算力驱动的智能。虽然深度学习以解决实际应用为目标而与神经科学渐行渐远,但近两年也有科学家试图在大脑中找到梯度下降的证据和吸收新的脑科学成果[3-8]。

深度学习的腾飞之路

20世纪末到21世纪初很长一段时间内神经网络方法不被多数人看好,其表现也不如传统机器学习模型,多亏图灵奖得主Hinton、LeCun和Bengio三位前辈的坚持,才有了今天的成就。

深度学习的飞速发展主要归功于大型数据库的诞生(如ImageNet)、高性能计算平台(如GPUs)的出现、友好开发软件的耕耘(如Tensorflow/Pytorch等)和神经网络模型的改进(如卷积神经网中的VGG/Inception/ResNet/DenseNet),缺一不可。

由于成熟的算法、工具和应用场景,深度学习受到学术界和工业界的一致认可。深度学习加速器也现身各大学术顶会,并受到巨头公司和创业公司的青睐,这其中就包括研发TPU的谷歌、手机内置神经引擎的苹果以及国内的寒武纪、地平线、深鉴科技、华为、阿里等,当前主要热门方向为研制运行ANNs模型的高性能云计算平台和低功耗终端器件。

640?wx_fmt=gif

脉冲神经网络

基本模型

与深度学习不同,神经形态计算(neuromorphic computing)是目前智能模型中的又一大主要分支,它更加注重模拟大脑回路的行为,这里给大家介绍两类神经形态模型:脉冲神经网络(Spiking Neural Network, SNN)和神经动力学网络(Neural Dynamic Network)。

SNN与ANN主要有两大不同,其一是采用脉冲编码—spike code(0/1),其二是具有丰富的时间动力学。SNN神经元如图3所示,其模型可简单描述为:

640?wx_fmt=gif640?wx_fmt=jpeg

其中,640?wx_fmt=gif(t)为时间步,t640?wx_fmt=gif是时间常数,640?wx_fmt=gifu为神经元膜电位,640?wx_fmt=gifs为神经元的脉冲输出,640?wx_fmt=jpeg640?wx_fmt=gif640?wx_fmt=gif640?wx_fmt=jpeg分别为神经元静息电位和重置电位,640?wx_fmt=gif640?wx_fmt=jpeg为脉冲发放阈值,640?wx_fmt=jpeg640?wx_fmt=gif表示每个神经元会累加对应突触输入脉冲序列中一定时间窗640?wx_fmt=jpeg640?wx_fmt=gif内的脉冲信号,640?wx_fmt=gif640?wx_fmt=jpeg用于刻画时间衰减效应(距离当前时刻越近的脉冲输入对膜电位影响越大)。

640?wx_fmt=jpeg

图3 脉冲神经元示意图

135编辑器

虽然上述以微分方程为基础的SNN神经元模型看起来比ANN模型更为复杂,但它已经是最为简化的SNN模型了,被称为泄漏积分发放模型(Leaky Integrate and Fire, LIF)[9],其它更为复杂的模型如Izhikevich[10]和Hodgkin & Huxley[11]仅凭借现有计算机还难以仿真大规模网络。

原理上,SNN的时间积分效应可以使得其能够处理时序问题,尤其是稀疏数据(事实上大脑神经元发放频率也是非常稀疏的);其膜电位泄漏和阈值发放效应,进一步使得其能够具有一定的去噪功能(事实上大脑脉冲信号也具有很多噪音,但大脑仍能正常工作)。

这两个特性,目前的ANN模型都不具备(反馈神经网络尽管具备时域处理能力,但与SNN很不相同)。虽然理论上有较大潜力,但由于SNN神经元的多变量时空动力学比较复杂,而脉冲发放活动又不可导,导致其无法使用具有全局性的梯度下降算法进行学习。

135编辑器

在相当长一段时间里,其主要的学习规则都是非监督的脑启发STDP(spike timing dependent plasticity)规则[12],仅利用突触两端神经元的局部脉冲响应来更新突触权重以满足学习目标。 

虽然STDP具有一定的生物基础,但它太过于局部化,难以获得类似梯度下降算法的全局优化能力,导致其在诸多应用中表现差于ANN模型。

直到最近三年,才有研究者通过将预先采用梯度下降算法训练好的ANN模型转换为其SNN版本[13,14],或者通过对脉冲发放函数进行导数逼近,进而直接计算每个时刻膜电位和脉冲活动的梯度以实现基于梯度下降的有监督算法学习[15,16],这些努力逐渐使得SNN的应用性能接近目前的ANN模型。

争议丛生但未来可期

支持SNN的器件通常称为神经形态器件(如欧洲的SpiNNaker[17]和DYNAP[18],IBM的TrueNorth[19],Intel的Loihi[20]),其研究的动机主要是因为SNN的类脑特性使其更有希望通过构建大规模系统获得类脑智能。

不过从应用角度出发,目前的神经形态器件大多只能体现低功耗的特性,这是由于SNN神经元的输入输出信号为二值脉冲的缘故,可以去除输入和突触权重运算中的笨重乘法,再加之脉冲活动非常稀疏且允许事件驱动的异步电路设计。

而在功能方面,SNN所表现出的性能尚不能与深度学习匹敌,这也是工业界对神经形态方案的热情有所消退甚至持怀疑和观望态度的原因。

135编辑器

但笔者认为,目前的神经形态计算还有很大的提升空间,未来仍有可期:

一方面,深度学习的进步是数据、算力、软件和模型共同进步的结果,非一日之功,而神经形态计算在上述优化上还处于起步阶段。期待研究者们继续从各个子领域努力前行,逐步迭代发展。

640?wx_fmt=gif

神经动力学网络

基本模型

这类模型通常用于研究脑回路的响应特性,成果相对分散。这里给大家介绍比较典型的连续吸引子网络(Continuous Attractor Neural Network, CANN)[21,22],其神经元模型可以简单总结为如下:

 640?wx_fmt=jpeg

 其中大多数变量含义与SNN类似。此外,640?wx_fmt=gifx为神经元在二维空间中的坐标位置(如图4所示,以二维CANN为例),640?wx_fmt=jpeg640?wx_fmt=gif为两个对应位置神经元之间的突触连接权重,640?wx_fmt=gif是神经元发放频率,640?wx_fmt=gif640?wx_fmt=jpeg为外部刺激,β640?wx_fmt=gif640?wx_fmt=gifk为常数。

可以看到,CANN把SNN中“从膜电位到脉冲信号”的转换调整为了“从膜电位到发放频率”的转换,公式中的除法归一化体现了大脑中普遍存在的神经元抑制作用,使得发放频率不会无限增长,整个系统趋于稳定。

135编辑器

在CANN中,突触权重通常配置为高斯峰形状,即640?wx_fmt=jpeg640?wx_fmt=gif,相距越近的神经元连接越强,反之越弱,而α640?wx_fmt=gif控制着高斯峰的半径。如此,在没有外部刺激的时候,CANN模型的神经元发放频率响应也呈现稳定的高斯函数形状,称为响应波包(Bump),表示网络的一个吸引子状态。

CANN不仅有简洁的形式和特殊的动力学特性,在大脑中也具备生物学基础

640?wx_fmt=png

大脑中头朝向神经元在空间上沿着一个环分布构成一维CANN,神经元群活动可以预测头转动的趋势。

海马中的空间神经元(Place Cell)互相连接构成一个二维CANN,神经元活动的波包可以编码动物的空间位置,支持大脑的空间导航。

少数动物如蝙蝠的空间定位系统甚至会用到三维CANN。

关于CANN的计算原理、生物基础和应用场景的更多信息,感兴趣的读者可以参考北京大学吴思教授课题组微信公众号“吴思Lab计算神经科学及类脑计算”最近发布的CANN专帖【学术思想】连续吸引子神经网络:神经信息表达的正则化网络模型。

640?wx_fmt=gif640?wx_fmt=jpeg

图4 二维CANN模型示意图

135编辑器

CANN的应用场景有很多,这里主要给大家详细描述目标追踪的实现[23]。当图4中二维神经元阵列对应到视频中的像素阵列、每个神经元的640?wx_fmt=gif640?wx_fmt=jpeg接收对应位置像素强度的前后帧差分信号刺激时,网络便可实现目标追踪。 

详细而言,网络初始时对目标所在的方框区域初始化为高响应值,其他区域为0;开始运行后,网络所有神经元按照CANN规则进行计算,而目标所在区域的强差分输入会牵引着神经元响应波包平滑移动,波包位置对目标进行实时追踪。突触权重高斯峰的半径决定了追踪的性能:太宽则容易受邻近目标干扰,太窄则容易跟丢目标。

这种吸引子跟随外部输入的牵引而移动是CANN的特有动力学特性,对目标的追踪也非常平滑自然。除目标追踪的应用外,波包编码本身也是一种神经元群编码的体现,相比于单神经元编码,更具有鲁棒性。

另一方面,一簇CANN神经元可以处理某种模态信息的不同任务,也可以处理不同模态的信息,多簇CANN可以用长程连接进行信息交互,因此CANN也有潜力为大脑提供多模态信息处理的统一框架。

实际应用任重道远

前面讲述的深度学习和SNN都有对应的专用处理芯片,而神经动力学网络由于本身研究比较分散,应用也不成体系,在硬件中的实现仍较为少见。 

MIT曾实现了十多个神经元的简单CANN模型[24],但并未引起重视。最近,清华大学的类脑芯片—天机芯通过对CANN模型突触连接的局部约束、数据的低精度化等硬件友好改造,实现了约800帧每秒的超快目标追踪[1,23]。

目前多数神经动力学网络还是以复现神经回路响应模式居多,距离实际应用还任重道远,需要持续不断地进行挖掘。

640?wx_fmt=gif

天机芯

跨域融合思想

上述模型各有特点和优缺点,孰优孰劣尚无定论。与现有深度学习加速器和神经形态器件分别支持ANN和SNN模型不同,天机芯[1]的目标是促进通用人工智能的发展,所以在保持专用芯片高效能的同时需要尽可能提高对上述模型支持的通用性。

由于不同模型的迥异计算原理、信息编码方式与应用场景,导致其所需的计算与存储架构以及优化目标相差较大,这点从现有深度学习加速器和神经形态器件的独立设计和应用体系可以看出来。这里需要注意的是,分别设计不同模型的专用模块再简单放置到一起是行不通的,原因如下。第一,很难确定各自的配置比例,因为现实应用中的工作负载往往是多变的;第二,面积和功耗都不高效,处理单一同构模型时,会导致总体利用率很低;第三,处理混合异构模型时,需要专门的信号转换单元,增加额外成本降低效率。

135编辑器

在天机芯的设计中,实现异构融合有两个关键点。首先,深入研究大多数目前的主流神经网络模型,包括人工神经网络、脉冲神经网络与神经动力学网络等,建立一个通用的模型描述框架,并把这些模型进行合理拆解后映射至包括轴突、树突、突触、胞体以及互连网络等基本模块上,归纳每个模块应具备的算子功能。每个模块都最大程度复用不同模型工作模式的存储和计算资源,所以最终面积只比单一模式高3%。 

然后,基于现有神经形态芯片的众核可扩展架构(每个芯片中有许多个互相连接的基本功能核),并仔细设计上述几个基本模块,包括模式可独立配置的轴突和胞体(输入/输出模块),模式共享的树突和突触(运算模块),以及统一的路由协议和路由网络(连接模块)。当轴突和胞体工作在相同模式下,整个网络可支持典型单一同构模型;当轴突和胞体工作在不同模式下,整个网络可支持目前尚缺乏研究的混合异构模型,有望推动神经网络新模型的探索。 

无人自行车应用演示

选择什么样的平台来演示天机芯的基本功能并非易事。首先,这应该是一个类似大脑的多模态系统,覆盖感知、决策和执行的完整链路,并能够为异构融合的多种模型提供任务支撑,这与目前很多AI系统演示的单一任务不同。其次,这应该是一个能够与现实环境交互的真实系统,而不是停留在机房实验。再者,这个系统最好对处理芯片有功耗和实时性要求,以体现专用芯片的优势。最后,这个系统必须是安全可控的,能够方便实验。综上所述,无人智能自行车平台应运而生,其具有语音识别、目标探测和追踪、运动控制、障碍躲避以及自主决策等功能,是一个运行在户外场景同时对功耗和实时性具有需求的一个嵌入式机器人,算得上是一个五脏俱全的小型类脑平台。 

其中,目标探测采用的是ANN中的卷积神经网络,在相机采集的图像中探测目标位置;车身平衡控制采用的是ANN中的全连接神经网络,根据陀螺仪采集的车身姿态实现对转向电机的PID控制,保持自行车平衡;语音命令识别采用的是SNN模型,将语音信号转换为spike脉冲信号特征后进行命令分类;目标追踪便是前面介绍过的CANN模型;自主决策是一个有限状态机,实现上述不同模型的融合通信,因此是一个异构的混合模型

135编辑器

总结

纵观当今的AI芯片,从计算机科学和神经科学角度寻求动机,采用了不同的神经网络模型,呈现了不同的硬件架构设计,应用和性能也各有所长。 

笔者认为,在现阶段没有必要急着对各类途径分出胜负。

一方面应该继续保持研究的多样性,使各个领域迭代发展,毕竟每一条路线目前看来都不能保证成为终极方案。 

另一方面,面对目前已知的各类神经网络模型,从数学根本上去探寻他们的表达能力差异从而寻求可控的大一统模型,也是很好的着力点。

科学研究的动机,并非仅仅是出于能看到多酷炫的应用,而是因为我们尚有诸多未知世界需要探寻,这是一切应用的前提。

参考文献

[1] Pei, Jing, Lei Deng, Sen Song, Mingguo Zhao, Youhui Zhang, Shuang Wu, Guanrui Wang et al. "Towards artificial general intelligence with hybrid Tianjic chip architecture." Nature 572, no. 7767 (2019): 106.

[2] McCulloch W S, Pitts W. A logical calculus of the ideas immanent in nervous activity. Bull Math Biophys, 1943, 5(4): 115–133.

[3] Sacramento, Joao, Rui Ponte Costa, Yoshua Bengio, and Walter Senn. "Dendritic error backpropagation in deep cortical microcircuits." arXiv preprint arXiv:1801.00062 (2017).

[4] Guerguiev, Jordan, Timothy P. Lillicrap, and Blake A. Richards. "Towards deep learning with segregated dendrites." ELife 6 (2017): e22901.

[5] Sabour, Sara, Nicholas Frosst, and Geoffrey E. Hinton. "Dynamic routing between capsules." In Advances in neural information processing systems, pp. 3856-3866. 2017.

[6] Roelfsema, Pieter R., and Anthony Holtmaat. "Control of synaptic plasticity in deep cortical networks." Nature Reviews Neuroscience 19, no. 3 (2018): 166.

[7] Marblestone, Adam H., Greg Wayne, and Konrad P. Kording. "Toward an integration of deep learning and neuroscience." Frontiers in computational neuroscience 10 (2016): 94.

[8] Ullman, Shimon. "Using neuroscience to develop artificial intelligence." Science 363, no. 6428 (2019): 692-693.

[9] Gerstner, Wulfram, Werner M. Kistler, Richard Naud, and Liam Paninski. Neuronal dynamics: From single neurons to networks and models of cognition. Cambridge University Press, 2014.

[10] Izhikevich, Eugene M. "Simple model of spiking neurons." IEEE Transactions on neural networks 14, no. 6 (2003): 1569-1572.

[11] Hodgkin, Alan L., and Andrew F. Huxley. "A quantitative description of membrane current and its application to conduction and excitation in nerve." The Journal of physiology117, no. 4 (1952): 500-544.

[12] Song, Sen, Kenneth D. Miller, and Larry F. Abbott. "Competitive Hebbian learning through spike-timing-dependent synaptic plasticity." Nature neuroscience 3, no. 9 (2000): 919.

[13] Diehl, Peter U., Daniel Neil, Jonathan Binas, Matthew Cook, Shih-Chii Liu, and Michael Pfeiffer. "Fast-classifying, high-accuracy spiking deep networks through weight and threshold balancing." In 2015 International Joint Conference on Neural Networks (IJCNN), pp. 1-8. IEEE, 2015.

[14] Sengupta, Abhronil, Yuting Ye, Robert Wang, Chiao Liu, and Kaushik Roy. "Going deeper in spiking neural networks: VGG and residual architectures." Frontiers in neuroscience 13 (2019).

[15] Wu, Yujie, Lei Deng, Guoqi Li, Jun Zhu, and Luping Shi. "Spatio-temporal backpropagation for training high-performance spiking neural networks." Frontiers in neuroscience 12 (2018).

[16] Wu, Yujie, Lei Deng, Guoqi Li, Jun Zhu, Yuan Xie, and Luping Shi. "Direct training for spiking neural networks: Faster, larger, better." In Proceedings of the AAAI Conference on Artificial Intelligence, vol. 33, pp. 1311-1318. 2019.

[17] Furber, Steve B., Francesco Galluppi, Steve Temple, and Luis A. Plana. "The spinnaker project." Proceedings of the IEEE102, no. 5 (2014): 652-665.

[18] Moradi, Saber, Ning Qiao, Fabio Stefanini, and Giacomo Indiveri. "A scalable multicore architecture with heterogeneous memory structures for dynamic neuromorphic asynchronous processors (dynaps)." IEEE transactions on biomedical circuits and systems 12, no. 1 (2017): 106-122.

[19] Merolla, Paul A., John V. Arthur, Rodrigo Alvarez-Icaza, Andrew S. Cassidy, Jun Sawada, Filipp Akopyan, Bryan L. Jackson et al. "A million spiking-neuron integrated circuit with a scalable communication network and interface." Science345, no. 6197 (2014): 668-673.

[20] Davies, Mike, Narayan Srinivasa, Tsung-Han Lin, Gautham Chinya, Yongqiang Cao, Sri Harsha Choday, Georgios Dimou et al. "Loihi: A neuromorphic manycore processor with on-chip learning." IEEE Micro 38, no. 1 (2018): 82-99.

[21] Wu, Si, Kosuke Hamaguchi, and Shun-ichi Amari. "Dynamics and computation of continuous attractors." Neural computation20, no. 4 (2008): 994-1025.

[22] Fung, CC Alan, KY Michael Wong, and Si Wu. "A moving bump in a continuous manifold: a comprehensive study of the tracking dynamics of continuous attractor neural networks." Neural Computation 22, no. 3 (2010): 752-792.

[23] Deng, Lei, Zhe Zou, Xin Ma, Ling Liang, Guanrui Wang, Xing Hu, Liu Liu, Jing Pei, Guoqi Li, and Yuan Xie. "Fast Object Tracking on a Many-Core Neural Network Chip." Frontiers in neuroscience 12 (2018).

脑人言,与大脑对话

640?wx_fmt=gif

640?wx_fmt=jpeg

张亚勤、刘慈欣、周鸿祎、王飞跃、约翰.翰兹联合推荐

这是一部力图破解21世纪前沿科技大爆发背后的规律与秘密,深度解读数十亿群体智能与数百亿机器智能如何经过50年形成互联网大脑模型,详细阐述互联网大脑为代表的超级智能如何深刻影响人类社会、产业与科技未来的最新著作。

《崛起的超级智能;互联网大脑如何影响科技未来》2019年7月中信出版社出版。刘锋著。了解详情请点击:【新书】崛起的超级智能:互联网大脑如何影响科技未来

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

640?wx_fmt=jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/490515.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

mysql调优_MYSQL企业常用架构与调优经验分享

一、选择Percona Server、MariaDB还是MYSQL1、Mysql三种存储引擎MySQL提供了两种存储引擎:MyISAM和 InnoDB,MySQL4和5使用默认的MyISAM存储引擎。从MYSQL5.5开始,MySQL已将默认存储引擎从MyISAM更改为InnoDB。MyISAM没有提供事务支持&#xf…

SpringMVC学习--参数绑定

spring参数绑定过程 从客户端请求key/value数据,经过参数绑定,将key/value数据绑定到controller方法的形参上。springmvc中,接收页面提交的数据是通过方法形参来接收。而不是在controller类定义成员变更接收。 默认支持的类型直接在controll…

现代物理学7大经典问题,你能理解几个?或许一个都不能理解

来源:搜狐新闻算法与数学之美相对论相对论是物理学中两大著名理论之一,两者都是阿尔伯特爱因斯坦提出的。1905年爱因斯坦出版了狭义相对论,后者确定最终宇宙速度极限:光速。并称时间因某物体移动的速度而实现加速或者减慢。1916年…

unity asset store下载不了_Unity手游实战:从0开始SLG——资源管理系统-基础篇(三)AssetBundle原理...

先用一句话介绍一下AssetBundle吧。AssetBundle系统提供了一种压缩文件的格式,可以把1到多个文件进行索引和序列化。Unity项目在交付安装之后,会通过AssetBundle对不包含代码的资源进行更新。这就允许开发人员先提交一个小的应用程序包,将运行…

matlab中GUIDE的UItable居中方法

需要借助JAVA,代码示意如下: import javax.swing.*; %导入javax.swing类 table findjobj(handles.uitable1); %需要findjobj.m文件,matlab中是没有的 table1 get(table,Viewport); jtable get(table1,View); renderer jtable.getCellRe…

MySQL Workbench运行脚本

首先在SCHEMAS区域右击,选择创建“create schema” 填入自定义名称,点击“apply” 在弹出来的框中点击“apply”,再在弹出来的框中点击finish 点击菜单栏“file”——“run SQL script”,选择sql文件,在下面选择刚刚创…

自动驾驶事故权威揭秘:算法和软件错误太多

本文来源:AutoR智驾自动驾驶发展就好比是登月计划。从传感器到人工智能,经典的电子供应链已经形成了一个协作矩阵,致力于实现自动驾驶车辆的安全性。为此,还需进行大量硬件和软件开发工作,以确保驾驶员、乘客和行人受到…

MySQL新建数据库和表

首先在MySQL Workbench上(如果没有的话建议安装一个)新建一个数据库 首先在SCHEMAS区域右击,选择创建“create schema” 填入自定义名称,点击“apply”,这里我命名为crashcourse 在弹出来的框中点击“apply”&#xf…

【微读书】《人工智能颠覆未来战争》连载之一:机器战胜人类?——AlphaGo人机对战的启示...

来源:中国指挥与控制学会编者按目前,人工智能技术正加速向军事领域渗透,军事智能化既面临千载难逢的发展机遇,也面临前所未有的挑战。如何加强风险研究和预判,防范重大风险,已经客观而现实地摆在我们面前。…

《崛起的超级智能》入选中国好书2019年7月榜单

来源:中国好书中国好书评选活动由中国图书评论学会主办,旨在通过好书推介传递正能量,推动和引导全民阅读。中国图书评论学会是由中宣部出版局创办、国家新闻出版广电总局主管的国家一级学会。自2014年举办首届年度好书盛典至今,“…

.net函数查询_SQL查询语句总是先执行SELECT?你们都错了!

很多 SQL 查询都是以 SELECT 开始的。不过,最近我跟别人解释什么是窗口函数,我在网上搜索”是否可以对窗口函数返回的结果进行过滤“这个问题,得出的结论是”窗口函数必须在 WHERE 和 GROUP BY 之后,所以不能”。于是我又想到了另…

大数据世界要熟悉的5门语言

大数据世界要熟悉的5门语言课程 Python OpenStack Java Hadoop Scala Spark Shell Linux SQL DB JS 华丽分割线 转载于:https://www.cnblogs.com/TendToBigData/p/10501438.html

知识图谱嵌入(KGE):方法和应用的综述

来源:专知导读本文主要是参考《Knowledge Graph Embedding: A Survey of Approaches and Applications》和刘知远的《知识表示学习的研究与进展》做的总结,主要介绍了最近关于知识图谱嵌入所涉及到的研究方法,主要从融合事实信息、融合附加信…

支持向量机matlab代码程序_支持向量机(SVM)小结

什么是SVM?SVM(全称:Support Vector Machine)支持向量机,这只是它的名称,向量就是和我们以前学过的向量一样(下文有介绍),它可以有效解决分类问题(我们只讨论分类问题),何为分类呢?顾名思义&…

俄罗斯拟明年在36万台华为平板安装“极光”操作系统

来源:环球时报据路透社报道,有消息人士表示,俄罗斯政府已经开始与华为公司就36万台平板电脑安装俄罗斯自己研发的操作系统(OS)"极光"(Aurora,也称奥罗拉)的一项计划展开谈判。路透社表示&#xf…

mysql 命令 kill_MySQL之死锁检测

最近,笔者在查看线上服务日志时,发现spring大量异常,异常中都显示了同样的报错信息,信息如下。Deadlock found when trying to get lock; try restarting transaction调研之后发现是mysql发生了死锁,这也是笔者第一次遇…

干货丨清华大学天机芯团队赵明国:《基于自然动力学的机器人控制——无人驾驶自行车及被动行走》...

来源: 机器人大讲堂8月1日,清华大学依托精密仪器系的类脑计算研究中心施路平教授团队在《自然》(Nature)杂志上发表了一篇封面文章,发布了一项最新研究成果——类脑计算芯片“天机芯”。同时,搭载天机芯&am…

判断随机抽取代码_问卷调查:定量研究中的抽样问题(2)- 非随机抽样介绍

所谓抽样,就是从我们需要研究的所有目标群体中,按照某种原则,挑选出一定量的样本,用他们的研究结果,代表目标群体整体结果。既然,抽样的目的是通过对一部分被选择的样本来推断总体,就要求我们抽…

欧洲估值最高的5家人工智能创业公司

来源:资本实验室今年初,据伦敦风险投资公司MMC的调查,四成自称为人工智能公司的欧洲创业公司实际上并未在核心业务中涉及到人工智能,人工智能仅为吸引投资的漂亮外衣。这一数据发布后,激起了轩然大波,不仅引…

keras安装_代码详解:构建一个简单的Keras+深度学习REST API

在本教程中,我们将介绍一个简单的方法来获取Keras模型并将其部署为REST API。本文所介绍的示例将作为你构建自己的深度学习API的模板/起点——你可以扩展代码,根据API端点的可伸缩性和稳定性对其进行定制。具体而言,我们将了解: 如…