Dynamic Extraction of Subdialogues for Dialogue Emotion Recognition

对话情感识别的子对话动态提取

  • 摘要
  • 1. 介绍
  • 2 相关工作
    • 2.1 对话上下文建模
    • 2.2 常识知识
  • 3 方法
    • 3.1 问题定义
    • 3.2 模型概述
    • 3.3 特征提取模块
    • 3.4 依赖性建模
    • 3.5 交互式子对话提取模块
    • 3.6 重要性增强的多头自注意力模块
    • 3.7 子对话框主题提取模块
    • 3.8. 分类模块
  • 四、实验
    • 4.1 数据集
    • 4.1 实验细节
    • 4.2 基线
    • 4.3. 结果与分析

摘要

对话中的情绪识别(ERC)的目的是识别对话中每一个话语中所表达的情绪。然而,以往的一些方法并没有充分考虑到对话中每个说话者的话语和目标话语的相对位置信息对情绪分析的影响,也忽略了不同子主题下目标话语所表达的情绪的差异。我们引入了一种动态提取子对话(DESD)方法的情绪识别来解决这些问题。该方法利用每个说话者的话语和目标话语的相对位置信息来提取子对话。通过考虑每个说话者对情感表达的贡献,我们可以更准确地捕捉到对话中的情绪动态。此外,我们还提取了子对话的主题信息,以捕捉不同的子主题对目标话语情绪的影响。通过在四个不同数据集上的实验,验证了网络的有效性。我们的代码可在以下网站中获得:https://anonymous.4open.science/r/DESD-1FDF。

1. 介绍

对话情绪识别的目的是理解对话参与者的情绪状态,包括积极、消极和中性,以及情绪类别,如快乐、愤怒和悲伤。它被广泛应用于社交媒体分析、心理健康监测等领域,有助于提高用户体验和智能决策。

在对话中,情感通常是基于语境的,理解一个话语的情感需要同时考虑前面和后面的语境。因此,对话情绪识别需要对对话上下文进行建模,以确保变化和情绪进化被正确地捕获。许多以前的方法利用递归神经网络(RNNs)(DialogRNN[1],DialogXL[2],DialogueCRN[3],ERCMC[4])和图神经网络(GNNs)(DAG-ERC[5],MM-DFN[6],KGCN-ERC[7],CMCF-SRNet[8])模型对话的上下文信息和语义特征的话语捕捉情绪的传播和变化。这些方法在建模环境中取得了良好的效果。尽管之前的方法为语义分析提供了基础,但是他们没有充分考虑说话人话语与目标话语之间的相对位置信息及其对情绪分析的潜在影响。此外,这些研究忽略了同一目标话语在不同的子主题下可能表达出不同的情绪的事实。考虑到对话可能涉及几个不同的子主题,如图1所示。并且,相同的话语在不同的主题语境下可能有不同的情感颜色,如图2所示。为了解决这一问题,我们提出了一种动态的子主题选择方法,并优化了多重注意力机制,以增强对相关话语的关注。此外,我们采用变分自编码器技术来提取每个子对话的主题信息,用于准确地捕捉目标话语的情绪倾向。

在这里插入图片描述

在这里插入图片描述
在本文中,为了更准确地识别对话中参与者的情绪,我们提出了一种动态子对话提取(DESD)的情绪识别方法。具体来说,我们首先使用双向长短期记忆(LSTM)对上下文和说话者的依赖关系进行建模,然后根据话语的接近程度和说话者的相对位置动态选择子对话。然后,我们利用重要性增强的多头自注意力来评估对话中话语的重要性,捕捉最重要的话语进行情感识别,并将更多的注意力集中在这些话语上。此外,我们利用一个变分自编码器来提取子对话的主题,以帮助情绪识别。我们对4个常用的ERC数据集进行了广泛的实验,实验结果表明,我们提出的DESD在四个数据集上取得了很好的效果。

本文的主要贡献如下:

  • 结合说话者的相对位置信息,我们提出了一种动态提取子对话(DESD) 用于情绪识别,以提高对话情绪识别的准确性。
  • 我们设计了一个交互式子对话提取模块来提取每个子对话,以及一个重要性增强的多头自注意力模块(IEMHSA)和一个子对话主题提取模块(TEM),以提高对话情绪识别的准确性。我们的方法在四个数据集上都取得了良好的性能: DailyDialog、MELD、IEMOCAP和EmoryNLP。

2 相关工作

2.1 对话上下文建模

深度学习技术在对话情绪识别领域得到了广泛的应用,特别是递归神经网络(RNN)和图卷积网络(GCN)技术。这些技术利用神经网络模型,通过深入分析文本数据,来准确地识别对话中的情绪态度。在会话情绪识别中,RNN是一种常用的模型,通过对文本序列的时间信息进行建模,可以帮助理解会话中情绪的语境和演化。其中,bc-LSTM [9]是一个基于LSTM的模型,设计用于捕获同一视频中来自其周围环境的话语的上下文信息。DialogueRNN[1]使用了三个门控循环单元来对说话者、前一个话语的上下文和前一个话语的情绪进行建模。 Icon[10]将自我和对话者的情感影响分层建模为一个能够生成上下文总结的全局记忆。CMN [11]通过引入一种基于注意力的跳跃机制,将门控循环单元集成到由每个说话者的历史话语建模的记忆中。双向快速门控循环单元(BiFAGRU)[12]引入了一个注意AGRU来更新门控循环单元(GRU)的内部状态,并进一步改进AGRU为BiAGRU,以平衡最近和遥远的记忆上下文信息。MuCDN [13]使用两种独立的方法,显式和隐式,来有效地处理多方对话中的上下文和说话者建模。DialogueEIN[14]利用语义交互网络捕获对话级语义上下文表征,利用情绪交互网络对情绪交互进行建模。

除了RNNs外,GNNs也被广泛应用于会话情绪识别中。GNNs可以通过卷积操作捕获文本中的局部特征,如情感单词和短语,来帮助情感分类。DialogueGCN[15]通过图网络解决了RNN方法中上下文传播的问题,主要是通过对话者和对话者之间的自依赖性来实现交互依赖性。SumAgagGIN[16]引入异构概括图来推断与主题相关的情绪短语,增强话语表征,并构建聚合图来捕捉相邻话语的短期情绪影响。DAG-ERC [5]引入了有向无环GNNs,用于在单个层中反复收集每个话语的先行信息,从而实现了对远程上下文的编码。S+PAGE [17]通过双流会话transformer(TSCT)和PAG提取上下文特征,然后使用条件随机场(CRF)层对情绪标签的全局转移进行建模。MMDFN [6]利用梯度分离融合(GDF)模块,通过学习内在的序列模式和控制信息流,自然地融合多模态上下文信息。GraphCFC [18]将对话建模为多模态定向异构图,并通过PairCC策略逐步融合这些特征。引入GAT-MLP来求解GNN过平滑问题。这些模型的引入和改进导致了对话情绪识别表现的显著提高。

随着预训练语言模型的流行,会话情绪识别的研究不断发展,越来越多的方法开始使用这些模型来提高表现。其中一些方法包括对话框eCRN[3]、CoMPM [19]、M2FNet [20]和抓取[21]。这些方法利用了预训练的语言模型的力量,显著提高了对话情绪识别的准确性。

2.2 常识知识

为了帮助对话情绪识别,一些方法利用外部常识知识来提供额外的上下文信息。这些知识可以来自各种领域,包括情感词汇、情感知识图和领域专业知识。通过引入这些额外的知识,该模型能够更好地理解和解释对话中的情感内容。例如,KET [22]利用情感图注意力机制来平衡知识实体的相关性和情绪性。COSMIC[23]是基于一个广泛的常识性知识库,它被用于捕捉个性、事件、精神状态、意图和情绪之间的复杂的相互作用。SKAIG [24]通过结合过去、现在和未来的信息来源来增强上下文建模,这使得边在建模话语之间的心理交互中发挥关键作用。TODKAT [25]利用注意力和门控机制来整合通过不同方法检索到的常识知识。

3 方法

3.1 问题定义

给定一个包含N个连续话语的对话上下文{u1,u2,u3,…un}和M个说话者{s1,s2,s3,…,sm},每个话语在表达一种情感时都与一个特定的说话者相关联。ERC的主要目标是识别说话者si所说的话语ui表达的情感。

3.2 模型概述

我们提出的体系结构,如图3所示,包括以下关键模块。(1)特征提取模块使用RoBERTa从每个话语中提取关键特征。(2)依赖建模建模上下文和每个说话者之间的依赖关系。(3)交互式子对话提取模块根据话语的接近程度和说话者的相对位置,动态选择子对话。(4)重要性增强的多头自注意力增强了子对话对整个对话中目标话语的重要性。(5)子对话主题提取模块使用一个变分自编码器提取每个子对话框的主题。(6)分类模块将每个模块的输出拼接在一起,以预测每个话语的情绪。

在这里插入图片描述

3.3 特征提取模块

我们利用预训练的语言模型RoBERTa [26]的语言理解能力来捕获话语的语义信息。具体来说,我们用一个特殊的标记[CLS]拼接每个话语,并将其输入RoBERTa模型。然后,我们提取最后一层嵌入的[CLS]作为话语的特征表示。
在这里插入图片描述

3.4 依赖性建模

上下文依赖建模(CDM):为了更全面、更有效地理解对话中的语义信息,我们在模型中引入了一个双向的LSTM [27]。通过使用双向LSTM,我们可以同时考虑上下文信息来更准确地建模和分析对话。
在这里插入图片描述

我们利用双向LSTM不仅关注当前的话语,还可以回溯到之前对话的历史,以更好地理解话语中的情感、态度和语义。

说话者依赖建模(SDM):为了捕捉每个说话者独特的情感表达模式和独特的风格,我们提取每个说话者的话语,并将它们输入一个双向LSTM中进行分析。

在这里插入图片描述
在这个过程中,我们不仅收集说话者的话语,而且对潜在的情感和语言风格进行更深入的挖掘。通过使用双向LSTM,我们可以有效地捕捉说话人单词中的上下文信息,而不局限于一个话语或一个单词的表面意义。这有助于我们更全面地理解情感表达,以及他们可能使用的特定语言习惯和修辞手法

在这里插入图片描述

3.5 交互式子对话提取模块

为了充分考虑每个说话者的话语与目标话语之间的相对位置信息对情绪分析的影响。我们提出了一种交互式的子对话提取方法,如图4所示。该方法的目的是通过在更精细的层次上考虑子对话和情感背后的交互作用,来提高对话理解的准确性

在这里插入图片描述

窗口尺寸选择:通常,每个话语只与少数相邻的历史话语相关联。此外,为了确保每个说话者尽可能地在子对话中被表示,我们采用了一个窗口大小(表示为w’)度量,其中w’是通过考虑在一段文字中出现的不同说话者M的数量总和以及目标话语的数量来计算的。
在这里插入图片描述
话语选择:说话者的说的话在对话中往往以不规则的顺序出现,我们制定了一套规则来选择子对话。作为子对话的一部分,我们选择了在窗口内不同说话者相对于目标话语位置为1的历史话语。这有助于更准确地捕捉对话中的情感动态,因为考虑了每个说话者对情感表达的贡献。 子对话选择过程遵循以下规则:
在这里插入图片描述
在这里插入图片描述
接下来,我们将那些相对位置不等于1的话语设置为0。为了更符合对话的特点,我们还将目标话语后的所有话语都设为0。特别是,xo和xo之间的相对位置被设置为1。然后,我们使用修改后的相对位置信息来生成子对话的掩模。最终,我们得到了完整对话的MASK矩阵,如图5(a)所示。我们使用这个MASK矩阵来确定每个话语的子对话范围
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

3.6 重要性增强的多头自注意力模块

考虑到最接近目标话语的话语通常具有更高的信息密度,我们的目标是更准确地赋予这些话语更大的权重。为此,我们引入了一种重要性增强的多头自注意力机制,该机制利用交互式子对话框提取模块中的MASK矩阵,有意地强调重要话语的影响。

具体来说,我们首先修改了MASK矩阵中的1值,对其添加子对话的重要性得分。得分是根据子对话中话语数量与整个对话中话语数量的比率计算得出的随后,将MASK矩阵中的所有0值修改为1值。注意力加权矩阵M‘如图5(b)所示,这个新的矩阵M’用于校正原始的注意力分数。
在这里插入图片描述

接下来,我们使用多头自注意力机制[28]来计算每个话语的注意力分数,然后乘以M‘,然后归一化,得到重要性增强的注意力分数。最后,我们乘以这些注意力分数与权重矩阵V来生成话语的向量表示,并将所有注意力头的结果连接起来:
在这里插入图片描述

3.7 子对话框主题提取模块

为了解决同一目标话语在不同的子主题下可能表达不同情绪的事实。我们使用变分自动编码器(VAE)[29]来获取关于每个子对话W的主题信息。变分自动编码器有助于将子对话映射到一个潜在的空间,其中每个维度对应于一个主题或情感因素。这样,我们就可以捕捉每个子对话的主题特征,让我们对对话中涉及的不同主题有更深入的理解。
在这里插入图片描述

编码过程:对于话语wi,我们使用神经网络来推导与wi相关的分布p(Z | wi)。在这种情况下,我们假设这个与话语wi相关的分布是一个多元独立的正态分布。我们从这个分布中抽样,得到一个隐变量zi,然后用它来拟合话语wi。我们利用两个神经网络f1和f2来计算µi,δi的wi:
在这里插入图片描述
为了提高生成能力,使网络尽快收敛,我们期望δi收敛到1,µi收敛到0,即N(µi,δi)≈N(0,1)。

在这里插入图片描述
解码过程:从隐变量分布q(Z)中采样zi。为了使编码过程与解码过程一致,让q(Z)与p(Z | wi)相同。其中,假设q(Z) = N(0,1)。因此,q(Z) = p(Z | wi) = N(0,1)。之后,使用神经网络wˆi = g(zi):将zi映射到wˆi,神经网络g(Z),也可以表示为q(W | Z)。

在这里插入图片描述

损失VAE的性能可以通过变分下界(ELBO)损失来评估,该损失由重构损失和KL损失组成。重构损失用于计算生成数据wˆi与原始数据wi之间的相似度程度(尽可能高性能)。相比之下,KL损失作为额外的损失,用于衡量一般正态分布与标准正态分布之间的差异(规范隐空间的组织)。
在这里插入图片描述
变分自编码器通过将文本映射到一个低维的连续空间,将文本的语义信息编码为隐变量的值。由于相似的主题通常对应于潜在空间中相似的数据点,所以我们使用隐变量zi作为主题向量h c
在这里插入图片描述

3.8. 分类模块

我们将从这三个模块中得到的结果拼接起来,然后将它们通过一个情绪分类器进行话语情绪预测。

在这里插入图片描述
随后,在模型训练阶段,我们使用交叉熵损失函数,其定义如下:
在这里插入图片描述
其中,B为对话段落数,Bj为第j次对话中的话语数。yj、k和yˆj、k分别表示第j次会话中第k个话语的实际情绪标签和对应的预测标签分布。L‘表示总损失。

四、实验

4.1 数据集

我们在实验中使用了四个常用的数据集,并组织了这些数据集的统计数据。
在这里插入图片描述

IEMOCAP[30]是由南加州大学的SAIL实验室收集的一个多模态视听数据集,其中包括由专业演员扮演的两人对话,共计12个小时。该数据集涵盖了10个演员(5名男性和5名女性),并被分为5个阶段,每个阶段包括1名男演员和1名女演员。这些对话被标记为6种不同的情绪状态。DailyDialog [31]是一个高质量的多回合对话数据集,只包含低噪声的文本,涵盖了各种日常生活主题上的对话,并且在对话中没有固定的说话者。这些对话被标记为七种不同的情绪状态。MELD [32]起源于电视剧《老朋友》。它以多人对话的形式呈现,这是情感线的“老朋友”部分的多模态扩展,包含文本和视频信息。这些对话被贴上了七种情绪状态和三种情感状态的标签。EmoryNLP [33]是从电视剧《老朋友》中收集的多人对话数据集。这些对话被标记为7个不同的内容。

4.1 实验细节

在本节中,我们将详细介绍我们所提出的方法的实际实现步骤。首先,我们使用RoBERTa模型来提取与上下文无关的话语级特征,将其维度设置为1024,并将它们作为预处理输入。此外,我们在模型中引入非线性激活函数之前引入了dropout,并将dropout大小设置为0.2。我们将多头自我注意信息的初始值设为4来学习不同的上下文信息。在训练过程中,我们使用Adam [34]优化器对模型的参数进行调整,学习率设置为1e-4。这些选择和设置有助于提高模型的性能和可靠性。

4.2 基线

我们在四个常用的ERC数据集上测试了该模型,并将DESD与以下基线进行了比较:

基于RNN的方法:对话框RNN[1]使用三个GRUs来建模话语的不同方面。DialogXL [2]使用增强的内存来存储更长的历史上下文,同时利用自我注意机制来处理多方结构,以更好地感知对话的内容。[3]设计了一个多轮推理模块,通过该模块可以提取和整合情感线索更有效。ERCMC [4]使用相对位置嵌入和GRU来捕捉话语和对话状态的确切表示。EmoLR [35]通过自适应地生成细粒度的标签分布来更全面地捕获语义信息,从而定量地描述情绪强度。HU-对话[36]通过在权重共享三元结构中实现不确定性建模,有效地建模了情绪识别任务(ERC)中的上下文级和模态级的不确定性。

基于gnn的方法: DAG-ERC [5]提供了一种更直观的方法来建模一个遥远的对话上下文和附近的上下文之间的信息流。MM-DFN [6]通过捕获不同语义空间中的上下文信息的动态来实现冗余减少和多模态互补增强。KGCNERC [7]为每个话语寻找最合适的局部窗口,并建立合理的话语连接,以增强对话的一致性和逻辑。CMCF-SRNetd [8]同时考虑局部上下文和说话者情绪,并通过语义细化模块提取有效的语义特征和上下文信息。快乐的[37]引入了一个基于图的对比学习框架,该框架利用视图间和视图内的对比损失来增强与不同情绪状态相关的表征的可区分性。MMPCGN [38]通过异构图卷积神经网络聚合相邻节点的信息,获得丰富的语义信息。

一种基于外部常识知识的方法:宇宙[23]首先整合不同的常识元素,然后学习基于这些元素的对话中不同对话者之间的相互作用。TODKAT [25]将主题增强的语言模型与从基于对话上下文信息的知识库中获得的常识性话语结合起来。AutoML-Emo [39]引入了一种针对相关知识和模型的选择的AutoML策略,利用了情绪一致性的影响。

4.3. 结果与分析

我们将DESD与每日对话框、MELD、国际电子地图和EmoryNLP数据集上的基线论文中的结果进行了比较;结果见表二。对于MELD、IEMOCAP和EmoryNLP数据集,我们使用加权的平均-f1作为度量。相比之下,对于每日对话框数据集,考虑到其中立类别的高比例,我们使用MicroF1,它忽略了中立类别,作为度量。实验结果表明,我们的DESD模型在四个数据集上都表现良好,且其指标明显优于以往的方法。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/8617.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

含义:理财风险等级R1、R2、R3、R4、R5

理财风险等级R1、R2、R3代表什么,为什么R1不保本,R2可能亏损 不尔聊投资https://author.baidu.com/home?frombjh_article&app_id1704141696580953 我们购买理财产品的时候,首先都会看到相关产品的风险等级。风险等级约定俗成有5级&…

Java进阶07集合(续)

Java进阶07 集合(续) 一、数据结构(树) 1、关于树 1.1 相关概念 节点:树中每个单独的分支 节点的度:每个节点的子节点数量 树高:树的总层数 根节点:最顶层节点 左子节点&…

Python专题:三、数字和运算(2)

目录 一、数学运算 二、赋值运算 一、数学运算 1、运算符号 加法 减法- 乘法* 除法/ 计算机中浮点数表示有精度限制,Python有限,所以近似取数 2、除法取整// Python2中 整数/整数 值为整数 Python3中 整数/整数 整数or浮点数 //计算除法对结果取…

2024年最适合做的母婴赛道,选品思路揭秘,教你如何选品!

大家好,我是电商花花。 在我印象中,每年都有人唱衰抖音小店不好做了,太卷了,普通人没有机会了,但是现在直播电商时代,很多信息都会片面的,做不好并不是因为不好做,而是因为你做不好…

60*13薪,外包到新疆...去吗?

大家好,我是白露呀。 今天我在牛客上看到一篇帖子,一位网友说自己收到一个 offer ,薪资很高:60k*13,大约一年有近80万。 但是有个要求是外包到新疆的乌鲁木齐,他拿不定主意,就在牛客上发了这个…

Crocoddyl 使用教程(二)

系列文章目录 前言 小车摆杆是另一个经典的控制实例。在这个系统中,一根欠驱动的杆子被固定在一辆一维驱动的小车顶部。游戏的目的是将杆子升到站立位置。 模型如下: https://en.wikipedia.org/wiki/Inverted_pendulum 我们用 表示小车质量、 表示摆杆质…

Agent Hospital: 一种可进化医疗代理人的医院模拟器

论文来源: https://arxiv.org/pdf/2405.02957 1 引言 大型语言模型(LLM)代理在各种任务中表现出了有前景的性能,包括代码生成、信息博弈和问答等。受 LLM 代理能力的启发,一些研究采用它们来模拟人类互动和行为,而不是处理单一任务,例如社交媒体上的信息传播和"Stanford…

Pyside6详细使用教程python之GUI开发

1、首先需要安装Pyside6,终端执行命令: pip3.10 install pyside6 2、你们的一般是 pip install pyside6 2、如下代码创建一个简易程序导入必要的模块 import sys from PySide6.QtWidgets import QApplication, QWidget, QVBoxLayout, QPushButton,…

c语言实现贪吃蛇小游戏————附全代码!!!

目录 1.Win32 API 1.1控制台应用程序 1.2控制台的名称,控制台窗口大小 1.3设置控制台光标位置 COORD - 光标坐标 GetStdHandle - 获取句柄 SetConsoleCursorPosition - 设置光标位置 封装一个设置光标的函数 1.4设置控制台光标的属性 CONSOLE_CURSOR_INFO …

HNU-人工智能-作业1

人工智能-作业1 计科210x 甘晴void 第1题 考虑一个实时的在线电话翻译系统,该系统实现英语与日语之间的实时在线翻译,讨论该系统的性能度量,环境,执行器,感知器,并对该环境的属性进行分析。(10…

【Android】源码解析Activity的结构分析

源码解析Activity的结构分析 目录 1、Activity、View、Window有什么关联?2、Activity的结构构建流程3 源码解析Activity的构成 3.1 Activity的Attach方法3.2 Activity的OnCreate 4、WindowManager与View的关系总结 1、一个Activity对应几个WindowManage&#xff0…

Java 中的 HTTP 客户端库OkHttp、Apache HttpClient和HttpUrlConnection

大家好,我是G探险者。 项目开发里面经常会有这么一种场景:与服务器进行 HTTP 通信。一般存在于服务间远程调用的场景 Java 生态系统提供了多种 HTTP 客户端库,每种都有其自己的特点、优势和适用场景。 本文将介绍几种主要的 Java HTTP 客户…

基于Springboot的校园招聘系统(有报告)。Javaee项目,springboot项目。

演示视频: 基于Springboot的校园招聘系统(有报告)。Javaee项目,springboot项目。 项目介绍: 采用M(model)V(view)C(controller)三层体系结构&…

modprobe: can‘t open ‘modules.dep‘: No such file or directory

使用modprobe会提示modprobe: cant open modules.dep: No such file or directory 直接输入depmod即可。 如果depmod没有效果,则需要重新配置编译你的根文件。 在busybox配置界面进入linux Module Utilities, 上下键选择depmod,并按 y 选中&#xff0c…

期权和期货有什么区别?

今天期权懂带你了解期权和期货有什么区别?期权和期货是两种常见的衍生金融工具,它们在结构和盈利方式上存在一些关键的区别: 期权 期权是一种给予持有者在未来某个时间以特定价格买入或卖出基础资产的权利,但不是义务。期权的主要…

LeetCode 110. 平衡二叉树

LeetCode 110. 平衡二叉树 1、题目 题目链接:110. 平衡二叉树 给定一个二叉树,判断它是否是 平衡二叉树 示例 1: 输入:root [3,9,20,null,null,15,7] 输出:true示例 2: 输入:root [1,2…

Android 14 变更及适配攻略

准备工作 首先将我们项目中的 targetSdkVersion和compileSdkVersion 升至 34。 影响Android 14上所有应用 1.最低可安装的目标 API 级别 从 Android 14 开始,targetSdkVersion 低于 23 的应用无法安装。要求应用满足这些最低目标 API 级别要求有助于提高用户的安…

(二刷)代码随想录第1天|704. 二分查找 27. 移除元素

704. 二分查找 704. 二分查找 - 力扣(LeetCode) 代码随想录 (programmercarl.com) 手把手带你撕出正确的二分法 | 二分查找法 | 二分搜索法 | LeetCode:704. 二分查找_哔哩哔哩_bilibili 给定一个 n 个元素有序的(升序&#xff09…

国科大深度学习期末历年试卷

本文借鉴 国科大深度学习复习 深度学习期末 深度学习2020 一.名词解释(每个2分,共10分) 深度学习,稀疏自编码器,正则化,集成学习,Dropout 二.简答题(每题…

设置默认表空间和重命名

目录 设置默认表空间 创建的临时表空间 tspace4 修改为默认临时表空间 创建的永久性表空间 tspace3 修改为默认永久表空间 重命名表空间 将表空间 tspace3 修改为 tspace3_1 Oracle从入门到总裁:​​​​​​https://blog.csdn.net/weixin_67859959/article/details/13520…