论文阅读课7-使用句子级注意力机制结合实体描述的远程监督关系抽取(APCNN+D)2017

文章目录

  • abstract
  • 1. Introduction
  • 2.方法
  • 3.训练
  • 4.实验
    • 4.1数据集
    • 4.2 评价指标
    • 4.3实验结果和分析
      • 4.3.1参数设置
      • 4.3.2 baseline
      • 4.3.3 conclusion
  • 5.相关工作
    • 5.1监督学习
    • 5.2远程监督学习

Ji, G., et al. (2017). Distant Supervision for Relation Extraction with Sentence-Level Attention and Entity Descriptions. Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence (AAAI-17).
ecml数据集

abstract

远程监督关系提取是一种将关系提取扩展到包含数千个关系的超大型语料库的有效方法。但是,现有方法在选择有效实例方面存在缺陷,并且缺乏有关实体的背景知识。在本文中,我们提出了一个句子级别的注意力模型来选择有效实例,该模型充分利用了知识库中的监督信息。我们从Freebase和Wikipedia页面中提取实体描述,以补充我们任务的背景知识。背景知识不仅为预测关系提供了更多信息,而且还为注意力模块带来了更好的实体表示形式。我们对一个广泛使用的数据集进行了三个实验,实验结果表明我们的方法明显优于所有基线系统。

  • 大规模语料库:远程监督
    • 以前的不足:
      • 在选择有效实例方面不足
      • 缺少实体的背景知识
  • 本文:
    • attention:用以选择有效实体
    • 提取实体描述,补充背景知识(Freebase,Wikipedia)
      • 用途:为预测关系提供了更多的信息,而且还为注意力模块带来了更好的实体表示

1. Introduction

远程监督下的关系提取(RE)旨在预测受知识库(KBs)监督的文本中的成对实体之间的语义关系。它启发式地将文本中的实体与给定的KB对齐,并使用此对齐来学习关系提取器。训练数据自动标记如下:对于KB中的三元组r(e1,e2),所有同时提及实体和的句子均视为关系r的训练实例。图1显示了三元组/ location / location / contains(内华达州,拉斯维加斯)的训练实例。从S1到S4的句子都提到了内华达州和拉斯维加斯实体,因此它们都是关系/ location / location / contains的训练实例。对于许多自然语言处理(NLP)应用程序(例如自动知识完成和问题解答)而言,该任务至关重要。

  • 文本中实体与给定KB的实体对齐
  • 训练实例:对KB的三元组r(e1,e2),包含e1,e2提及的所有句子,均为r的训练实例。
  • 远程监督:错误标记多—共现不等于有关系

远程监管策略是一种自动标记训练数据的有效方法,但是它受到错误标记问题的困扰(Riedel,Yao和McCallum 2010)。提到两个实体的句子可能无法表达将它们在KB中链接的关系。这两个实体可能只是出现在同一句子中,因为他们和同一个主题相关。
例如,在图1中,句子S2和S4都提到了内华达州和拉斯维加斯,但是它们没有表达关系/ location / location / contains。

  • 远程监督方法

    • Mintz等人(2009)忽略了这个问题,并从所有句子中提取了特征以提供一个关系分类器。
    • Riedel,Yao和McCallum(2010)提出了**“最少一次表达”**的假设,并使用无向图模型来预测哪些句子表达了这种关系。
    • 基于多实例学习(Dietterich,Lathrop和Lozano-P'erez 1997),Hoffmann等(2011)和Surdeanu等(2012)还使用概率图形模型选择句子并添加与其关系提取系统重叠的关系
      • 概率图形模型(Riedel,Yao和McCallum,2010年; Hoffmann等,2011年; Surdeanu等,2012年)已经考虑了观察,但是他们设计用来选择有效句子的功能通常来自于先前存在的NLP工具,这些工具遭受了错误传播和累积(Bach和Badaskar,2007年)。
    • Zeng等人(2015年)将多实例学习(MIL)和分段卷积神经网络(PCNN)结合起来,选择最可能的有效句子并预测了关联,从而在(Riedel)开发的数据集(Riedel, Yao, and McCallum 2010)上取得了最先进的性能。
    • 用PCNN提取特征(免于nlp工具的错误积累)
    • 但是,在学习过程中,其MIL模块仅选择了一个具有最大概率成为有效候选者的句子。此策略未充分利用监督信息。
    • —>可能有多个句子
  • APCNN

    • 任务定义
      • 所有句子被分到N组bags中,{B1​,B2​,⋯,Bi}\{B_1​,B_2​,⋯,B_i\}{B1,B2,,Bi}
      • 每个bag中的的句子都描述了同一组实体的关系r(e1​,e2​)。
      • 每个bag中有qi​句句子,Bi={b1​,b2​,⋯,bqi}B_i=\{b_1​,b_2​,⋯,b_{q_i}\}Bi={b1,b2,,bqi}(i=1,2,…,N)
      • 这个任务的目标是,预测每个bag对应的label。
        • 预测看不见的袋子的标签。
        • instance–句子
    • 以上的不足:
      • (1)一个袋子可能包含多个有效句子。
      • (2)实体描述可以提供有用的背景知识,是完成任务的有用资源。
    • 基于此提出本文的创新点:
      • 结合zeng和概率图:使用神经网络提取特征+从一个包提取多个有效句子
        • PCNN(得到句子特征)–>结果加权和(权重是隐层计算)–>(包的特征)
        • attention:用以选择有效的实体
          • 权重:句子向量v;e1-e2
      • 添加实体描述信息
        • 使用传统CNN从Freebase或Wikipedia中抽取实体特征
        • 用途:为预测关系提供了更多的信息,而且还为注意力模块带来了更好的实体表示
    • 本文贡献:
      • (1)我们引入了一个句子级别的注意力模型来选择一个袋子中的多个有效句子。该策略充分利用了监督信息。
      • (2)我们使用实体描述为预测关系和改善实体表示提供背景知识;
      • (3)我们对广泛使用的数据集3进行实验,并达到了最新水平。
      * 
    

为了选择多个有效句子,我们提出了一个基于PCNN的句子层次注意模型(用APCNN表示),该模型使用PCNN提取句子特征并通过注意模块学习句子的权重。我们希望注意机制能够通过为有效句子分配较高的权重,为无效句子分配较低的权重,来有选择地关注相关句子。这样,APCNN可以识别出一个书包中的多个有效句子。具体而言,受TransE(Bordes等人,2013年)的启发,该模型用(粗体,斜体字母表示矢量)对三元组进行建模,我们使用来e1-e2表示句子中e1和e2之间的关系(我们将在后面显示更多解释) 。对于皮包,我们首先使用PCNN提取每个句子的特征向量v,然后通过连接方式[v;e1-e2](Luong,Pham和Manning 2015)通过隐藏层计算每个句子的注意力权重。最后,所有句子特征向量的加权总和就是包的特征。此外,为了将更多背景知识编码到我们的模型中,我们使用卷积神经网络(CNN)提取实体描述的特征向量,并通过在APCNN的目标函数(称为APCNNs +D)上添加约束,使其接近相应的实体向量。 D,其中“ D”表示描述)。背景知识不仅为预测关系提供了更多信息,而且还为注意力模块带来了更好的实体表示形式。

2.方法

在这里插入图片描述
在这里插入图片描述

  • 结构
    • PCNNs Module
      • 组成
        • Vector Representation,
        • Convolution and
        • Piecewise Max-pooling.
      • 目的:提取包中一个句子的特征向量
      • 输入:
        • word_embedding:word2vec
        • position embedding
          • 相对e1的
          • 相对e2的
          • ???有负的怎么求?
            • -70-70–>140
      • 卷积:cij=conv(Wi,sj−w+1:j)c_{ij}=conv(W_i,s_{j-w+1:j})cij=conv(Wi,sjw+1:j)
        • w:窗口大小,卷积核的尺寸?
          • 当前词,及其前后词组成一个小窗口。
          • w=3
          • i:1~n,n为卷积核W的数目
          • j:1~|S|-w+1,|S|–句子长度
        • 结果得到C=[c1,c2,...,cn]C=[c_1,c_2,...,c_n]C=[c1,c2,...,cn]
      • Piecewise Max-pooling(分段最大池化)
        • 划分ci,ci={ci1,ci2,ci3}中,pij=max(cij)划分c_i,c_i=\{c_{i1},c_{i2},c_{i3}\}中,p_{ij}=max(c_{ij})ci,ci={ci1,ci2,ci3}pij=max(cij)
        • 分段依据:两个实体将句子分成三段
        • 结果:pi=[pi1,pi2,pi3]−concate−>pp_i=[p_{i1},p_{i2},p_{i3}]-concate->ppi=[pi1,pi2,pi3]concate>p
      • 输出:bs=tanh(p)b_s=tanh(p)bs=tanh(p)
    • Sentence-level Attention Module.
      • Attention Layer
        • 输入:
          • 一个句子的表示bsb_sbs
          • 句中关系的表示vrelation=e1−e2v_{relation}=e_1-e_2vrelation=e1e2
        • 想法:如果句中关系为r,则bs与vrelation相似度高b_s与v_{relation}相似度高bsvrelation,没有则低
        • 权重:
          • ωi=WaT(tanh[bi;vrelation])+ba\omega_i=W^T_a(tanh[b_i;v_{relation}])+b_aωi=WaT(tanh[bi;vrelation])+ba
          • αi=exp(ωi)Σj=1qexp(ωj)\alpha_i=\frac{exp(\omega_i)}{\Sigma_{j=1}^qexp(\omega_j)}αi=Σj=1qexp(ωj)exp(ωi)
        • 输出:bˉ=Σi=1qαibi\bar{b}=\Sigma_{i=1}^q\alpha_ib_ibˉ=Σi=1qαibi
      • Softmax Classifier
        • o=WsTbˉ+bso=W^T_s\bar{b}+b_so=WsTbˉ+bs
        • p(ri∣B;θ)=exp(oi)Σj=1noexp(oj)p(r_i|B;\theta)=\frac{exp(o_i)}{\Sigma_{j=1}^{n_o}exp(o_j)}p(riB;θ)=Σj=1noexp(oj)exp(oi)
    • 实体描述
      • 输入:
        • 实体和描述中的词的嵌入可以有word_embedding得到
        • 实体描述:由远程监督得到
          • 来源:Freebase和wikipeidia
          • 去除模棱两可的(含may refer to)
      • CNN:d_i由CNN计算得到,Wd
      • 目标:让实体的表示和他的描述尽可能接近
      • 得到了实体描述对(ei,di)(e_i,d_i)(ei,di)
      • 损失函数:Le=Σi=1∣D∣∣∣ei−di∣∣22L_e=\Sigma_{i=1}^{|D|}||e_i-d_i||_2^2Le=Σi=1Deidi22

3.训练

  • 三种组合
    • APCNN(无实体描述)
      • 损失函数:交叉熵minLA=−Σi=1Nlogp(ri∣Bi,θ)min L_A=-\Sigma_{i=1}^Nlog p(r_i|B_i,\theta)minLA=Σi=1Nlogp(riBi,θ)
    • APCNN+D
      • 损失函数:minL=LA+λLemin L=L_A+\lambda L_eminL=LA+λLe
    • 此外:PCNN+MIL+D(zeng,2015)
      • Le为其目标函数的约束
  • 使用dropout
  • adadelta

4.实验

4.1数据集

通过将Freebase5关系与纽约时报(NYT)语料保持一致,我们使用(Riedel,Yao和McCallum 2010)开发的数据集评估了我们的方法。培训数据与NYT语料库的2005-2006年保持一致,而测试数据与2007年保持一致。(Hoffmann等人2011; Surdeanu等人2012; Zeng等人2015)也使用了该数据集。它的实体带有Stanford NER注释,并链接到Freebase。数据集包含52个关系(不包括关系“ NA”)和39,528个实体。我们使用word2vec6在NYT语料库上训练单词嵌入,并将嵌入用作初始值

  • ecml数据集–Freebase与NYT对齐
    • 远程监督
    • Distant Supervision for Relation Extraction with Sentence-Level Attention and Entity Descriptions
  • NYT

4.2 评价指标

  • Held-out evaluation
    • 比较freebase的标签和预测的标签(包的标签)
    • 远程监督可能会产生一些错误标签(freebase的不完整本质
  • Human evaluation
    • 手动检查不存在于freebase的标签(freebase中标记为NA
  • top-k

4.3实验结果和分析

4.3.1参数设置

In our experiments, we tune all of the models using

  • three-fold validation on the training set
  • dimension of word embedding kw among {50, 100, 200, 300},
  • the dimension of position embedding kd among {5, 10, 20},
  • the windows size w among {3, 5, 7},
  • the number of feature maps n among {50, 100, 150, 200, 230},
  • the weight λ among {0.001, 0.01, 0.1, 1.2},
  • batch size among {50, 100, 150, 200}.
  • The best configurations are: kw =50, kd =5, w =3, n = 200, λ =0.01, the batch size is 50.
  • Following (Hinton et al. 2012), we set the dropout rate 0.5.

4.3.2 baseline

  • Mintz is proposed by (Mintz et al. 2009) which extracted features from all instances;
  • MultiR is a multi-instance learning method proposed by (Hoffmann et al. 2011);
  • MIML is a multi-instance multi-labels method proposed by (Surdeanu et al. 2012);
  • PCNNs+MIL is the state-of-the-art method proposed by (Zeng et al. 2015).

4.3.3 conclusion

在这里插入图片描述
在这里插入图片描述

  • held-out evaluation

    • 注意力机制:可以比其他模型使用更多的监督信息
    • 加D的比不加的好:实体描述可以提供背景知识以提高预测准确性
    • APCNN+D最好:A+D的结合对任务有好处
    • held-out评估:所有模型的recall都低,因为遭受了freebase的误报
  • 手动评估来消除这个问题:(结论一样)

    • (1)APCNNs比PCNNs + MIL获得更好的预测精度,这表明关注模块可以选择更多有效实例;
    • (2)PCNNs + MIL + D也优于PCNNs + MIL,这证明了实体描述提供了更多有用的背景信息;
    • (3)APCNNs + D具有最先进的性能,因此注意模块和实体描述都非常有用。
      在这里插入图片描述
  • 显然,注意力模块借助实体描述可以更好地识别无效/有效实例。因此,实体描述提供的背景知识可以提高注意力模块的性能。

    • 不可用的句子比重低

5.相关工作

5.1监督学习

  • 多分类问题
  • GuoDong等人(2005年)探索了通过进行文本分析而选择的一组功能(词汇和句法),然后他们将这些功能转换为符号ID,并将其输入到SVM分类器中。其他工作
  • (Bunescu和Mooney 2005; Moneyy和Bunescu 2005; Zelenko,Aone和Richardella 2003)使用内核方法(例如子序列内核和依赖树内核)完成任务,这需要使用NLP工具预处理输入数据。这些方法是有效的。相反,
  • Zeng等人(2014)利用卷积深度神经网络(CNN)提取词法和句子层次特征。
  • dos Santos,Xiang和Zhou(2015)基于CNN模型,提出了一种基于CNN排名的分类模型(CR-CNN)。这些方法已经实现了高精度和召回率。
  • 不幸的是,他们需要明确的人工注释文本,这使得它们不太可能扩展到大型文本语料库。

5.2远程监督学习

  • 用于关系提取的远程监管方法将文本启发式地对齐给定的KB,并使用对齐来学习关系提取器。他们将大量结构化数据源(例如Freebase)视为薄弱的监管信息。由于这些方法不需要手工标记的数据集,并且KB近年来增长很快,因此吸引了很多关注。
  • Mintz等人(2009年)从所有句子中提取特征,然后将它们输入到分类器中,该分类器忽略了数据噪声并会学习一些无效实例。
  • Riedel,Yao和McCallum(2010),Hoffmann等人(2011)和Surdeanu等人(2012)使用图形模型选择有效的句子和预测关系。
  • Nguyen和Moschitti(2011)利用关系定义和Wikipedia文档来改善他们的系统。这些方法依靠传统的NLP工具提取句子特征。
  • Zeng等人(2015年)使用PCNN来自动学习句子级特征并考虑了实体位置的结构信息。但是其MIL模块在训练过程中只能选择一个有效的句子,而没有充分利用监督信息。
  • Lin et al。,(2016)提出利用注意力来选择内容丰富的句子。
  • 与之相比,我们的工作有两个创新:
    • (1)Lin等人(2016)将关系r的嵌入初始化为模型中的参数,并且我们的工作使用 表示关系,其中和是嵌入在两个给定的实体中;
    • 2)我们模型中的描述为RE任务提供了更多的背景知识,并改善了注意力模块的实体表示。另一行是介绍诸如知识图之类的外部语义存储库(Weston等,2013; Wang等,2014)。这些工作通过连接知识图和文本进行关系提取实验。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481527.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Cell经典回顾:机器学习模型揭示大脑怎样整合空间记忆与关系记忆

导语人类等高等动物能够做出复杂推理、整合新知识以控制行为,其神经机制离不开海马-内嗅系统对于空间记忆和关系记忆的调控。来自牛津大学的学者于2020年在Cell杂志发表文章,通过分解和重组的方法构建了一套框架(TEM模型)&#xf…

论文阅读课8-Chinese Relation Extraction with Multi-Grained Information and External Linguistic Knowledge

文章目录Abstract1.Introduction2.相关工作3. 方法3.1 输入3.1.1 字符级别表示3.1.2单词级表示3.2encoder3.2.1 base lattice LSTM encoder3.2.2 MG lattice LSTM encoder3.3 关系分类器4.实验4.1数据集4.1.2 评估4.1.2 超参数设置4.2lattice的作用4.3词义表示的影响4.4最终结果…

黑客帝国「缸中之脑」真的可以,这100万个「活体人脑细胞」5分钟学会打游戏...

来源:FUTURE | 远见 闵青云 选编既然生物神经元如此高效,为什么不拿来用呢?最新版本的《黑客帝国》还有两天才会上映,但最近的一些科技进展总让我们觉得,导演描述的世界似乎离我们越来越近了。其中一个进展来自前段时间…

Nature发布迄今为止规模最大的全基因组关联研究,揭示了基因与身高的关系

来源:生物通一个国际研究团队已经确定了超过12000个影响一个人身高的基因变异。这项发表在10月12日《自然》杂志上的研究是迄今为止最大规模的全基因组关联研究,使用了来自281项贡献研究的500多万人的DNA。它填补了我们在理解基因差异如何导致身高差异方…

论文阅读9-Fine-tuning Pre-Trained Transformer Language Models to(远程监督关系抽取,ACL2019,GPT,长尾关系,DISTRE)

文章目录abstrac1.Introduction2 Transformer Language Model2.1 Transformer-Decoder2.2 Unsupervised Pre-training of Language Representations3 Multi-Instance Learning with the Transformer3.1 Distantly Supervised Fine-tuning on Relation Extraction3.2input repre…

Meta半年亏损57.7亿美元也要搞元宇宙,听听扎克伯格自己是怎么说的

来源:科技智谷编辑:Light"这可能是世界上最烧钱的梦。元宇宙就是未来,VR就是下一代PC。2022年10月12日,全球VR巨头Meta召开一年一度的Meta Connect大会2022。本次大会, Meta发布了旗下最新的虚拟现实头显——Ques…

文献阅读课10-Neural Relation Extraction for Knowledge Base Enrichment(提取+嵌入+消歧+规范化联合模型,实体已知,仅关系抽取,多词实体)

文章目录Abstract1.Introduction2. 相关工作2.2 Entity-aware Relation Extraction3.提出的模型3.1 Solution Framework3.1 data collection module3.3 Joint Learning of Word and Entity Embeddings3.4 N-gram Based Attention Model训练3.5 Triple Generation4.实验4.1 超参…

张益唐被曝已证明黎曼猜想相关问题,震动数学界

来源:金磊 Alex 发自 凹非寺量子位 | 公众号 QbitAIBreaking News!网传数学家张益唐,已经攻克了朗道-西格尔零点猜想(Landau-Siegel Zeros Conjecture)。而这则消息,据说是张益唐在参加北京大学校友Zoom线上…

论文阅读课11-TEMPROB:Improving Temporal Relation Extraction with a Globally Acquired Statistical Resource

文章目录abstract1.Introduction2.相关工作3 TEMPROB: A Probabilistic Resource for TempRels3.1 事件抽取3.2TempRel提取3.2.1 features3.2.2 learning3.3 Interence3.4 corpus3.5有趣的统计3.6 极端情况3.7 下列事件的分布4.实验4.1 Quality Analysis of TEMPROB4.2 Improvi…

机器学习也将解决量子问题

来源:IEEE电气电子工程师作者:CHARLES Q. CHOI当量子计算机执行可能导致下一代电池或新药的复杂物理和化学模拟时,它可能比任何传统超级计算机强大得多。然而,可能需要很多年才能实现实用和广泛的量子计算。现在,一项新…

Nature重磅:人鼠混合大脑问世,‘大脑类器官’研究再添新进展

一句“我思故我在”解释了大脑的重要性。随着全球老龄化的加剧,神经退行性疾病的发病率也随之增加。“老年痴呆”、“帕金森”等神经退行性疾病更是和癌症一样,成为数不多流传在街头巷尾的“医学名词”。从近代科学诞生一来,人类对于大脑的研…

文献阅读课12-Fine-Grained Temporal Relation Extraction(19ACL,时间关系,时间持续时间,数据集,语义框架,常识)

文章目录abstract1.Introduction2 背景3.数据收集4.Model5.实验6.result7 Model Analysis and TimelinesVashishtha, S., et al. (2019). Fine-Grained Temporal Relation Extraction. Proceedings ofthe 57th Annual Meeting ofthe Association for Computational Linguistics…

Gartner发布2023年十大战略技术趋势,元宇宙等技术上榜

来源:Gartner整理:刘燕10 月 18 日,InfoQ 获悉,Gartner 发布了企业机构在 2023 年需要探索的十大战略技术趋势。Gartner 杰出研究副总裁 Frances Karamouzis 表示:“为了在经济动荡时期增加企业机构的盈利,…

文献阅读课13-DSGAN: Generative Adversarial Training for (远程监督关系抽取,句子级去噪)

文章目录Abstract1.Introduction2.相关工作3 Adversarial Learning for Distant Supervision3.1 Pre-Training Strategy3.2 Generative Adversarial Training for Distant Supervision Relation Extraction3.3 Cleaning Noisy Dataset with Generator4.实验4.2 Training Proces…

Science复活远古“蛋白质”,揭示光合作用的“昨天、今天和明天”

来源:生物通复活数十亿年前的酶,揭示了光合作用如何适应氧气的增加。两个Rubisco配合物相互作用的冷冻电子显微镜图像。如果溶解度所必需的亚基缺失,单个的酶复合体就会以这种方式相互作用,形成线状结构,即所谓的原纤维…

文献阅读课14-DIAG-NRE: A Neural Pattern Diagnosis Framework for远程监督关系抽取,模式标注去噪自动化,FN,FP,RL

文章目录abstract1. Introduction2.相关工作3.方法3.1 NRE Models3.2 Pattern Extraction3.3 Pattern Refinement3.4 Weak Label Fusion(WLF)4 Experiments4.1 Experimental Setup4.2 Performance Comparisons4.3 Pattern-based Diagnostic Results4.4 Incremental Diagnosis4.…

“神经网络”的逆袭:图解 80 年 AI 斗争史

转自量子位 | 公众号 QbitAI晓查 发自 凹非寺 有人的地方,就有斗争。华山派有“剑宗”和“气宗”,相互斗了几十年。人工智能界也有“山头”,AI两大派系的斗争早在第一台电子计算机问世前就已经开始了。△ 有三名法国人把两派的势力对决画成图…

文献阅读15-OntoILPER:A logic-based relational learning approach关系抽取,NER+RE

文章目录abstract1.Introduction2.2. Supervised Machine Learning Approaches to Relation Extraction2.1. Statistical Learning Approach2.1.1 Feature-based approaches to RE2.1.2 Kernel-based approaches to RE2.2. Relational Learning Approach2.2.1. Inductive Logic…

人类反超 AI:DeepMind 用 AI 打破矩阵乘法计算速度 50 年记录一周后,数学家再次刷新...

来源:图灵人工智能作者:李梅、施方圆编辑:陈彩娴10 月 5 日,AlphaTensor 横空出世,DeepMind 宣布其解决了数学领域 50 年来一个悬而未决的数学算法问题,即矩阵乘法。AlphaTensor 成为首个用于为矩阵乘法等数…

前沿进展:宏观麦克斯韦妖背后的热力学几何原理

导语热力学强烈限制了静态宏观热扩散系统中的热流动方向,使用时空调制系统能够克服这种限制。近日,科学家提出了时空驱动热扩散的一般理论,揭示了宏观驱动热扩散中潜在的由冷到热的几何热泵效应以及实现热非互易性的限制条件,并实…