“新KG”视点 | 知识图谱与大语言模型协同模式探究

OpenKG

384a09a43988e8634e89f8f83dba2c4b.png

大模型专辑

导读 知识图谱和大型语言模型都是用来表示和处理知识的手段。大模型补足了理解语言的能力,知识图谱则丰富了表示知识的方式,两者的深度结合必将为人工智能提供更为全面、可靠、可控的知识处理方法。在这一背景下,OpenKG组织新KG视点系列文章——“大模型专辑”,不定期邀请业内专家对知识图谱与大模型的融合之道展开深入探讨。本期特别邀请到天津大学王鑫教授、同济大学王昊奋研究员和天津大学陈子睿博士共同分享“知识图谱与大语言模型协同模式探究”,本文发表于CCF计算机学会通讯2023年第11期。

分享嘉宾 | 王鑫(天津大学)、陈子睿(天津大学)、王昊奋(同济大学)

笔记整理 | 邓鸿杰(OpenKG)

内容审定 | 陈华钧


7b8af25a9a2889bf0a96491640a25ab6.gif

摘要:本文探讨了知识图谱与大语言模型的协同模式。首先介绍了背景与现状,然后分别探讨了知识图谱增强的大语言模型、大语言模型增强的知识图谱以及知识图谱与大语言模型交互融合,并给出交互融合的具体案例。最后探讨了知识图谱与大语言模型协同模型的未来发展方向。

01

背景与现状

随着ChatGPT为代表的大语言模型(Large Language Model, LLM)兴起,及其对知识图谱(Knowledge Graph, KG)技术影响的深入探讨[1],LLM和KG的关系及其相互作用已成为人工智能领域的一个研究热点问题。LLM正在人工智能的多个领域产生深刻影响,可以认为是“联结主义”的最新进展;而KG代表人工智能知识工程领域的前沿发展,是“符号主义”的集大成者。一方面,LLM涵盖范围广泛,能够适应不同的语境及上下文,生成更加自然贴切的语言,可用于文本摘要、问答系统、机器翻译等多种不同的自然语言处理任务,但LLM为参数化隐式知识,会存在事实编造、缺乏可解释性等问题;另一方面,KG是结构化显式知识,天然就具有可解释性,领域特定的知识质量高,但其构建开销大,往往不够完备,且缺乏自然语言处理能力。LLM与KG协同工作可以克服各自缺陷、发挥互补优势,共同提升自然语言处理能力,扩大应用范围。KG可以提供额外的、结构化的、高质量的知识,提高模型泛化能力,其结构化知识可以帮助人们理解模型输出;LLM可以自动从文本数据中提取知识,从而降低KG的构建和维护成本。

目前,KG和LLM的协同仍处于起步阶段,其协同设计模式存在很多待解决的问题,有必要对这些问题进行梳理总结,以便研究人员和开发人员更好地理解这一领域的现状和发展趋势,共同讨论KG与LLM相结合的潜力与未来。

02

知识图谱增强的大语言模型(KG4LLM)

LLM能从大规模语料库中学习知识,并在诸如实体识别,关系抽取等多种自然语言处理任务中取得最先进的性能。然而,LLM在生成文本时可能产生看似合理而实际错误的内容,被称为“幻觉问题”;其次,尽管LLM可以从大规模语料库中学习大量知识,但这些知识基于统计模式,不是真正的实际知识,可能导致在处理特定领域问题时缺乏深刻理解和准确知识;最后,LLM生成的结果通常缺乏可解释性,用户很难理解模型如何得出特定结论或生成特定文本,结果缺乏可解释性限制了模型在关键任务中的可用性。

为解决这些问题,鉴于KG以明确且结构化的方式存储大量知识,可用于提升LLM的性能,如图1所示,研究人员提出将KG整合到LLM中,以增强LLM的性能表现。

2af81f3169c28b9cb59911b38053b53c.png

图1  KG4LLM协同模式示意图

模型预训练

KG增强LLM进行预训练的主要目的是利用外部知识,例如KG、词典或其他文本描述,加强模型的语言表示能力。预训练有两类实现方法,第一类集中于利用KG中的实体和关系信息,如GLM[2]、K-Adapter[3]等,直接将文本中的实体与KG实体对齐,从而捕捉文本中未明示的知识,利用实体关系的描述增强语言模型的表示能力。通过该方法,模型能够理解处理更复杂的关系,捕捉文本中未明示的知识,但效果依赖于KG的质量和完整性,在许多实际应用中,这对KG的更新和维护是一个挑战。第二类侧重于使用词典或其他形式的文本描述为模型提供丰富的背景知识,如E-BERT[4]、K-BERT[5]等,帮助模型更好地理解文本中的罕见词或实体,与其在词典中的定义描述对齐,提供更丰富的上下文信息及背景知识,有助于更好地理解和解释文本,但该方法依赖于词典或描述文本的质量和完整性,对于非常专业或领域特定的文本,可能缺乏足够的描述信息。

模型知识融合

在KG增强LLM的知识融合研究中,主要有两大类方法。基于检索增强的方法利用KG增强LLM的预测能力,该方法在生成结果或推理过程中,从大型外部KG中抽取与输入相关的外部信息辅助推理,主要优点在于能够动态利用丰富的外部知识,但可能需要更多的计算资源。QA-GNN[6]尝试从大型KG中识别信息,捕获问题上下文的细微差别,通过KG节点的相关性评分和联合推理,提高答题的效率和准确性,但其可能引入与问题上下文不相关的实体。JointLK[7]尝试解决子图中噪音节点的问题以及语言表示和KG表示之间互动有限的问题,支持语言模型和KG之间的多步联合推理,能够在两种模态间进行深入信息交互,但实际操作中可能需要更多的计算资源。其次是深度集成方法,这类方法在模型架构的多个层次上融合语言模型和KG的信息,使两者能够深入交互并相互补充,优点在于允许在整个模型架构的深入整合和交互,但可能需要大量的计算资源和复杂的模型设计。GreaseLM[8]尝试实现KG和LLM之间真正统一的融合,允许在架构的所有层面上进行深入整合和交互。

模型可解释性

为了更好理解和解释LLM的内部知识结构和行为[9],研究人员提出了多种方法。知识探测方法通过设计探测任务评估模型中的知识,尝试直接从模型中提取特定的知识。LAMA[10]通过完形填空任务评估LLM的关系知识,直观探测语言模型的知识,但模型可能对提示高度敏感。提示与查询优化方法的重点是如何为模型生成或优化提示,使其更好地提取知识,这些方法考虑到模型可能对不同的提示高度敏感,KagNet[11]利用知识图谱增强推理能力和可解释性。神经元与知识关联方法尝试探索模型的内部结构,解释模型如何存储知识,这类方法为模型的内部知识编码提供直观的解释,Dai等人[12]通过KG抽取提供模型的深入分析,为模型的行为提供清晰解释。

03

大语言模型增强的知识图谱(LLM4KG)

KG以结构化的方式表示知识,在问答、推荐等实际应用中发挥重要作用,然而,KG难以包含所有可能的实体、关系和事实,这种不完整性易导致重要信息缺失,限制KG在各种应用中的效用;其次,随着世界的不断演化发展,KG无法及时反映现实世界中的信息变化,导致KG中的信息更新滞后,不再准确有效;最后,KG的构建维护通常需要投入大量的人力资源用于手动整理、标注和更新大量的知识,成本高昂。

对此,可利用LLM所具有的泛化能力解决KG不完整所导致的信息不准确问题,如图3所示,研究人员提出了将LLM整合到KG中,以更充分地考虑文本信息,并提高下游任务性能。

c61365a9c9e5d7b8ffb5a4ade525a994.png

图2  LLM4KG协同模式示意图

知识图谱构建

构建大语言模型增强的知识图谱的方法主要归为五大类。KG与深度学习模型交互,如BOX4Types[13]等,这类方法通常基于现有的深度学习模型,如RNN、LSTM等,并令它们与KG进行交互,从文本中提取和利用知识,结合深度学习的学习效果和KG的丰富性,处理大量的文本数据并从中提取知识,但由于依赖深度学习模型,这类方法可能需要大量的计算资源。KG文本化方法,如CrossCR[14]等,通常将KG转化为文本格式并使用语言模型进行处理,能够充分利用预训练模型的优势,处理更复杂的关系和上下文,但转换过程可能导致信息丢失,且需要大量的数据和计算资源。

KG与LLM融合,如COMET[15]等,这类方法直接将KG和大型预训练模型(如BERT、GPT-3)结合在一起,直接从LLM中提取知识,处理大量的数据和复杂的关系,但由于依赖特定的预训练模型,可能会受到模型局限性的影响,且对计算资源的需求量大。KG自动生成与拓展,如Grapher[16]等,这些方法旨在从现有的数据和知识中自动生成和扩展KG,能够自动地生成和更新KG,处理大量数据和关系,但自动生成的知识可能不够准确,且需要复杂的算法和大量的计算资源。KG与符号计算结合的方法,如Curriculum-RE[17]等,这些方法结合了KG和符号计算方法,如知识蒸馏,能够结合符号计算的精确性和KG的丰富性,可以处理复杂的关系和上下文,但需要复杂的算法和大量的计算资源,且对数据的质量和完整性有很高的要求。

知识图谱补全

文本-序列建模方法将KG补全任务转化为一个序列到序列(Seq2Seq)的问题。这种方法主要利用Seq2Seq模型,如Transformer,对KG的实体和关系进行编码,并生成目标实体或关系。这些方法的核心优势在于其自然的处理方式,可直接将KG任务转化为文本生成任务,但可能面临处理长序列的挑战,或需要特定的训练策略优化性能。KG-BERT[18]采用BERT模型进行KG补全,通过调整BERT模型预测三元组的可信度,但可能会错过某些关系信息。GenKGC[19]用Seq2Seq的生成方式模拟KG补全,可以自然地将KG补全问题转换为生成任务。

对比学习和负采样策略方法强调使用对比学习和(或)负采样策略提高KG补全的效率和性能。对比学习通常涉及对正样本和负样本进行区分,而负采样策略则涉及选择与正样本不相关的样本进行训练。这些方法旨在有效地提取和区分KG中的关系,但可能需要大量的负样本实现最佳效果。SimKGC[20]通过增加三种负样本类型提高文本基于KG补全方法的效果,通过对比学习的方法提高了效率,但模型性能可能受到负采样比例低的影响与限制。

语言模型抽取方法使用如BERT或GPT等语言模型处理KG任务。这些方法试图从预训练模型中提取丰富的语言知识,并将其应用于KG补全。预训练模型的一个主要优势是它们已经在大量文本数据上进行了训练,从而捕获了丰富的语言和世界知识。然而,这种方法可能需要特定的调优策略才能在特定的KG任务上实现最佳性能。AutoKG[21]研究了LLM在KG构建和推理中的行为,有助于KG的自动化构建和推理。

语义和结构融合的方法旨在结合KG的结构信息和文本的语义信息,通常涉及使用图嵌入技术表示KG的结构,同时使用预训练的语言模型处理实体和关系的文本描述,以试图充分利用KG中的结构和语义信息。但要实现这种融合可能会遇到一些技术挑战。LASS[22]提出了一种联合的语言语义和结构嵌入方法,充分结合了KG的结构和语义信息。

其他方法采用独特的策略或技术执行KG任务,可能涉及特定的任务设置,如开放世界KG补全,或涉及特定的技术策略,如基于掩码语言建模(MLM)任务补全。这些方法可能特别适用于某些特定的KG场景或挑战。LP-BERT[23]利用MLM任务进行KG完善,采用多任务预训练策略。

知识图谱问答

随着KG和大规模语言模型在自然语言处理领域的广泛应用,研究者已经提出了多种将两者结合进行KG问答的方法。首先,诸如GreaseLM等KG与语言模型的深度交互方法重点关注KG与LLM之间的深入互动,确保两者信息能够完全交融和互补,它们不仅使用语言模型解析和理解问题,还确保KG中的信息与语言模型紧密集成,以提供结构化的答案,但可能需要复杂的训练策略确保KG和语言模型之间的有效交互,且模型的大小和复杂性可能导致效率低下的问题。

基于语言模型的KG文本化方法将KG转化为文本格式,利用预训练的语言模型进行处理,如OreoLM[24]等系统。它们强调将KG转化为文本形式,并使用预训练的语言模型处理,充分利用LLM的理解能力,同时确保KG中的信息得到正确的表示,可以直接利用预训练语言模型的能力,无须进行复杂的KG编码,可处理复杂的自然语言问题,并提供直接的答案,但将KG转化为文本可能会丢失一些结构信息,此外,系统还依赖高质量的KG文本化方法。

KG与语言模型的融合方法试图直接将两者结合在一起,如QA-GNN等,这类方法尝试直接融合KG和语言模型。它们通常使用图神经网络处理KG,并使用预训练的语言模型处理文本信息,提供了一个综合的方法处理KG和文本数据,能够直接利用KG和语言模型的优势,适用于各种KG和语言模型任务,但模型的复杂性可能导致训练和推理变得复杂,且需要大量的数据和计算资源。

04

知识图谱与大语言模型交互融合(KG+LLM)

LLM能够理解和生成自然语言,具有强大的文本理解和生成能力,能够从大量的文本数据中学习语言的语法、语义和上下文信息,从而自动处理和生成文本;KG则是一种结构化的知识表示形式,由实体、关系和属性组成。提供了事实知识的结构化表示,可用于存储和检索实体之间的关系,以及它们的属性和上下文信息。

c90e3d6d26141e4330b9c2ce76e56fc9.png

图3  KG+LLM协同模式示意图

为了同时发挥LLM和KG的优势,如图3所示,研究人员提出通过多轮迭代的方式将LLM与KG协同驱动,以获得更深入的语义理解、更丰富的知识表示和更强大的推理能力。

4483b5188eb76793cc860ccc03ba0d31.png

图4  基于KG+LLM的Microsoft 365 Copilot示意图

Microsoft 365 Copilot[25]是一个先进的助手系统,通过与知识图谱(Microsoft Graph)和LLM的交互整合Microsoft 365的各种应用程序以提供智能响应,这种结合为Microsoft 365 Copilot提供了巨大能量。KG确保响应基于用户的实际上下文和内容,而LLM为用户提供丰富自然的交互体验,使得Copilot不仅可以理解用户的请求,还可根据用户的数据和历史提供个性化的建议,这种结合确保用户获得的不仅仅是一般性的回答,而是真正有用而相关的信息。当用户在Microsoft 365应用中发出提示或命令时,这些提示首先经过预处理阶段,从Microsoft Graph和语义索引中获取相关的上下文和内容信息,以确保响应是针对性的;预处理完毕,提示被修改并转发给LLM进行深度处理和响应生成;LLM处理用户请求并生成响应,响应进入后处理阶段;再次访问Microsoft Graph和语义索引进一步完善或修改响应;最终,响应和可能的应用指令被发送回用户的Microsoft 365应用。

550877aee22ea99b67e7f3d0265942d0.png

图5  基于KG+LLM的“中医药方剂”垂直领域问答方法示意图

在该研究方向,我们提出了一个中医药领域KG与LLM交互融合的问答方法[26],旨在通过KG与LLM的深度整合提供专业的中医药垂直领域问答服务。如图4所示,该方法具有信息过滤、专业问答以及抽取转化等关键功能,确保信息的准确性,减少错误信息的产生;通过LangChain技术的应用,本方法能够在不需要重训LLM的前提下,提供专业且准确的回答,同时避免高昂的硬件成本和潜在的灾难性遗忘问题;通过将自然语言文本转化为KG结构化数据,系统不仅能够提升回答的专业性,还能够通过用户易于理解的方式展现复杂信息。本方法的互动流程从用户提问开始,经过信息过滤、与知识库提示的结合、专业问答处理,最后通过三元组抽取与KG匹配来增强回答内容,该流程不仅增强了知识的深度和范围,还提高了用户交互的友好性。这一新型问答设计模式有效结合了LLM的强大处理能力和KG的专业知识结构,为用户提供了一个既准确又专业,同时用户体验友好的问答方法。

05

未来方向

尽管知识图谱与大语言模型协同的设计模式取得了突出效果,但仍面临一些问题和挑战,笔者预测可以从以下几个方向开展研究:

1074c2485f82a5cf55221cadbd559365.png

图6  未来方向脉络图

1、知识图谱与大语言模型协同模式有望成为“神经+符号”人工智能的突破点

KG具备显式(符号)知识表示,可以为隐式(神经)知识表示的LLM提供明确、结构化的知识源,通过将KG和LLM结合,可以使用KG明确的事实引导LLM的输出,从而减少或消除错误表达;其次,KG可以解决LLM的知识更新问题,KG可持续更新信息和数据,将KG与LLM结合,意味着LLM可以获取到最新的信息,确保其输出的时效性与准确性。

2、知识图谱与大语言模型协同模式有望开辟通向通用人工智能研究的新方法

基于LLM的底层能力,如自然语言理解及生成等,引入KG为高层机制,提供明确的知识结构和逻辑关系,这种结合可以确保系统既具备广泛常识和信息处理能力,又能够进行逻辑化推理,通过持续训练和优化,逐步实现通用人工智能(AGI)的目标。

3、知识图谱与大语言模型协同模式有望成为人工智能在各领域落地的新模式

不同领域有不同要求和挑战,例如,医疗领域要求高准确性和可靠性,而金融领域则更加重视风险管理,为满足不同领域的需求,KG与LLM的协同模式还有很多工作可做。KG与LLM的协同模式可以为Copilot助手提供更强大、更准确的支持,KG提供明确的知识结构,而LLM提供强大的文本理解和生成能力,从而使Copilot助手可以更好地理解用户需求,提供更准确的建议和解决方案,有效协助人类完成任务。

参考文献

[1] Pan SR, Luo LH, Wang YF, et al. Unifying Large Language Models and Knowledge Graphs: A Roadmap. arXiv preprint arXiv:2306.08302, 2023.

[2] Shen T, Mao Y, He P, et al. Exploiting structured knowledge in text via graph-guided representation learning[C]// Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). Online: Association for Computational Linguistics. 2020,11:8980-8994.

[3] Wang R, Tang D, Duan N, et al. K-Adapter: Infusing Knowledge into Pre-Trained Models with Adapters[C]// Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021. Online: Association for Computational Linguistics. 2021,8:1405-1418.

[4] Zhang D, Yuan Z, Liu Y, et al. E-BERT: A phrase and product knowledge enhanced language model for e-commerce[OL]. arXiv preprint arXiv:2009.02835, 2020.

[5] Liu W, Zhou P, Zhao Z, et al. K-BERT: enabling language representation with knowledge graph[C]// Proceedings of the 34th AAAI Conference on Artificial Intelligence. 2022:2901-2908.

[6] Yasunaga M, Ren H, Bosselut A, et al. QAGNN: Reasoning with language models and knowledge graphs for question answering[C]// Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. 2021: 535-546.

[7] Sun Y, Shi Q, Qi L, et al. JointLK: Joint reasoning with language models and knowledge graphs for commonsense question answering[C]// Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. 2022: 5049-5060.

[8] Zhang X, Bosselut A, Yasunaga M, et al. Greaselm: Graph reasoning enhanced language models[C]// International Conference on Learning Representations, ICLR2022. 2022.

[9] Wei J, Wang X, Schuurmans D, et al. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv preprint arXiv:2201.11903, 2023.

[10] Petroni F, Rocktäschel T, Riedel S, et al. Language models as knowledge bases?[C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). 2019: 2463-2473.

[11] Lin B Y, Chen X, Chen J, et al. Kagnet: Knowledgeaware graph networks for commonsense reasoning[C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). 2019: 2829-2839.

[12] Dai D, Dong L, Hao Y, et al. Knowledge neurons in pretrained transformers [OL] arXiv preprint arXiv:2104.08696, 2021.

[13] Onoe Y, Boratko M, McCallum A, et al. Modeling fine-grained entity types with box embeddings[C]// Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, ACL/IJCNLP 2021, (Volume 1: Long Papers). 2022: 2051–2064 .

[14] Cattan A, Eirew A, Stanovsky G, et al. Crossdocument coreference resolution over predicted mentions[C]// Findings of the Association for Computational Linguistics: ACL/IJCNLP 2021. 2021: 5100-5107.

[15] Bosselut A, Rashkin H, Sap M, et al. Comet: Commonsense transformers for knowledge graph construction[C]// Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. 2019: 4762-4779.

[16] Melnyk I, Dognin P, Das P. Grapher: Multi-stage knowledge graph construction using pretrained language models[C]// NeurIPS 2021 Workshop on Deep Generative Models and Downstream Applications, 2021.

[17] Park S, Kim H. Improving sentence-level relation extraction through curriculum learning [OL]. arXiv preprint arXiv:2107.09332 .

[18] Yao L, Mao C, Luo Y. KG-BERT: BERT for knowledge graph completion[OL]. arXiv preprint arXiv:2007.00655

[19] Xie X, Zhang N, Li Z, et al. From discrimination to generation: Knowledge graph completion with generative transformer[C]// WWW '22: Companion Proceedings of the Web Conference 2022. 2022: 162-165.

[20] Wang L, Zhao W, Wei Z, et al. Simkgc: Simple contrastive knowledge graph completion with pre-trained language models[C]// Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2022: 4281–4294.

[21] Zhu Y, Wang X, Chen J, et al. Llms for knowledge graph construction and reasoning: Recent capabilities and future opportunities [OL]. arXiv preprint arXiv:2305.13168, 2023.

[22] Shen C, Wang C, Gong L, et al. Joint language semantic and structure embedding for knowledge graph completion[C]// Proceedings of the 29th International Conference on Computational Linguistics.2022: 1965-1978.

[23] Li D, Yi M, He Y. Lp-bert: Multi-task pre-training knowledge graph bert for link prediction [OL]. arXiv preprint arXiv:2201.04843, 2022.

[24] Hu Z, Xu Y, Yu W, et al. Empowering language models with knowledge graph reasoning for open-domain question answering[C]// Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing. 2022: 9562-9581.

[25] Introducing Microsoft 365 Copilot,https://blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/

[26] 张鹤译, 王鑫, 韩立帆, 李钊, 陈子睿, 陈哲. 大语言模型融合知识图谱的问答系统研究[J]. 计算机科学与探索, 2023, 17(10): 2377-2388.

以上就是本次分享的内容,谢谢。

11c86c7aa2a576368e2570a1dd3594b3.gif

e93e0c05852c70023503aa336b7e5fe3.png

作者简介

INTRODUCTION

9d7a42512067adb4f9db937c79f76d31.gif

王鑫

548350676e269f0b644eceb5c7fae63e.gif

天津大学教授

578d8311399fb46ea24feae379a92fce.gif

王鑫,CCF杰出会员、CCF信息系统专委会秘书长、CCF数据库专委会执行委员、CCF大数据专家委员会执行委员。天津大学教授。主要研究方向为知识图谱、图数据库。联系方式:wangx@tju.edu.cn

a1215535160dc2dfcd6938758c5bff6f.png

作者简介

INTRODUCTION

bbcfc2541564ec02b820fd4dcf84da0a.gif

陈子睿

ac99890a8a4dc9fe21c724e11d454316.gif

天津大学博士生

42bcdaf2efcef338bd59197f58925ec8.gif

陈子睿,CCF学生会员。天津大学博士生。主要研究方向为大语言模型、知识图谱表示学习。联系方式:zrchen@tju.edu.cn

b037bac545203ccc874cc8518e0c8d0c.png

作者简介

INTRODUCTION

99a4485d839b073de398016412b9b2b9.gif

王昊奋

7c11743a59f1b9e2483be01d3be42917.gif

同济大学特聘研究员、博导

da7c07287371db7635c9364c2fff9bf7.gif

王昊奋,CCF 高级会员,CCF 上海分部秘书长、CCF SIGKG 主席、术语工委副主任,OpenKG联合发起人。同济大学百人计划特聘研究员,博士生导师。主要研究方向为知识图谱、自然语言处理。联系方式:carter.whfcarter@gmail.com


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

77041e6ad7b6b4d011d8c4859ae98916.png

点击阅读原文,进入 OpenKG 网站。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/148729.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

数字IC前端学习笔记:异步复位,同步释放

相关阅读 数字IC前端https://blog.csdn.net/weixin_45791458/category_12173698.html?spm1001.2014.3001.5482 异步复位 异步复位是一种常见的复位方式,可以使电路进入一个可知的状态。但是不正确地使用异步复位会导致出现意想不到的错误,复位释放便是…

读像火箭科学家一样思考笔记03_第一性原理(上)

1. 思维的两种障碍 1.1. 为什么知识会成为一种缺陷而非一种美德 1.1.1. 知识是一种美德 1.1.2. 知识同样的特质也会把它变成一种缺点 1.1.3. 知识确实是个好东西,但知识的作用应该是给人们提供信息,而不是起约束作用 1.1.4. 知识应该启发智慧&#…

新版JetBrains ToolBox【Windows】修改应用安装位置

WIndows下新版的JetBrainse ToolBox 无法修改应用安装路径 关闭 ToolBox 应用修改配置文件.settings.json 路径:C:\Users\用户名\AppData\Local\JetBrains\Toolbox "install_location": "xxx",

多线程概述

文章目录 线程是什么线程有什么作用线程和进程的区别多线程相较于进程优势 在Java这个圈子中,多进程用的并不多,因为进程是一个重量级操作,进程是资源分配的基本单位,申请资源是一个比较消耗时间的操作. 线程是什么 线程是一个独立的执行流,可以被独立调度到CPU上执行 线程是…

计算机毕业设计选题推荐-个人健康微信小程序/安卓APP-项目实战

✨作者主页:IT研究室✨ 个人简介:曾从事计算机专业培训教学,擅长Java、Python、微信小程序、Golang、安卓Android等项目实战。接项目定制开发、代码讲解、答辩教学、文档编写、降重等。 ☑文末获取源码☑ 精彩专栏推荐⬇⬇⬇ Java项目 Python…

腾讯微服务平台TSF学习笔记(一)--如何使用TSF的Sidecar过滤器实现mesh应用的故障注入

Mesh应用的故障注入 故障注入前世今生Envoy设置故障注入-延迟类型设置故障注入-延迟类型并带有自定义状态码总结 故障注入前世今生 故障注入是一种系统测试方法,通过引入故障来找到系统的bug,验证系统的稳健性。istio支持延迟故障注入和异常故障注入。 …

黑马React18: 基础Part 1

黑马React: 基础1 Date: November 15, 2023 Sum: React介绍、JSX、事件绑定、组件、useState、B站评论 React介绍 概念: React由Meta公司研发,是一个用于 构建Web和原生交互界面的库 优势: 1-组件化的开发方式 2-优秀的性能 3-丰富的生态 4-跨平台开发 开发环境搭…

SpringBoot中日志的使用log4j

SpringBoot中日志的使用log4j 项目中日志系统是必不可少的,目前比较流行的日志框架有 log4j、logback 等,这两个框架的作者是同一个 人,Logback 旨在作为流行的 log4j 项目的后续版本,从而恢复 log4j 离开的位置。 另外 slf4j(…

vulhub redis-4-unacc

环境搭建 cd vulhub/redis/4-unacc docker-compose up -d 漏洞复现 检测 redis-cli -h ip 使用redis工具 工具地址:https://github.com/vulhub/redis-rogue-getshell 下载完成后,先进入RedisModulesSDK/exp/ 目录进行make操作 获得exp.so后可以进行…

【开发流程】持续集成、持续交付、持续部署

一、开发工作流程 假设把开发流程分为以下几个阶段: 编码 -> 构建 -> 集成 -> 测试 -> 交付 -> 部署 如上图所示,持续集成、持续交付、持续部署有着不同的软件自动交付周期。 二、持续集成、持续交付、持续部署 1、持续集成 持续集成…

服务器数据恢复—热备盘同步中断导致Raid5数据丢失的数据恢复案例

服务器数据恢复环境: 某单位一台服务器上有一组raid5阵列,该raid5阵列有15块成员盘。上层是一个xfs裸分区,起始位置是0扇区。 服务器故障&检测: 服务器raid5阵列中有硬盘性能表现不稳定,但是由于管理员长时间没有关…

nodejs+vue实验室上机管理系统的设计与实现-微信小程序-安卓-python-PHP-计算机毕业设计

用户:管理员、教师、学生 基础功能:管理课表、管理机房情况、预约机房预约;权限不同,预约类型不同,教师可选课堂预约和个人;课堂预约。 在实验室上机前,实验室管理员需要对教务处发来的上机课表…

浅析AcrelEMS-CIA机场智慧能源管平台解决方案-安科瑞 蒋静

1 概述 机场智慧能源管平台解决方案对机场范围内变电站内的高低压配电设备 、 发电机、变压器 、UPS、EPS 、广场照明 、 室内照明 、通风及排水等机电设备进行实时分布式监控和集中管理 , 实现无人值守 , 确保高速公路安全畅通 , 提高 自动化管理水平 , 降低机电设备的运行维…

SpringBoot常见注解

✅作者简介:大家好,我是Leo,热爱Java后端开发者,一个想要与大家共同进步的男人😉😉 🍎个人主页:Leo的博客 💞当前专栏:每天一个知识点 ✨特色专栏&#xff1a…

程序员告诉你:人工智能是什么?

随着科技的快速发展,人工智能这个词汇已经逐渐融入了我们的日常生活。然而,对于大多数人来说,人工智能仍然是一个相对模糊的概念。 首先,让我们从人工智能的定义开始。人工智能是一种模拟人类智能的技术,它涵盖了多个领…

flink入门

1.安装flink,启动flink 文档地址:Apache Flink 1.3-SNAPSHOT 中文文档: Apache Flink 中文文档 代码:GitHub - apache/flink: Apache Flink 2. 打开端口 端口号, 启动jar ### 切换到flink 目录bin下 [rootlocalhost ~]# cd /…

参考文献格式

目录 期刊会议预印本(如arxiv) 期刊 找不到页码可以在文献中查看bibtex格式,其中有 外文期刊可在web of science中查找卷号、期号和所在页数: [1] ZHANG F, HU Z Q, FU Y K, et al. A New Identification Method for Surface …

【0到1学习Unity脚本编程】第一人称视角的角色控制器

👨‍💻个人主页:元宇宙-秩沅 👨‍💻 hallo 欢迎 点赞👍 收藏⭐ 留言📝 加关注✅! 👨‍💻 本文由 秩沅 原创 👨‍💻 收录于专栏:【0…

自动驾驶学习笔记(九)——车辆控制

#Apollo开发者# 学习课程的传送门如下,当您也准备学习自动驾驶时,可以和我一同前往: 《自动驾驶新人之旅》免费课程—> 传送门 《Apollo Beta宣讲和线下沙龙》免费报名—>传送门 文章目录 前言 控制器设计 比例积分微分控制 线性…

Kotlin 知识体系

Kotlin 知识体系 1、Kotlin 文档2、Kotlin 基础3、桌面应用程序4、Android 与 iOS 应用程序 1、Kotlin 文档 Kotlin 是一门现代但已成熟的编程语言,旨在让开发人员更幸福快乐。 它简洁、安全、可与 Java 及其他语言互操作,并提供了多种方式在多个平台间复…