对文本数据进行关键词提取,可以采用哪些算法?具体实现流程是什么样的?

The question 1: 对文本数据进行关键词提取,可以采用哪些算法?具体实现流程是什么样的?

一、常见的关键词提取算法:

  1. TF-IDF(Term Frequency-Inverse Document Frequency):

TF-IDF是一种统计方法,用以评估一个词语对于一个文件集或一个语料库中的其中一份文件的重要程度。它是通过比较词频(TF)和逆文档频率(IDF)来实现的,帮助识别出只在少数文档中频繁出现的词,认为这些词对文档具有好的区分度。

  1. TextRank:

TextRank是一种基于图的排序算法,用于文本处理,特别是在关键词提取和文摘生成中。它是通过建立文本中单词的图模型,然后用PageRank算法来识别图中的重要节点(单词),从而提取出关键词。

  1. LDA(Latent Dirichlet Allocation):

LDA是一种主题模型算法,可以用于识别大规模文本数据中的主题。通过将文档集合中的每篇文档视为一个主题分布,并将每个主题视为一个关键词分布,LDA能够发现文档集合中的隐藏主题,并据此提取关键词。

  1. Word2Vec:

Word2Vec是一种利用神经网络将词汇表达为向量的方法。通过这种方式,可以计算单词之间的相似度。虽然Word2Vec本身不直接用于关键词提取,但它可以辅助识别语义上相关的词汇,进而辅助关键词提取。

  1. 基于深度学习的方法:

随着深度学习技术的发展,一些基于深度学习的模型如CNN(卷积神经网络)、RNN(循环神经网络)、BERT(Bidirectional Encoder Representations from Transformers)等被用于文本数据的特征提取,并进一步用于关键词提取。这些模型能够学习文本的深层语义信息,从而提高关键词提取的准确性和效果。

二、对上述算法在适用性、准确性、计算复杂度和对上下文的理解能力进行优缺点分析

算法优点缺点
TF-IDF- 简单易于理解和实现
- 计算效率高,适用于大规模文档集合
- 能有效识别文档特定的关键词
- 忽略了词语的语序和上下文信息
- 对于新词或专有名词的识别能力较弱
TextRank- 不需要预先训练模型,简单易用
- 能够基于词语的共现关系理解词语之间的相互作用
- 对于处理长文本效率较低
- 依赖于词语的共现关系,可能不适用于语义复杂或结构紧凑的文本
LDA- 能够发现文本数据的潜在主题
- 适用于处理大规模文档集合
- 模型训练时间较长,需要调整的超参数较多
- 对短文本的处理效果不佳
Word2Vec- 能够捕获词语的语义信息
- 生成的词向量可以用于多种NLP任务
- 直接用于关键词提取时需要额外的处理步骤
- 需要大量文本数据进行训练
基于深度学习的方法- 能够捕捉到文本的深层次语义信息
- 适用于复杂的文本处理任务
- 需要大量的训练数据
- 模型训练和推理计算资源消耗大
- 需要专业知识进行模型调优

三、算法原理

1 TF-IDF

算法的核心思想是:如果某个词语在一篇文章中出现的频率高(TF高),并且在其他文章中很少出现(IDF高),则认为这个词语具有很好的类别区分能力,对文档的重要性高。

TF (Term Frequency)

词频(TF)指的是某个词在文档中出现的频率。这个数字通常会被规范化(分母可能是文档中词的总数),以避免它偏向长的文件。(即,某个词在文档中出现的次数除以文档中词的总数)

$ \text{TF}(t, d) = \frac{\text{在文档 }d \text{ 中词语 }t\text{ 出现的次数}}{\text{文档 }d\text{ 中的词语总数}} $

IDF (Inverse Document Frequency)

逆文档频率(IDF)是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文档数目除以包含该词语之文档的数目,然后将得到的商取对数得到。

IDF ( t , D ) = log ⁡ 文档总数 包含词语  t 的文档数目 + 1 \text{IDF}(t, D) = \log \frac{\text{文档总数}}{\text{包含词语 }t\text{ 的文档数目} + 1} IDF(t,D)=log包含词语 t 的文档数目+1文档总数

这里加1是为了避免分母为0(即,避免出现没有包含词语 t t t的情况)。

TF-IDF

因此,TF-IDF实际上是两者的乘积:

TF-IDF ( t , d , D ) = TF ( t , d ) × IDF ( t , D ) \text{TF-IDF}(t, d, D) = \text{TF}(t, d) \times \text{IDF}(t, D) TF-IDF(t,d,D)=TF(t,d)×IDF(t,D)

这里:

  • t t t 代表一个词语
  • d d d 代表一篇文档
  • D D D 代表文档集合

TF-IDF值越高,表示词语在文档中的重要性越高。这个值越大,表示词语对文档的贡献越大,也就是说,这个词在文档中越重要。

代码实现:
from sklearn.feature_extraction.text import TfidfVectorizer
import jiebatext_cn = """
人工智能(AI)和机器学习(ML)是21世纪最重要的技术进步之一。它们不仅推动了从自动驾驶汽车到个性化医疗的广泛应用,
还有望彻底改变我们与环境的互动方式。AI指的是计算机系统执行通常需要人类智能的任务,例如视觉感知、语音识别、决策制定和语言翻译。
ML是AI的一个子集,它专注于开发能够从数据中学习并基于数据做出预测或决策的算法。将AI和ML整合到云计算中,正在转变科技行业,
使服务更加精细化和个性化,同时确保数据安全和效率。本文旨在探索AI和ML在云计算中的作用,突出它们对各个领域的影响,并讨论这些技术的未来前景。
"""# 对中文文本进行分词
text_cn_cut = " ".join(jieba.cut(text_cn))# 初始化TF-IDF Vectorizer,设置中文停用词
vectorizer_cn = TfidfVectorizer(max_features=10, stop_words=['的', '是', '在', '和', '了', '有'])  # 提取最重要的10个词# 计算TF-IDF
tfidf_matrix_cn = vectorizer_cn.fit_transform([text_cn_cut])# 获取词汇和对应的TF-IDF分数
feature_names_cn = vectorizer_cn.get_feature_names_out()
scores_cn = tfidf_matrix_cn.toarray().flatten()# 组合词汇和其TF-IDF分数
keywords_with_scores_cn = dict(zip(feature_names_cn, scores_cn))# 打印结果
print(keywords_with_scores_cn)
from sklearn.feature_extraction.text import TfidfVectorizer# 示例长文章
text = """
Artificial intelligence (AI) and machine learning (ML) are two of the most significant technological advances of the 21st century. 
Not only do they power a wide range of applications, from autonomous vehicles to personalized healthcare, but they also promise 
to revolutionize how we interact with our environment. AI refers to the development of computer systems that can perform tasks 
normally requiring human intelligence, such as visual perception, speech recognition, decision-making, and language translation. 
ML is a subset of AI that focuses on the development of algorithms that can learn from and make predictions or decisions based on data. 
The integration of AI and ML into cloud computing is transforming the tech industry, enabling more sophisticated and personalized 
services while ensuring data security and efficiency. This article aims to explore the role of AI and ML in cloud computing, 
highlighting their impact on various sectors and discussing the future prospects of these technologies.
"""# 初始化TF-IDF Vectorizer
vectorizer = TfidfVectorizer(stop_words='english', max_features=10)  # 提取最重要的10个词# 计算TF-IDF
tfidf_matrix = vectorizer.fit_transform([text])# 获取词汇和对应的TF-IDF分数
feature_names = vectorizer.get_feature_names_out()
scores = tfidf_matrix.toarray().flatten()# 组合词汇和其TF-IDF分数
keywords_with_scores = dict(zip(feature_names, scores))# 输出结果
keywords_with_scores

2 TextRank

TextRank算法是一种基于图的排序算法,用于文本处理任务,如关键词提取和文本摘要生成。它是由PageRank算法启发而来的,PageRank算法最初是由谷歌的创始人拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin)提出,用于衡量网页的重要性。TextRank利用这一概念,通过建立文本单元(如句子或单词)之间的关系图来识别文本中的关键元素。

TextRank算法的数学表示

TextRank算法的核心是一个基于图的评分或排序机制,它将文本中的元素(如单词或句子)作为图中的节点,而元素之间的相互关系(如共现或相似性)作为边。然后,它使用以下公式迭代计算每个节点的得分:

W S ( V i ) = ( 1 − d ) + d × ∑ V j ∈ I n ( V i ) w j i ∑ V k ∈ O u t ( V j ) w j k W S ( V j ) WS(V_i) = (1 - d) + d \times \sum_{V_j \in In(V_i)} \frac{w_{ji}}{\sum_{V_k \in Out(V_j)} w_{jk}} WS(V_j) WS(Vi)=(1d)+d×VjIn(Vi)VkOut(Vj)wjkwjiWS(Vj)

这里:

  • W S ( V i ) WS(V_i) WS(Vi) 是节点 V i V_i Vi 的得分。
  • d d d 是阻尼系数,通常设为0.85,这是一个经验值,用以模拟浏览者继续点击的概率。
  • I n ( V i ) In(V_i) In(Vi) 是指向节点 V i V_i Vi 的节点集合,即有边指向 V i V_i Vi 的所有节点。
  • O u t ( V j ) Out(V_j) Out(Vj) 是节点 V j V_j Vj 指向的节点集合,即 V j V_j Vj 有边指向的所有节点。
  • w j i w_{ji} wji 是从节点 V j V_j Vj V i V_i Vi 的边的权重。
  • ∑ V j ∈ I n ( V i ) \sum_{V_j \in In(V_i)} VjIn(Vi) 表示对所有指向 V i V_i Vi 的节点 V j V_j Vj 的得分进行求和。
  • w j i ∑ V k ∈ O u t ( V j ) w j k \frac{w_{ji}}{\sum_{V_k \in Out(V_j)} w_{jk}} VkOut(Vj)wjkwji 表示节点 V j V_j Vj V i V_i Vi 得分贡献的比例,其中 w j k w_{jk} wjk 是节点 V j V_j Vj 到它指向的每个节点 V k V_k Vk 的边的权重。

通过迭代计算,每个节点的得分最终会收敛到一个稳定的值,这个值反映了节点在文本中的重要性。在关键词提取的应用中,节点代表单词,边代表单词之间的共现关系;在文本摘要的应用中,节点代表句子,边代表句子之间的相似性。

TextRank算法的优势在于它不需要预先的训练数据,是一种无监督的方法,可以直接应用于任何给定的文本。

from summa import keywordstext = """
Artificial intelligence (AI) and machine learning (ML) are two of the most significant technological advances of the 21st century.
Not only do they power a wide range of applications, from autonomous vehicles to personalized healthcare, but they also promise
to revolutionize how we interact with our environment. AI refers to the development of computer systems that can perform tasks
normally requiring human intelligence, such as visual perception, speech recognition, decision-making, and language translation.
ML is a subset of AI that focuses on the development of algorithms that can learn from and make predictions or decisions based on data.
The integration of AI and ML into cloud computing is transforming the tech industry, enabling more sophisticated and personalized
services while ensuring data security and efficiency. This article aims to explore the role of AI and ML in cloud computing,
highlighting their impact on various sectors and discussing the future prospects of these technologies.
"""# 使用TextRank算法提取关键词
extracted_keywords = keywords.keywords(text, scores=True)# 输出提取的关键词及其分数
print(extracted_keywords)
from summa.summarizer import summarizetext = """
Artificial intelligence (AI) and machine learning (ML) are two of the most significant technological advances of the 21st century. 
Not only do they power a wide range of applications, from autonomous vehicles to personalized healthcare, but they also promise 
to revolutionize how we interact with our environment. AI refers to the development of computer systems that can perform tasks 
normally requiring human intelligence, such as visual perception, speech recognition, decision-making, and language translation. 
ML is a subset of AI that focuses on the development of algorithms that can learn from and make predictions or decisions based on data. 
The integration of AI and ML into cloud computing is transforming the tech industry, enabling more sophisticated and personalized 
services while ensuring data security and efficiency. This article aims to explore the role of AI and ML in cloud computing, 
highlighting their impact on various sectors and discussing the future prospects of these technologies.
"""# 使用TextRank算法生成摘要,通过调整ratio参数可以控制摘要的长度
generated_summary = summarize(text, ratio=0.2)print(generated_summary)

3 LDA

LDA(Latent Dirichlet Allocation)是一种主题模型,它允许观察到的文本集合中的每一篇文档被解释为关于一组未观察到的潜在主题的随机混合。简而言之,LDA提供了一种用于从文档集合中自动发现主题的方式。LDA背后的基本思想是,文档是由一组特定的主题混合生成的,而每个主题则是由一组特定的词汇混合生成的。

LDA算法的原理:
  1. 假设

    • 每篇文档是由多个主题的混合生成的。
    • 每个主题是由多个词汇的分布生成的。
  2. 过程

    • 对于文档集中的每一篇文档,LDA模型都会尝试反向推理出一个潜在的主题混合,这个混合定义了文档中每个词的可能来源。
    • LDA通过重复抽样过程(通常是吉布斯抽样或变分贝叶斯推断)来估计这些未知的参数,即文档-主题和主题-词汇的分布。
数学表示:

假设我们有 D D D篇文档,每篇文档由一系列词汇组成,我们的目标是发现 K K K个主题。LDA模型的生成过程如下:

  1. 对于每个主题 k k k中的每个词 w w w,选择一个词 w w w的概率分布 ϕ k \phi_k ϕk。这是从Dirichlet分布中抽取的,参数为 β \beta β
  2. 对于每篇文档 d d d
    • 选择一个主题分布 θ d \theta_d θd。这是从Dirichlet分布中抽取的,参数为 α \alpha α
    • 对于文档中的每个词 n n n
      • 首先,从文档的主题分布 θ d \theta_d θd中选择一个主题 z d , n z_{d,n} zd,n
      • 然后,从选择的主题 z d , n z_{d,n} zd,n对应的词分布 ϕ z d , n \phi_{z_{d,n}} ϕzd,n中选择一个词 w d , n w_{d,n} wd,n
参数:
  • α \alpha α:文档-主题分布的Dirichlet先验参数。
  • β \beta β:主题-词汇分布的Dirichlet先验参数。
  • θ d \theta_d θd:第 d d d篇文档的主题分布。
  • ϕ k \phi_k ϕk:第 k k k个主题的词汇分布。
  • z d , n z_{d,n} zd,n:第 d d d篇文档中第 n n n个词的主题。
  • w d , n w_{d,n} wd,n:第 d d d篇文档中第 n n n个词。
目标:

LDA的目标是推断两个潜在的分布:文档-主题分布 θ \theta θ和主题-词汇分布 ϕ \phi ϕ。通过这些分布,我们可以不仅了解文档包含哪些主题,还能了解每个主题包含哪些词汇,进而揭示文档集的潜在结构。

4 Word2Vec

Word2Vec是一种广泛使用的词嵌入(Word Embedding)技术,由Google的研究团队在2013年提出。它的核心思想是通过学习词语之间的上下文关系来将每个词转换为一个固定大小的稠密向量(通常称为嵌入向量),使得这些向量能够捕捉到词语之间的语义和语法关系。Word2Vec的成功部分在于它能够使语义上或语法上相似的词语在向量空间中彼此接近。

Word2Vec模型有两种主要的架构:连续词袋模型(CBOW)和跳字模型(Skip-gram)。

连续词袋模型(CBOW)

CBOW模型预测的是给定上下文中的词语(例如,一个词周围的词语)的当前词。具体来说,模型尝试从上下文中的多个源词预测目标词。这种方法特别适用于小型数据集。

跳字模型(Skip-gram)

与CBOW相反,Skip-gram模型以当前词为输入,预测它的上下文词语。换句话说,给定一个特定的词,模型预测它周围的词语。Skip-gram模型在大型数据集上表现更好,特别是对于罕见词。

Word2Vec的数学原理

Word2Vec模型通常通过优化一个目标函数来训练。这个目标函数基于神经网络,但网络的结构非常简单:它没有隐藏层(或者说只有一个投影层),并且输出层是一个softmax层,用于预测给定上下文的目标词。

对于Skip-gram模型,目标函数试图最大化给定当前词$ w_c 时上下文词 时上下文词 时上下文词 w_o $出现的条件概率的对数似然:

∑ ( w o , w c ) ∈ D log ⁡ p ( w o ∣ w c ) \sum_{(w_o, w_c) \in D} \log p(w_o | w_c) (wo,wc)Dlogp(wowc)

这里 D D D是所有词对(目标词和上下文词)的数据集。条件概率 p ( w o ∣ w c ) p(w_o | w_c) p(wowc)通常通过softmax函数计算:

p ( w o ∣ w c ) = exp ⁡ ( v w o ′ T v w c ) ∑ w ∈ V exp ⁡ ( v w ′ T v w c ) p(w_o | w_c) = \frac{\exp({v'_{w_o}}^T v_{w_c})}{\sum_{w \in V} \exp({v'_w}^T v_{w_c})} p(wowc)=wVexp(vwTvwc)exp(vwoTvwc)

其中 v w c v_{w_c} vwc v w o ′ v'_{w_o} vwo分别是当前词 w c w_c wc和上下文词 w o w_o wo的向量表示, V V V是词汇表。

通过这种方式,Word2Vec能够学习到能反映词语之间复杂关系的词向量。这些向量可以用于各种自然语言处理任务,如文本相似度计算、情感分析和机器翻译。

5 DL

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/744739.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

mysql日志分析工具

我们使用命令去查看慢sql是一个比较麻烦的过程,这个时候,我们就用到了mysql日志分析工具mysqldumpslow使用当前命令时确保开启了慢sql日志 点击 简单使用 通过mysqldumpslow --help来查询命令的使用方法 mysqldumpslow 是一个用于分析慢查询日志的工具…

什么是多路复用

多路复用是一种技术,允许多个输入或输出流共享一个单一的通信信道或计算资源。通过多路复用,多个数据流可以同时在同一个通道上传输,提高了通信效率和资源利用率。 在计算机网络中,多路复用常用于实现同时传输多个数据流&#xf…

人工智能入门之旅:从基础知识到实战应用(六)

一、人工智能学习之路总结 人工智能学习的关键点与挑战可以总结如下: 关键点: 理论基础: 理解机器学习、深度学习等人工智能的基本原理和算法是学习的基础,包括线性代数、概率统计、微积分等数学知识,以及神经网络、卷积神经网络、循环神经网络等模型的原理。 实践项目:…

mac切换本地node版本

1.首先安装n模块: sudo npm install -g n2.升级node.js到最新稳定版 // 升级到最新版本 sudo n latest// 升级到稳定版本 sudo n stable// 升级到具体版本号 sudo n xx.xx// 最新稳定版本 sudo n lts3.切换使用版本 sudo n 7.10.04.删除指定版本 sudo n rm 7.10.05.…

2024.3.14

成员函数版本实现算术运算符的重载 全局函数版本实现算术运算符的重载 #include <iostream> using namespace std; class Number//定义一个数字类 {//因为a和b是私有成员&#xff0c;全局进行访问需要要friend进行声明friend const Number operator*(const Number &…

软件设计师16--段页式存储

软件设计师16--段页式存储 考点1&#xff1a;页式存储存储管理 - 页式存储组织存储管理 - 页面置换算法例题&#xff1a; 考点2&#xff1a;段式存储存储管理 - 段式存储组织例题&#xff1a; 考点1&#xff1a;页式存储 存储管理 - 页式存储组织 页式存储&#xff1a;将程序…

NLP:HanLP的下载与使用

昨天说到要做一个自定义的训练模型&#xff0c;但是很快这个想法就被扑灭了&#xff0c;因为这个手工标记的成本太大&#xff0c;而且我的上级并不是想要我做这个场景&#xff0c;而是希望我通过这个场景展示出可以接下最终需求的能力。换句话来说&#xff1a;可以&#xff0c;…

基于FPGA的HyperRam接口设计与实现

一 HyperRAM 针对一些低功耗、低带宽应用&#xff08;物联网、消费产品、汽车和工业应用等&#xff09;&#xff0c;涉及到外部存储&#xff0c;HyperRAM提供了更简洁的内存解决方案。 HyperRAM具有以下特性&#xff1a; 1、超低功耗&#xff1a;200MHz工作频率下读写不到50mW…

[已解决]安装CUDA失败报错(附万能解决办法)

[已解决]安装CUDA失败报错(附万能解决办法) &#xff08;Tips&#xff1a;赶时间直接看万能法2&#xff09; 经过长时间的尝试和研究&#xff0c;我终于解决了安装CUDA失败报错的问题。在这里&#xff0c;我将记录下我遇到的问题以及解决办法&#xff0c;希望对其他小白们有所帮…

ssh 下连接Mysql 查看数据库数据表的内容的方法及步骤

要通过SSH连接到MySQL数据库&#xff0c;可以按照以下步骤进行操作&#xff1a; 在本地计算机上打开终端或命令提示符。 使用SSH命令连接到远程服务器。命令的格式如下&#xff1a; ssh usernameserver_ip其中&#xff0c;username是指在远程服务器上的用户名&#xff0c;serv…

ListBox显示图片的一些问题

相关&#xff1a;http://t.csdnimg.cn/xTnu8 显示图片的方案就是&#xff1a;自定义一个Photo类&#xff0c;里面有属性Source&#xff1b;View再绑定ViewModel中的Photo集合&#xff0c;再到View中给ListView设置数据模板 关键点&#xff1a;这样做很容易忘记写数据模板 数据…

专升本英语语法学习

背景知识&#xff1a; 主动语态。主动语态表示主语是动作的执行者。被动语态。被动语态表示主语是动作的承受者。 法则一&#xff1a;一山不容二虎原则&#xff08;主伴doing&#xff0c;被伴ed&#xff09; 详解&#xff1a; 【一句话中不能同时出现两个动词&#xff0c;除…

leetcode刷题(javaScript)——堆相关场景题总结

堆是什么&#xff1f;堆都能用树表示&#xff0c;并且一般树的实现都是利用链表。平时使用的最多的是二叉堆&#xff0c;它可以用完全二叉树表示&#xff0c;二叉堆易于存储&#xff0c;并且便于索引。在堆的实现时注意&#xff1a;因为是数组&#xff0c;所以父子节点的关系就…

3 种方法限制 K8s Pod 磁盘容量使用

容器在运行期间会产生临时文件、日志。如果没有任何配额机制&#xff0c;则某些容器可能很快将磁盘写满&#xff0c;影响宿主机内核和所有应用。 容器的临时存储&#xff0c;例如 emptyDir&#xff0c;位于目录/var/lib/kubelet/pods 下&#xff1a; /var/lib/kubelet/pods/ …

学生时期学习资源同步-1 第一学期结业考试题6

原创作者&#xff1a;田超凡&#xff08;程序员田宝宝&#xff09; 版权所有&#xff0c;引用请注明原作者&#xff0c;严禁复制转载

C语言之文件操作(万字详解)

个人主页&#xff08;找往期文章包括但不限于本期文章中不懂的知识点&#xff09;&#xff1a; 我要学编程(ಥ_ಥ)-CSDN博客 目录 前言 文件的打开和关闭 流和标准流 文件指针 文件的打开和关闭 文件的顺序读写 顺序读写函数介绍 fputc的使用 fgetc的使用 fput…

伪类和伪元素?

CSS 中的伪类和伪元素是两个不同的概念&#xff0c;它们都可以用来为元素添加一些特殊的样式或效果。 伪类&#xff08;Pseudo-classes&#xff09;&#xff1a; 伪类是 CSS 中用于选择元素在特定状态下的关键字&#xff0c;常见的伪类有 :hover、:active、:focus、:checked 等…

轮趣 IMU N100 九轴 IMU 在 ROS 下安装驱动

本篇介绍如何在ROS环境中使用 WHEELTEC N100 惯导模块。 轮趣 IMU N100 的 ROS 驱动程序下载链接&#xff1a;轮趣 IMU 资料 - 坚果云 - 云盘|网盘|企业网盘|同步|备份|无限空间|免费网络硬盘|企业云盘 1、CP2102 固定串口号 1.1 、修改串口号 在 Windows 中需要把 WHEELTE…

【话题】人工智能迷惑行为大赏

随着ChatGPT热度的攀升&#xff0c;越来越多的公司也相继推出了自己的AI大模型&#xff0c;如文心一言、通义千问等。各大应用也开始内置AI玩法&#xff0c;如抖音的AI特效&#xff5e;在使用过程中往往会遇到一些问题&#xff0c;让你不得不怀疑&#xff0c;这真的是人工智能吗…

nslookup和dig命令的使用方法以及区别

nslookup和dig是两个在DNS查询中常用的命令工具&#xff0c;它们的使用方法有所不同。 nslookup命令的使用方法如下&#xff1a; 1.正向解析&#xff1a;直接输入 nslookup 域名&#xff0c;例如 nslookup www.baidu.com&#xff0c;即可查询指定域名的IP地址。 2.查询域名制定…