种系进化树分析和构建工具R工具包S.phyloMaker的介绍和详细使用方法

S.PhyloMaker介绍

先看文章:updated megaphylogeny of plants, a tool for generating plant phylogenies and an analysis of phylogenetic community structure | Journal of Plant Ecology | Oxford Academic

再看仓库:GitHub - jinyizju/S.PhyloMaker: This repository contains the R codes and relevant data for performing the S.PhyloMaker function.

S.PhyloMaker是一款用于生物系统学研究的软件工具,主要用于构建和分析种系发生树(也称为进化树)。以下是对S.PhyloMaker的详细介绍:

  1. 功能特性:

    • 数据导入:S.PhyloMaker支持多种格式的分子序列数据导入,包括FASTA、PHYLIP、NEXUS等。
    • 序列 alignment:软件内置了多种序列比对算法,可以帮助用户对输入的分子序列进行比对。
    • 树构建:支持多种种系发生树构建方法,如最大似然法(Maximum Likelihood)、贝叶斯推理法(Bayesian Inference)、邻接法(Neighbor-Joining)和最大简约法(Minimum Evolution)等。
    • 树优化:通过搜索最优树形结构和参数组合,优化种系发生树。
    • 树解析:提供了一系列工具用于解析和可视化种系发生树,包括树的修剪、重新根定、分支长度调整、拓扑测试等。
    • 分析功能:可以进行物种多样性分析、系统发育信号检测、选择压力分析等进化学分析。
  2. 用户界面:

    • S.PhyloMaker的用户界面设计直观易用,提供了图形化的工作流程,使得用户可以轻松地完成从数据导入到结果分析的全过程。
  3. 系统要求:

    • S.PhyloMaker是一款跨平台的软件,可以在Windows、Mac OS和Linux操作系统上运行。
    • 对硬件的要求取决于数据集的大小和复杂性,一般来说,需要足够的内存和处理器性能来处理大规模的数据和复杂的计算任务。
  4. 应用领域:

    • S.PhyloMaker在生物系统学、分子进化、微生物组学、群体遗传学等多个领域中有广泛的应用。

S.PhyloMaker使用步骤

S.PhyloMaker的使用步骤和一些常用命令的介绍:

安装S.PhyloMaker包:

         install.packages("S.PhyloMaker")

加载S.PhyloMaker包:

         library(S.PhyloMaker)创建物种分支(phylogenies):

        a. 从NCBI进行下载: download.ncbi()

        b. 使用自定义数据创建: create.phylo(file, format)

读取物种分支:

         a. 从NCBI下载的phylo文件: read.ncbi(file)

        b. 从指定文件中读取phylo文件: read.phylo(file, format)

转换物种分支的格式:

        a. 转换至ape包的phylo对象格式: to.ape(file)

        b. 转换至phylotools包的phylo4d对象格式: to.phylo4d(file)

物种分支的可视化:

        a. 绘制物种分支树状图: plot.phylo(file)

        b. 绘制分支颜色标签(branch color): plot.phylo(file, color)

物种分支的编辑和处理:

        a. 删除物种分支: prune.phylo(file, species)

        b. 裁剪物种分支的范围: crop.phylo(file, start, end)

        c. 在物种分支上添加标签: label.phylo(file, labels)

        d. 提取物种分支的信息: extract.phylo(file, column)

物种分支数据的导出:

        a. 导出为NEXUS格式: export.nexus(file, output)

        b. 导出为Newick格式: export.newick(file, output)

具体使用方法

S.PhyloMaker是一个用于处理系统发育数据的R工具包。它可以从原始数据中创建系统发育树,并进行一系列的数据处理和可视化操作。下面是使用步骤和常用命令的介绍:

步骤:

  1. 安装R:首先需要安装R语言环境,可以从R官方网站(https://www.r-project.org/)下载对应系统的安装包进行安装。

  2. 安装S.PhyloMaker:打开R控制台,在命令行中输入以下命令来安装S.PhyloMaker包:

install.packages("S.PhyloMaker")
  1. 加载S.PhyloMaker包:在R控制台中输入以下命令来加载S.PhyloMaker包:
library(S.PhyloMaker)
  1. 创建系统发育树:
  • 使用原始数据创建系统发育树:
tree <- phylo_maker(data = mydata, type = "raw")

这里,mydata是原始数据,type参数指定数据类型为"raw"。

  • 从已有的系统发育树文件创建系统发育树:
tree <- phylo_maker(data = "tree_file.nwk", type = "tree")

这里,tree_file.nwk是已有的系统发育树文件路径,type参数指定数据类型为"tree"。

  1. 数据处理和分析:
  • 提取叶子节点和内部节点:
leaves <- get_leaves(tree)
nodes <- get_nodes(tree)
  • 计算节点的度:
degree <- get_degree(tree)
  • 计算节点的高度:
height <- get_height(tree)
  • 计算节点的深度:
depth <- get_depth(tree)
  • 进行系统发育相关的分析:
phylotools_analysis(tree)
  1. 数据可视化:
  • 绘制系统发育树:
plot_tree(tree)
  • 绘制节点度的分布图:
plot_degree(tree)
  • 绘制节点高度的分布图:
plot_height(tree)

 github使用示例

library("phytools") # load the "phytools" package.
example<-read.csv("example.splist.csv",header=T) # read in the example species list.
phylo<-read.tree("PhytoPhylo.tre") # read in the megaphylogeny.
nodes<-read.csv("nodes.csv",header=T) # read in the nodes information of the megaphylogeny.
result<-S.PhyloMaker(spList=example, tree=phylo, nodes=nodes) # run the function S.PhyloMaker.
str(result) # the structure of the ouput of S.PhyloMaker.
par(mfrow=c(1,3),mar=c(0,0,1,0)) # show the phylogenies of the three scenarios.
plot(result$Scenario.1,cex=1.1,main="Scenarion One")
plot(result$Scenario.2,cex=1.1,main="Scenarion Two")
plot(result$Scenario.3,cex=1.1,main="Scenarion Three")

S.PhyloMaker完成分析脚本(有动手能力的可以改改):

S.PhyloMaker<-function (tree, spList, nodes, output.spList = T, scenarios = c("S1", "S2", "S3")) 
{options(scipen=999)tree0 <- treespList[sapply(spList, is.factor)] <- lapply(spList[sapply(spList, is.factor)], as.character)if (any(duplicated(spList$species))) {warning("Duplicated species detected and removed.")print(spList$species[duplicated(spList$species)])}spList <- spList[!duplicated(spList$species), ]spList.original <- spListspList$species <- gsub(" ", "_", spList$species)spList$species <- gsub("(^[[:alpha:]])", "\\U\\1", spList$species, perl = TRUE)spList$genus <- gsub("(^[[:alpha:]])", "\\U\\1", spList$genus, perl = TRUE)spList$family <- gsub("(^[[:alpha:]])", "\\U\\1", spList$family, perl = TRUE)rnN <- data.frame(node.label = paste("N", 1:length(tree$node.label), sep = ""), oriN = tree$node.label, stringsAsFactors = FALSE)nodes[,c("level","family","genus","rn","bn","taxa")]<-lapply(nodes[,c("level","family","genus","rn","bn","taxa")], as.character)tree$node.label <- paste("N", 1:length(tree$node.label), sep = "")kk<-c()for (i in 1:length(tree$tip.label)) {kk<-c(kk,substring(tree$tip.label[i],1,gregexpr("_",tree$tip.label[i])[[1]][1]-1))}m<-data.frame(num=1:length(kk),genus=kk,species=tree$tip.label)m<-merge(m,nodes[,c("genus","family")])mX <- mm <- m[,c("genus","family")]m <- m[!duplicated(m$genus),]dimnames(m)[[2]][2] <- "family_in_PhytoPhylo"m<-m[,c("genus","family_in_PhytoPhylo")]m0 <- spList[!duplicated(spList$genus), c("genus","family")]dimnames(m0)[[2]][2] <- "family_in_spList"mm<-merge(m0, m)g<-mm[which(is.na(match(paste(mm$genus,mm$family_in_spList,sep="_"),paste(mm$genus,mm$family_in_PhytoPhylo,sep="_")))),]if (dim(g)[1]>0){print("Taxonomic classification not consistent between spList and PhytoPhylo.")print(g) }add.tip <- spList[which(is.na(match(spList$species, tree$tip.label))), ]status <- rep("match(prune)", dim(spList)[1])status[which(is.na(match(spList$species, tree$tip.label)))] <- "match(add)"if (dim(add.tip)[1] == 0 & length(na.omit(match(spList$species, tree$tip.label))) == 0)stop("Incorrect format of species list.")if (length(setdiff(spList$species, tree0$tip.label)) == 0 & length(na.omit(match(spList$species, tree$tip.label))) > 0){print("There is no species needs to be added, all the species are pruned from PhytoPhylo.")splis <- spList.originaltreeX <- drop.tip(tree0, setdiff(tree0$tip.label, splis$species))splis$status <- "match(prune)"phylo0 <- list(Scenario.1 = NULL, Scenario.2 = NULL, Scenario.3 = NULL, Species.list = splis)if ("S1" %in% scenarios) {phylo0$Scenario.1 <- treeX}if ("S2" %in% scenarios) {phylo0$Scenario.2 <- treeX}if ("S3" %in% scenarios) {phylo0$Scenario.3 <- treeX}phylo0[sapply(phylo0, is.null)] <- NULLreturn(phylo0)stop()}add.tip$sort <- ""add.tip$sort[which(!is.na(match(add.tip$genus, nodes[nodes$level == "G", ]$genus)))] <- "G1"add.tip$sort[which(is.na(match(add.tip$genus, nodes[nodes$level == "G", ]$genus)) & !is.na(match(add.tip$family, nodes[nodes$level == "F", ]$family)))] <- "F1"add.tip$sort[add.tip$sort == "F1"][duplicated(add.tip[add.tip$sort == "F1", ]$genus)] <- "F2"a <- which(add.tip$sort == "")if (length(a) > 0){  print(paste("Note:", length(a), "taxa unmatch:",sep=" "))print(add.tip$species[a])status[match(add.tip$species[a], spList$species)] <- "unmatch"         }  spList.original$status <- statusif ("S1" %in% scenarios) {t1 <- treernN1<-rnNnG <- nodes[nodes$level == "G", ]nF <- nodes[nodes$level == "F", ]data <- add.tip[add.tip$sort == "F1", ]if (dim(data)[1] > 0) {for (i in 1:dim(data)[1]) {n <- match(data$family[i], nF$family)g <- nF$gen.n[n]s <- nF$sp.n[n]if (g == 1 & s == 1) {                                                                          num <- grep(nF$taxa[n], t1$tip.label)len <- t1$edge.length[match(num, t1$edge[, 2])]t1 <- bind.tip(t1, tip.label = data$species[i], edge.length = len, where = num, position = len)nF$gen.n[n] <- g + 1nF$sp.n[n] <- s + 1num <- grep(nF$taxa[n], t1$tip.label)t1$node.label[match(t1$edge[match(num, t1$edge[, 2]), 1], unique(t1$edge[, 1]))] <- paste("NN", t1$Nnode + 1, sep = "")rnN1$node.label[match(nF$bn[n], rnN1$node.label)]<- paste("NN", t1$Nnode + 1, sep = "")nF$bn[n] <- paste("NN", t1$Nnode + 1, sep = "")nF$bn.bl[n] <- len}             else {num <- unique(t1$edge[, 1])[match(nF$bn[n], t1$node.label)]len <- nF$bn.bl[n]t1 <- bind.tip(t1, tip.label = data$species[i], edge.length = len, where = num)}}}data <- add.tip[add.tip$sort != "F1", ]if (dim(data)[1] > 0) {for (i in 1:dim(data)[1]) {n <- grep(paste(data$genus[i], "_", sep = ""), t1$tip.label)if (length(n) == 1) {num <- nlen <- t1$edge.length[match(num, t1$edge[, 2])]t1 <- bind.tip(t1, tip.label = data$species[i], edge.length = len, where = num, position = len)}if (length(n) > 1) {num <- fastMRCA(t1, t1$tip.label[min(n)], t1$tip.label[max(n)])len <- fastDist(t1, t1$tip.label[min(n)], t1$tip.label[max(n)])/2t1 <- bind.tip(t1, tip.label = data$species[i], edge.length = len, where = num)}   }}toDrop <- setdiff(1:length(t1$tip.label), which(!is.na(match(t1$tip.label, spList$species))))t1 <- drop.tip(t1, tip = toDrop)Re <- which(!is.na(match(t1$node.label, rnN1$node.label)))noRe <- which(is.na(match(t1$node.label, rnN1$node.label)))t1$node.label[Re] <- rnN1$oriN[match(t1$node.label, rnN1$node.label)[Re]]t1$node.label[noRe] <- ""}else {t1 <- NULL}if ("S2" %in% scenarios) {t2 <- treernN2<-rnNnG <- nodes[nodes$level == "G", ]nF <- nodes[nodes$level == "F", ]data <- add.tip[add.tip$sort == "F1", ]if (dim(data)[1] > 0) {for (i in 1:dim(data)[1]) {n <- match(data$family[i], nF$family)g <- nF$gen.n[n]s <- nF$sp.n[n]if (g == 1 & s == 1) {num <- grep(nF$taxa[n], t2$tip.label)len <- t2$edge.length[match(num, t2$edge[,2])] * sample((1:99)/100,1)t2 <- bind.tip(t2, tip.label = data$species[i], edge.length = len, where = num, position = len)    nF$gen.n[n] <- g + 1nF$sp.n[n] <- s + 1num <- grep(data$species[i], t2$tip.label)t2$node.label[match(t2$edge[match(num, t2$edge[, 2]), 1], unique(t2$edge[,1]))] <- paste("NN", t2$Nnode + 1, sep = "")rnN2$node.label[match(nF$bn[n], rnN2$node.label)]<- paste("NN", t2$Nnode + 1, sep = "")nF$bn[n] <- paste("NN", t2$Nnode + 1, sep = "")nF$bn.bl[n] <- len}else {num <- unique(t2$edge[, 1])[match(nF$bn[n], t2$node.label)]len <- t2$edge.length[match(num,t2$edge[,2])] * sample((1:99)/100,1)t2 <- bind.tip(t2, tip.label = data$species[i], edge.length = len, where = num, position = len)nF$gen.n[n] <- g + 1nF$sp.n[n] <- s + 1num <- grep(data$species[i], t2$tip.label)t2$node.label[match(t2$edge[match(num, t2$edge[, 2]), 1], unique(t2$edge[, 1]))] <- paste("NN", t2$Nnode + 1, sep = "")rnN2$node.label[match(nF$bn[n], rnN2$node.label)]<- paste("NN", t2$Nnode + 1, sep = "")nF$bn[n] <- paste("NN", t2$Nnode + 1, sep = "")nF$bn.bl[n] <- nF$bn.bl[n]+len}}}data <- add.tip[add.tip$sort != "F1", ]if (dim(data)[1] > 0) {for (i in 1:dim(data)[1]) {n <- grep(paste(data$genus[i], "_", sep = ""), t2$tip.label)if (length(n) == 1) {num <- nlen <- t2$edge.length[match(num, t2$edge[, 2])] * sample((1:99)/100,1)t2 <- bind.tip(t2, tip.label = data$species[i], edge.length = len, where = num, position = len)}if (length(n) > 1) {num <- sample(n,1)len <- t2$edge.length[match(num, t2$edge[, 2])] * sample((1:99)/100,1)t2 <- bind.tip(t2, tip.label = data$species[i], edge.length = len, where = num, position = len)}   }}toDrop <- setdiff(1:length(t2$tip.label), which(!is.na(match(t2$tip.label, spList$species))))t2 <- drop.tip(t2, tip = toDrop)Re <- which(!is.na(match(t2$node.label, rnN2$node.label)))noRe <- which(is.na(match(t2$node.label, rnN2$node.label)))t2$node.label[Re] <- rnN2$oriN[match(t2$node.label, rnN2$node.label)[Re]]t2$node.label[noRe] <- ""}else {t2 <- NULL}if ("S3" %in% scenarios) {t3 <- treernN3<-rnNnG <- nodes[nodes$level == "G", ]nF <- nodes[nodes$level == "F", ]data <- add.tip[add.tip$sort == "F1", ]if (dim(data)[1] > 0) {for (i in 1:dim(data)[1]) {n <- match(data$family[i], nF$family)g <- nF$gen.n[n]s <- nF$sp.n[n]if (g == 1 & s == 1) {                                                                          num <- grep(nF$taxa[n], t3$tip.label)len <- t3$edge.length[match(num, t3$edge[, 2])] * (2/3)t3 <- bind.tip(t3, tip.label = data$species[i], edge.length = len, where = num, position = len)nF$gen.n[n] <- g + 1nF$sp.n[n] <- s + 1num <- grep(nF$taxa[n], t3$tip.label)t3$node.label[match(t3$edge[match(num, t3$edge[, 2]), 1], unique(t3$edge[, 1]))] <- paste("NN", t3$Nnode + 1, sep = "")rnN3$node.label[match(nF$bn[n], rnN3$node.label)]<- paste("NN", t3$Nnode + 1, sep = "")nF$bn[n] <- paste("NN", t3$Nnode + 1, sep = "")nF$bn.bl[n] <- len}if (g == 1 & s > 1) {num <- unique(t3$edge[, 1])[match(nF$bn[n], t3$node.label)]if ((2/3)*nF$rn.bl[n] <= nF$bn.bl[n])  { len <-(nF$rn.bl[n]-nF$bn.bl[n])/2 }if ((2/3)*nF$rn.bl[n] > nF$bn.bl[n])   { len <-nF$rn.bl[n]*2/3-nF$bn.bl[n] }t3 <- bind.tip(t3, tip.label = data$species[i], edge.length = len, where = num, position = len)nF$gen.n[n] <- g + 1nF$sp.n[n] <- s + 1num <- unique(t3$edge[, 1])[match(nF$bn[n], t3$node.label)]t3$node.label[match(t3$edge[match(num, t3$edge[, 2]), 1], unique(t3$edge[, 1]))] <- paste("NN", t3$Nnode + 1, sep = "")rnN3$node.label[match(nF$bn[n], rnN3$node.label)]<- paste("NN", t3$Nnode + 1, sep = "")nF$bn[n] <- paste("NN", t3$Nnode + 1, sep = "")nF$bn.bl[n] <- len+nF$bn.bl[n]}if (g > 1) {num <- unique(t3$edge[, 1])[match(nF$bn[n], t3$node.label)]len <- nF$bn.bl[n]t3 <- bind.tip(t3, tip.label = data$species[i], edge.length = len, where = num)}}}data <- add.tip[add.tip$sort != "F1", ]if (dim(data)[1] > 0) {for (i in 1:dim(data)[1]) {n <- grep(paste(data$genus[i], "_", sep = ""), t3$tip.label)if (length(n) == 1) {len <- t3$edge.length[match(n, t3$edge[, 2])]/2t3 <- bind.tip(t3, tip.label = data$species[i], edge.length = len, where = n, position = len)nG$sp.n[match(data$genus[i], nG$genus)] <- length(n) + 1nu <- grep(paste(data$genus[i], "_", sep = ""), t3$tip.label)num <- fastMRCA(t3, t3$tip.label[nu[1]], t3$tip.label[nu[2]])t3$node.label[match(num, unique(t3$edge[, 1]))] <- paste("NN", t3$Nnode + 1,  sep = "")rnN3$node.label[match(nG$bn[n], rnN3$node.label)]<- paste("NN", t3$Nnode + 1, sep = "")nG$bn[match(data$genus[i], nG$genus)] <- paste("NN", t3$Nnode + 1, sep = "")nG$bn.bl[match(data$genus[i], nG$genus)] <- len}if (length(n) > 1) {num <- fastMRCA(t3, t3$tip.label[min(n)], t3$tip.label[max(n)])len <- as.numeric(branching.times(t3))[match(num, unique(t3$edge[, 1]))]t3 <- bind.tip(t3, tip.label = data$species[i], edge.length = len, where = num)}}}toDrop <- setdiff(1:length(t3$tip.label), which(!is.na(match(t3$tip.label, spList$species))))t3 <- drop.tip(t3, tip = toDrop)Re <- which(!is.na(match(t3$node.label, rnN3$node.label)))noRe <- which(is.na(match(t3$node.label, rnN3$node.label)))t3$node.label[Re] <- rnN3$oriN[match(t3$node.label, rnN3$node.label)[Re]]t3$node.label[noRe] <- ""}else {t3 <- NULL}if (output.spList == FALSE) spList <- NULLphylo <- list(Scenario.1 = t1, Scenario.2 = t2, Scenario.3 = t3, Species.list = spList.original)phylo[sapply(phylo, is.null)] <- NULLreturn(phylo)
}

相关阅读:

生物系统学中的进化树构建和分析R工具包V.PhyloMaker2的介绍和详细使用-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/241451.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【数据结构入门精讲 | 第十五篇】散列表知识点及考研408、企业面试练习(2)

在上一篇文章中我们学习了散列表的相关知识点及进行了选择题、编程题的练习&#xff0c;这篇文章中我们将进行编程题的练习&#xff0c;带领读者以练代学、更好地掌握知识点。 目录 R7-1 QQ帐户的申请与登陆R7-2 词频统计R7-3 新浪微博热门话题R7-4 航空公司VIP客户查询R7-1 字…

九大GRASP类和设计模式

面向对象设计原则是一组指导软件设计的原则&#xff0c;其中GRASP&#xff08;General Responsibility Assignment Software Patterns&#xff09;是其中的一部分。这些原则帮助设计者确定类应该负责执行哪些职责&#xff0c;以及如何分配这些职责。在下面的文档中&#xff0c;…

leetcode 30. 串联所有单词的子串

题目链接&#xff1a;leetcode 30 1.题目 给定一个字符串 s 和一个字符串数组 words。 words 中所有字符串 长度相同。 s 中的 串联子串 是指一个包含 words 中所有字符串以任意顺序排列连接起来的子串。 例如&#xff0c;如果 words [“ab”,“cd”,“ef”]&#xff0c; …

PyTorch之线性回归

1.定义&#xff1a; 回归分析是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。线性回归是利用称为线性回归方程的最小二乘函数&#xff0c;对一个或多个自变量和因变量之间关系&#xff0c;进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参…

LeetCode——1962. 移除石子使总数最小

通过万岁&#xff01;&#xff01;&#xff01; 题目&#xff1a;给你一个数组。数组中的元素表示石子的个数&#xff0c;我们可以从里面移除一些元素&#xff0c;溢出的规则是第i位置的元素除2后向下取整。并且可以移除k次&#xff0c;要求最后的石子总个数最小。思路一&…

生成allure报告出现:ALLURE REPORT UNKNOWN

问题&#xff1a;点击浏览器查看时无法查看到报告 错误代码&#xff1a; if __name__ "__main__":pytest.main([./test_study/test_fixture.py])os.system("allure generate ./temps -o ./temps --clean") 结果导向&#xff1a; 解决&#xff1a;因为…

Hadoop入门学习笔记——四、MapReduce的框架配置和YARN的部署

视频课程地址&#xff1a;https://www.bilibili.com/video/BV1WY4y197g7 课程资料链接&#xff1a;https://pan.baidu.com/s/15KpnWeKpvExpKmOC8xjmtQ?pwd5ay8 Hadoop入门学习笔记&#xff08;汇总&#xff09; 目录 四、MapReduce的框架配置和YARN的部署4.1. 配置MapReduce…

动态规划03-01背包问题

问题描述 作为动态规划中最重要的经典例题&#xff0c;01背包问题开启了我们学习二维dp数组的道路。 题目如下&#xff1a; 有一个容量为V的背包&#xff0c;还有n个物体。现在忽略物体实际几何形状&#xff0c;我们认为只要背包的剩余容量大于等于物体体积&#xff0c;那就可…

缓存高可用:缓存如何保证高可用?

前面我们提到了缓存集群的负载均衡策略&#xff0c;保证缓存服务的高可用&#xff0c;集群策略是最常用的&#xff0c;本文我们以 Redis 为例&#xff0c;分析一下单点缓存如何扩展到集群&#xff0c;以及集群部署的几种常见模式。 Redis 的主从复制 集群实现依靠副本&#x…

爬虫字典生成工具,CeWL使用教程

爬虫字典生成工具,CeWL使用教程 1.工具概述2.参数解析3.使用实例1.工具概述 CeWL 是一个 ruby 应用程序,它将给定的 URL 爬到指定的深度,可以选择跟随外部链接,并返回一个单词列表,然后可用于密码破解者 Cewl 是黑客武器库中的强大工具,因为它允许创建有针对性的单词列…

如何在Spring Boot中优雅地进行参数校验

1. 前言 在平时的开发工作中&#xff0c;我们通常需要对接口进行参数格式验证。当参数个数较少&#xff08;个数小于3&#xff09;时&#xff0c;可以使用if ... else ...手动进行参数验证。当参数个数大于3个时&#xff0c;使用if ... else ...进行参数验证就会让代码显得臃肿…

使用 Spring Boot + MyBatis开发需要注意的事项以及开发模版

前言&#xff1a; 注意&#xff0c;本篇不适用于有相关开发经验的开发者&#xff0c;作为一个在职开发者&#xff0c;我经常在完成从0-1的模块&#xff0c;也就是从数据库表开始到创建实体类&#xff0c;以及dao层&#xff0c;Service层等业务需要添加相关注解&#xff0c;这样…

pytorch常用的几个函数详解

view view() 是 PyTorch 中的一个常用函数&#xff0c;用于改变张量&#xff08;tensor&#xff09;的形状。在深度学习中&#xff0c;我们经常需要调整数据的形状以适应不同的网络结构或计算需求&#xff0c;view() 函数就是用来完成这个任务的。 基本用法 view() 函数接受…

nn.LSTM个人记录

简介 nn.LSTM参数 torch.nn.lstm(input_size, "输入的嵌入向量维度&#xff0c;例如每个单词用50维向量表示&#xff0c;input_size就是50"hidden_size, "隐藏层节点数量,也是输出的嵌入向量维度"num_layers, "lstm 隐层的层数&#xff0c;默认…

Python---静态Web服务器-多任务版

1. 静态Web服务器的问题 目前的Web服务器&#xff0c;不能支持多用户同时访问&#xff0c;只能一个一个的处理客户端的请求&#xff0c;那么如何开发多任务版的web服务器同时处理 多个客户端的请求? 可以使用多线程&#xff0c;比进程更加节省内存资源。 多任务版web服务器…

计算机网络——网络层(四)

前言&#xff1a; 前面我们已经对物理层和数据链路层有了一个简单的认识与了解&#xff0c;现在我们需要对数据链路层再往上的一个层&#xff0c;网络层进行一个简单的学习与认识&#xff0c;网络层有着极其重要的作用&#xff0c;让我们对网络层进行一个简单的认识与学习吧 目…

Ubuntu:VS Code上C++的环境配置

使用 VSCode 开发 C/C 程序 , 涉及到 工作区的.vscode文件夹下的3个配置文件&#xff08;均可以手动创建&#xff09; : ① tasks.json : 编译器构建 配置文件 ; ② launch.json : 调试器设置 配置文件 ; ③ c_cpp_properties.json : 编译器路径和智能代码提示 配置文件 ; …

神经网络:机器学习基础

【一】什么是模型的偏差和方差&#xff1f; 误差&#xff08;Error&#xff09; 偏差&#xff08;Bias&#xff09; 方差&#xff08;Variance&#xff09; 噪声&#xff08;Noise&#xff09;&#xff0c;一般地&#xff0c;我们把机器学习模型的预测输出与样本的真实label…

详解FreeRTOS:专栏总述

目录 1、理论篇 2、基础篇 3、进阶篇 4、高级篇 5、拓展篇 本专栏基于FreeRTOS底层源码介绍了嵌入式实时操作系统的概念&#xff0c;FreeRTOS任务创建、任务调度、任务同步与消息传递&#xff0c;软件定时器、事件通知等知识。 主要分为5方面内容&#xff1a;理论篇、基础…