云上配置Hadoop环境

Hadoop概述

Hadoop技术主要是由下面这三个组件组合而成的:
在这里插入图片描述
HDFS是一个典型的主从模式架构。

在这里插入图片描述

HDFS的基础架构

在这里插入图片描述
在这里插入图片描述

HDFS的集群搭建

一点准备工作

其实这一块没啥内容,就是将Hadoop官网下载下来的Hadoop的tar包上传到我们服务器上的文件目录下:
在这里插入图片描述
这里可以使用随便的文件传输工具,我使用与xshell配套的xftp:
在这里插入图片描述
使用下面的命令解压该tar包:
在这里插入图片描述
解压完成:
在这里插入图片描述
在这里插入图片描述
然后为该程序建立一个软链接:
在这里插入图片描述
在这里插入图片描述
进入hadoop程序的文件夹中进行浅浅地查看:
在这里插入图片描述
在Hadoop中,不同的文件夹具有特定的含义和功能。以下是一些Hadoop文件夹各个文件目录的含义:

bin目录:存放对Hadoop相关服务(如HDFS和YARN)进行操作的脚本。这些脚本提供了用户与Hadoop服务交互的接口,用于执行各种操作,如创建文件夹、设置权限等。

etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件。这些配置文件决定了Hadoop集群的行为和性能,包括HDFS和MapReduce的配置文件,如core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml等。

include:C语言相关的一些头文件。

lib:存放Linux系统的一些动态链接库(.so文件)。

libexec:存放配置Hadoop系统的脚本文件(.sh和.cmd)

sbin目录:管理员程序,(super-bin)存放启动或停止Hadoop相关服务的脚本。这些脚本允许用户方便地控制Hadoop服务的运行和停止。

license相关:存放许可证文件相关的文件。

share目录:存放Hadoop的依赖Java jar包和文档。这些jar包包含了Hadoop运行所需的各种库和模块,而文档则提供了有关Hadoop的使用和配置的详细信息。

至此,Hadoop的安装已经完毕,原料已经准备好了,准备做菜!

配置Hadoop中的HDFS文件集群

主要是进行一些文件的配置,配置下面四个文件:

1、workers:配置从节点(DataNode)有哪些
2、hadoop-env.sh:配置Hadoop的相关环境变量
3、core-site.xml:Hadoop核心配置文件
4、hdfs-site.xml:HDFS核心配置文件

这些文件均存在于$HADOOP_HOME/etc/hadoop文件夹中。

$HADOOP_HOME是我们后续要设置的环境变量,其指代Hadoop安装文件夹即/hadoop_server/hadoop。

配置环境变量主要有下面几个作用:

方便程序的运行:通过配置环境变量,我们可以指定程序运行时的路径。这样,程序在运行时就能快速找到所需的文件或资源,从而提高程序的运行效率。例如,配置了Java的环境变量后,我们就可以在任意位置执行Java程序,而不需要每次都指定Java的安装路径。

简化命令输入:环境变量可以存储一些常用的命令或路径,这样我们在命令行中就不需要每次都输入完整的命令或路径。通过配置环境变量,我们可以简化命令的输入,提高操作效率。

保持系统整洁:通过配置环境变量,我们可以将一些常用的工具或库的路径添加到系统中,而不需要将这些工具或库直接放在系统的根目录下。这样,可以保持系统的整洁和有序。

配置workers文件

进入配置文件目录:
在这里插入图片描述
使用vim编辑该文件目录下面的workers文件:
在这里插入图片描述
这里面一开始是默认的Hadoop配置,即默认的从节点localhost,因为俺只有一台服务器,因此这里就默认本地一台就可以:
在这里插入图片描述
如果你有很多台,那就可以把这行删了写上你所有从节点机器上的ip地址:
在这里插入图片描述

Ubuntu下jdk的安装

在进行下面的操作时这里有一个小插曲,我们还有一件事没做,就是配置JDK,因为Hadoop毕竟主要是用Java写的嘛,在Hadoop的文件目录中我刚刚也说了有很多相关Java的jar包需要运行,因此必须要jdk提供运行时环境,但是到这里的时候我发现我的系统重装过,Java环境没了,那这里就再补充一下安装jdk吧…

其实很简单,就一句命令即可:
在这里插入图片描述
我这里装的是open jdk,也就是开源版本的jdk,版本号为非常经典的Java 8,如果你要装高级一点的,要注意修改上面命令中的版本号。
在这里插入图片描述
出现上图就是安装完成了,Ubuntu系统会自动安装在下面的目录位置:
在这里插入图片描述

还有最重要的一步,配置环境变量:

打开~/.bashrc文件
在这里插入图片描述
打开后的样子是下面这样的,已经存在的是系统的环境变量:
在这里插入图片描述

找块空白的位置,输入下面的配置信息:
在这里插入图片描述
保存离开,然后重新source一下该文件以让其生效:
在这里插入图片描述
最后输入java -version命令查看是否成功配置:
在这里插入图片描述
输入javac查看是否成功:
在这里插入图片描述
至此,Java环境配置完毕。

配置hadoop-env.sh文件

同样是在该文件目录下,打开文件hadoop-env.sh:
在这里插入图片描述
这里主要做两件事情,配置Hadoop程序的位置、Java jdk的位置、hadoop配置文件位置以及hadoop运行日志文件的位置,这些是比较基本的配置:
在这里插入图片描述

保存离开。

配置core-site.xml文件

同样是在当前文件目录位置下,打开该文件:
在这里插入图片描述
填入我们节点的坐标信息:
在这里插入图片描述

上面配置文件的含义如下:

key:fs.defaultFS
含义:HDFS文件系统的网络通讯路径
值:hdfs://localhost:8020
– 协议为hdfs://
– namenode为localhost
– namenode通讯端口为8020

key:io.file.buffer.size
含义:io操作文件缓冲区大小
值:131072 bit

hdfs://localhost:8020为整个HDFS内部的通讯地址,应用协议为hdfs://(Hadoop内置协议)。

表明DataNode将和localhost的8020端口通讯,localhost是NameNode所在机器。

此配置固定了localhost必须启动NameNode进程。

配置hdfs-site.xml文件

同样是在当前文件目录下,打开该文件:
在这里插入图片描述

写入下面的内容:
在这里插入图片描述
在这里插入图片描述

写完后保存退出即可。

善后的一点内容

创建数据存储的目录

因为刚刚提过,hdfs文件系统的数据存放位置我们是配置了的,但是还并没有创建,因此我们要创建好些配置好的文件目录:

按照上面说的:
namenode数据存放在localhost的/data/nn目录下;
datanode数据存放在localhost的/data/dn目录下。

创建这两个文件目录:

在这里插入图片描述

上面命令中的-p命令选项意味着如果父目录不存在,那么 mkdir 会先创建它们。也就是说,如果 /data 这个目录不存在,mkdir -p /data/dn 会首先创建 /data,然后在 /data 下创建 nn。

配置一下Hadoop的环境变量

这是为了方便我们操作Hadoop,可以将Hadoop的一些脚本、程序配置到PATH中,方便后续的使用。

之前提过,在Hadoop文件夹中的bin、sbin两个文件夹内有许多的脚本和程序,现在来配置一下环境变量。

注意有两个位置都可以配置环境变量,一个是之前提过的~/.bashrc,另一个是/etc/profile,/etc/profile和~/.bashrc在Linux系统中都是配置文件,但二者区别如下:

级别与范围:

/etc/profile:这是一个系统级别的配置文件,用于设置全局的环境变量和执行系统范围的初始化命令。当登录到系统时,会首先读取/etc/profile文件来加载系统的环境变量。这个文件中的设置对所有用户都是有效的。
/.bashrc:这是一个用户级别的配置文件,位于当前用户的家目录中。它主要用于保存和加载不同用户的终端首选项和环境变量。每次用户登录时,在加载完/etc/profile后,会加载当前用户的/.bashrc文件。这个文件中的设置只对当前用户生效。

内容与用途:

/etc/profile:主要用于设置系统的环境信息,包括一些全局的环境变量。当系统首次启动或用户首次登录时,这个文件就会被执行。此外,/etc/profile还会从/etc/profile.d目录的配置文件中搜集shell的设置。
/.bashrc:主要用于定义用户的个性化设置,如别名(Aliases)、函数(functions)和环境变量等。用户可以在这里定义一些命令的别名,以简化命令的输入,提高操作效率。此外,每次修改/.bashrc后,使用source ~/.bashrc(或者. ~/.bashrc)就可以立刻加载修改后的设置,使之生效。

执行时机:

/etc/profile:在用户首次登录时执行。
~/.bashrc:每次新的bash shell被打开时执行,即每打开一个新的终端窗口,都会执行~/.bashrc。

总的来说,/etc/profile和~/.bashrc在Linux系统中都扮演着重要的角色,但它们的级别、范围、内容和执行时机都有所不同。/etc/profile更侧重于系统级别的全局设置,而~/.bashrc则更侧重于用户级别的个性化设置。

这里我依然选择在~./bashrc中配置,因为更贴合实际捏:

初始化并且启动hdfs文件服务器集群

使用如下命令:hadoop namenode -format 格式化那么namenode节点的系统环境:
在这里插入图片描述
看到上图的样子那么就证明初始化完毕。

接下来使用:start-dfs.sh 命令可以一键启动 hdfs 集群,使用 stop-dfs.sh ,命令可以一键停止 hdfs 集群,不过在启动过程中,你可能会遇到下面的错误情况:
在这里插入图片描述
办法:需要设置免密连接登录

首先运行

ssh localhost

如果还要输入密码的话,那就是你ssh没有配置好。这里要说一下的是ssh7.0之后就关闭了dsa的密码验证方式,如果你的秘钥是通过dsa生成的话,需要改用rsa来生成秘钥

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

再次运行

ssh localhost

如果不需要输入密码,说明ssh配置好了。接下来可以运行文件集群了。

输入start-dfs.sh启动hdfs集群:

在这里插入图片描述

上面这样就表示已经启动了捏,默认是后台启动的,如果要关掉需要使用上面说的另外一个命令嗷。

现在我们就可以访问所谓的Hadoop提供的一个webUI的界面:
在这里插入图片描述
我们可以在这个页面上找到我们之前在Shell中所看到的DataNode与NameNode:

在这里插入图片描述
可以看到因为我们只有一台服务器,因此只有一个数据节点。

##HDFS系统命令简介

在这里插入图片描述
如下面创建目录的命令:
在这里插入图片描述
查看命令:
在这里插入图片描述
上传命令:
在这里插入图片描述
等等,这里不再赘述,具体可以查阅别的文档。

补充一下关于SecondaryNameNode管理元数据的概念

在这里插入图片描述
在这里插入图片描述
edits记录每一次HDFS的操作,所以会逐渐变得越来越大。

所以,会存在多个edits文件确保不会有超大edits的存在以保证检索性能。

问题在于,当用户想要查看某文件内容如:/tmp/data/test.txt就需要在全部的edits中搜索(还需要按顺序从头到尾,避免后期改名或删除),效率非常低。

需要合并edits文件,得到最终的结果。
在这里插入图片描述
将全部的edits文件,合并为最终结果,即可得到一个FSImage文件。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
对于元数据的合并,还记得HDFS集群有一个辅助角色:SecondaryNameNode吗?

没错,合并元数据的事情就是它干的。

SecondaryNameNode会通过http从NameNode拉取数据(edits和fsimage)。

然后合并完成后提供给NameNode使用。

Hadoop中的MapReduce和Yarn

MapReduce

分布式计算主要有两种:
在这里插入图片描述
在这里插入图片描述

对于我们要学习的MapReduce就是这种 分散->汇总 模式。

MapReduce 即Hadoop内提供的进行分布式计算的组件。

在这里插入图片描述

import org.apache.hadoop.conf.Configuration; // 导入Hadoop的配置类  
import org.apache.hadoop.fs.Path; // 导入Hadoop的文件系统路径类  
import org.apache.hadoop.io.IntWritable; // 导入Hadoop的可写整数类  
import org.apache.hadoop.io.Text; // 导入Hadoop的可写文本类  
import org.apache.hadoop.mapreduce.Job; // 导入Hadoop的MapReduce作业类  
import org.apache.hadoop.mapreduce.Mapper; // 导入Hadoop的Mapper类  
import org.apache.hadoop.mapreduce.Reducer; // 导入Hadoop的Reducer类  
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; // 导入Hadoop的文件输入格式类  
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; // 导入Hadoop的文件输出格式类  import java.io.IOException; // 导入Java的IO异常类  
import java.util.StringTokenizer; // 导入Java的字符串分割器类  // WordCount类定义MapReduce程序  
public class WordCount {  // TokenizerMapper类继承自Hadoop的Mapper类,用于处理输入数据并输出键值对  public static class TokenizerMapper  extends Mapper<Object, Text, Text, IntWritable>{  // 定义一个可写整数对象,其值为1,用于表示每个单词的计数初始值  private final static IntWritable one = new IntWritable(1);  // 定义一个可写文本对象,用于存储单词  private Text word = new Text();  // map方法处理输入数据,并输出键值对  public void map(Object key, Text value, Context context  ) throws IOException, InterruptedException {  // 使用StringTokenizer类将输入的文本行分割成单词  StringTokenizer itr = new StringTokenizer(value.toString());  // 遍历分割得到的单词  while (itr.hasMoreTokens()) {  // 获取当前单词,并设置到word对象中  word.set(itr.nextToken());  // 输出键值对(单词,1)  context.write(word, one);  }  }  }  // IntSumReducer类继承自Hadoop的Reducer类,用于对具有相同键的值进行求和  public static class IntSumReducer  extends Reducer<Text,IntWritable,Text,IntWritable> {  // 定义一个可写整数对象,用于存储求和结果  private IntWritable result = new IntWritable();  // reduce方法接收键值对列表,并对具有相同键的值进行求和  public void reduce(Text key, Iterable<IntWritable> values,  Context context  ) throws IOException, InterruptedException {  int sum = 0;  // 遍历具有相同键的值列表  for (IntWritable val : values) {  // 累加每个值  sum += val.get();  }  // 将求和结果设置到result对象中  result.set(sum);  // 输出键值对(单词,求和结果)  context.write(key, result);  }  }  // main方法是程序的入口点  public static void main(String[] args) throws Exception {  // 创建Hadoop配置对象  Configuration conf = new Configuration();  // 创建MapReduce作业对象  Job job = Job.getInstance(conf, "word count");  // 设置作业的JAR包类  job.setJarByClass(WordCount.class);  // 设置Mapper类  job.setMapperClass(TokenizerMapper.class);  // 设置Combiner类(可选,用于在Mapper输出和Reducer输入之间减少数据传输量)  job.setCombinerClass(IntSumReducer.class);  // 设置Reducer类  job.setReducerClass(IntSumReducer.class);  // 设置输出键的类型  job.setOutputKeyClass(Text.class);  // 设置输出值的类型  job.setOutputValueClass(IntWritable.class);  // 设置输入文件路径  FileInputFormat.addInputPath(job, new Path(args[0]));  // 设置输出文件路径  FileOutputFormat.setOutputPath(job, new Path(args[1]));  // 提交作业并等待其完成,如果成功则返回0,否则返回非0值  System.exit(job.waitForCompletion(true) ? 0 : 1);  }  
}

这段代码包含了两个部分:Mapper和Reducer。Mapper将输入的文本分割成单词,并为每个单词输出一个键值对(单词,1)。Reducer接收这些键值对,并对具有相同键(即相同单词)的所有值进行求和,从而得到每个单词的频率。

Yarn

首先要注意的是,MapReduce是基于YARN运行的,即没有YARN”无法”运行MapReduce程序。

YARN 即Hadoop内提供的进行分布式资源调度的组件。

在这里插入图片描述

Yarn的架构

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
而历史服务器的功能很简单: 记录历史运行的程序的信息以及产生的日志并提供WEB UI站点供用户使用浏览器查看。

部署Yarn

首先要配置mapreduce:
在这里插入图片描述
主要就是两步,首先配置mapreduce的环境变量,即修改mapred-env.sh的文件在里面进行如下配置:
在这里插入图片描述
然后再配置一下mapred-site.xml文件,配置如下:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--Licensed under the Apache License, Version 2.0 (the "License");you may not use this file except in compliance with the License.You may obtain a copy of the License athttp://www.apache.org/licenses/LICENSE-2.0Unless required by applicable law or agreed to in writing, softwaredistributed under the License is distributed on an "AS IS" BASIS,WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.See the License for the specific language governing permissions andlimitations under the License. See accompanying LICENSE file.
--><!-- Put site-specific property overrides in this file. --><configuration><property><name>mapreduce.framework.name</name><value>yarn</value><description></description></property><property><name>mapreduce.jobhistory.address</name><value>localhost:10020</value><description></description></property><property><name>mapreduce.jobhistory.webapp.address</name><value>localhost:19888</value><description></description></property><property><name>mapreduce.jobhistory.intermediate-done-dir</name><value>/data/mr-history/tmp</value><description></description></property><property><name>mapreduce.jobhistory.done-dir</name><value>/data/mr-history/done</value><description></description></property>
<property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>
<property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>
<property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>
</configuration>

然后配置yarn:

编辑环境变量yarn-env.sh:在这里插入图片描述
配置yarn-site.xml文件:

<property>
<name>yarn.log.server.url</name>
<value>http://localhost:19888/jobhistory/logs</value>
<description/>
</property>
<property>
<name>yarn.web-proxy.address</name>
<value>localhost:8089</value>
<description>proxy server hostname and port</description>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
<description>Configuration to enable or disable log aggregation</description>
</property>
<property>
<name>yarn.nodemanager.remote-app-log-dir</name>
<value>/tmp/logs</value>
<description>Configuration to enable or disable log aggregation</description>
</property>
<!--  Site specific YARN configuration properties  -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
<description/>
</property>
<property>
<name>yarn.resourcemanager.scheduler.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
<description/>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>/data/nm-local</value>
<description>Comma-separated list of paths on the local filesystem where intermediate data is written.</description>
</property>
<property>
<name>yarn.nodemanager.log-dirs</name>
<value>/data/nm-log</value>
<description>Comma-separated list of paths on the local filesystem where logs are written.</description>
</property>
<property>
<name>yarn.nodemanager.log.retain-seconds</name>
<value>10800</value>
<description>Default time (in seconds) to retain log files on the NodeManager Only applicable if log-aggregation is disabled.</description>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
<description>Shuffle service that needs to be set for Map Reduce applications.</description>
</property>

启动Yarn

配置完毕之后,就可以启动了,启动命令如下:
在这里插入图片描述
尝试一下:

在这里插入图片描述
可以发现此时多了几个Java的进程:
在这里插入图片描述
历史服务器的启动是单独的:
在这里插入图片描述
打开 http://ip:8088 即可看到YARN集群的监控页面(ResourceManager的WEB UI):
在这里插入图片描述

然后就可以正常使用Hadoop啦。

一点意外

腾讯云崩了…想给你们展示一下来着:
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/808942.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

深入浅出 -- 系统架构之日均亿级吞吐量的网关架构(DNS轮询解析)

在前篇关于《Nginx》的文章中曾经提到&#xff1a;单节点的Nginx在经过调优后&#xff0c;可承载5W左右的并发量&#xff0c;同时为确保Nginx的高可用&#xff0c;在文中也结合了Keepalived对其实现了程序宕机重启、主机下线从机顶替等功能。 但就算实现了高可用的Nginx依旧存在…

LabVIEW无线快速存取记录器(WQAR)测试平台

LabVIEW无线快速存取记录器&#xff08;WQAR&#xff09;测试平台 随着民用航空业的迅速发展&#xff0c;航空安全的保障日益成为公众和专业领域的关注焦点。无线快速存取记录器&#xff08;WirelessQuick Access Recorder, WQAR&#xff09;作为记录飞行数据、监控飞行品质的…

从一个锚点到一座港湾:华为加速“巨幕手机”时代到来

不久之前&#xff0c;一位朋友跟我说&#xff0c;追了综艺《毛雪汪》之后&#xff0c;突然对许久不碰的电视有了兴趣。因为毛雪汪客厅里&#xff0c;好朋友一起用华为智慧屏 V5 系列玩大屏游戏&#xff0c;分享投屏视频的感觉特别好&#xff0c;满足了他对梦中电视的期待。 听到…

基于Vue的宠物领养系统的设计与实现(论文+源码)_kaic

目 录 摘 要 ABSTRACT 1 引言 1.1 课题背景 1.2 设计原则 1.3 论文组织结构 2 系统关键技术 2.1 JSP技术 2.2 JAVA技术 2.3 B/S结构 2.4 MYSQL数据库 3 系统分析 3.1 可行性分析 3.1.1 操作可行性 3.1.2 经济可行性 3.1.3 技术可行性 3.1.4 法律可行性 3.2 系统功能分析 3.3…

Post表单提交后端接不到参数

项目背景&#xff1a; 框架&#xff1a;Springboot 版本&#xff1a;1.5.6.REAEASE 问题描述 Postman通过表单提交请求时后端接不到值 原因分析&#xff1a; 启动项中注入其他Bean时取名叫dispatcherServlet&#xff0c;当发现http接口无法访问时&#xff0c;原开发人员又…

JS-28-AJAX

一、AJAX的定义 AJAX不是JavaScript的规范&#xff0c;它只是一个哥们“发明”的缩写&#xff1a;Asynchronous JavaScript and XML&#xff0c;意思就是用JavaScript执行异步网络请求。 如果仔细观察一个Form的提交&#xff0c;你就会发现&#xff0c;一旦用户点击“Submit”…

【AI面试】FPN、PANet、SPP、ASPP、Adaptive feature pooling

经常可以看到各个论文发出来,加入的各种trick。这些改进点,一般都是在前人的基础上,进行了一些修改。比如FPN到PANet的改进,就是为了改进前者存在的一些问题。 这里就把这些trick,给汇集到一起,看看他们的发展历史,看看他们之间有什么区别,又是在哪些地方做的改进。这…

【RV1106的ISP使用记录之一】基础环境搭建

公司缺少ISP工程师&#xff0c;做为图像算法工程师的我这就不就给顶上来了么&#xff0c;也没给发两份工资&#xff0c;唉~ 先写个标题&#xff0c;占一个新坑&#xff0c;记录RK平台的传统ISP工作。 一、基础环境的硬件包括三部分&#xff1a; 1、相机环境&#xff0c;用于采…

华为海思数字芯片设计笔试第四套

声明 下面的题目作答都是自己认为正确的答案&#xff0c;并非官方答案&#xff0c;如果有不同的意见&#xff0c;可以评论区交流。 这些题目也是笔者从各个地方收集的&#xff0c;感觉有些题目答案并不正确&#xff0c;所以在个别题目会给出自己的见解&#xff0c;欢迎大家讨论…

Ubuntu (Linux系统) 下载安装 Qt 环境

在官网http://download.qt.io/archive/qt/ 下载安装包&#xff0c;默认linux平台下提供的安装包以run后缀结尾 也可以选择其它地址下载 Qt官网下载地址&#xff1a;https://download.qt.io&#xff1b; 国内镜像下载地址&#xff1a;https://mirrors.cloud.tencent.com/qt/ 。建…

量子城域网系列(二):量子密钥与通信系统中各层协议融合应用

写在前面。国家标准中对量子保密通信的定义&#xff1a;量子保密通信是利用QKD与其他密码技术结合形成的保密通信技术。 经过这段时间的讨论&#xff0c;我们基本上明白了量子保密通信的内涵、基础协议、技术原理等。我们知道了当前语境下的量子密钥分发网络核心是实现两点之间…

windows下pycharm中配置conda虚拟环境

目录 一&#xff1a;背景 二&#xff1a;安装conda环境 三&#xff1a;pycharm配置环境 四&#xff1a;注意问题 一&#xff1a;背景 在使用python的过程中&#xff0c;我们可能需要在一个windows环境中创建多个版本的python和安装不同的库去做一些开发任务。 使用conda&a…

文献学习-33-一个用于生成手术视频摘要的python库

VideoSum: A Python Library for Surgical Video Summarization Authors: Luis C. Garcia-Peraza-Herrera, Sebastien Ourselin, and Tom Vercauteren Source: https://arxiv.org/pdf/2303.10173.pdf 这篇文章主要关注的是如何通过视频摘要来简化和可视化手术视频&#xff0c…

【linux】set ff=unix、linux设置文件格式

文章目录 一、文件格式二、如何查看文件格式三、设置文件格式、set ffunix四、查看unix与dos的区别 一、文件格式 当我们打开sh脚本时发现有时候格式是unix(LF) ,有时候是windows(CR LF) 。如下图&#xff1a; 文件格式影响了文件中的换行符 linux中sh类型的文件一般要设置为…

文献速递:深度学习肝脏肿瘤诊断---动态对比增强 MRI 上的自动肝脏肿瘤分割使用 4D 信息:基于 3D 卷积和卷积 LSTM 的深度学习模型

Title 题目 Automatic Liver Tumor Segmentation on Dynamic Contrast Enhanced MRI Using 4D Information: Deep Learning Model Based on 3D Convolution and Convolutional LSTM 动态对比增强 MRI 上的自动肝脏肿瘤分割使用 4D 信息&#xff1a;基于 3D 卷积和卷积 LSTM …

K8s拉取habor镜像

目录 在daemon.json中添加仓库地址 重新加载daemon.json并重启docker 在目标node节点添加域名 验证目标node是否能正常登录镜像仓库 创建pod资源 加载yml文件 验证 查看pod的ip与端口号 在daemon.json中添加仓库地址 此处需要在创建资源对象所在的节点进行添加 路径&a…

Python 基于 OpenCV 视觉图像处理实战 之 OpenCV 简单视频处理实战案例 之十 简单视频浮雕画效果

Python 基于 OpenCV 视觉图像处理实战 之 OpenCV 简单视频处理实战案例 之十 简单视频浮雕画效果 目录 Python 基于 OpenCV 视觉图像处理实战 之 OpenCV 简单视频处理实战案例 之十 简单视频浮雕画效果 一、简单介绍 二、简单视频浮雕画效果实现原理 三、简单视频浮雕画效果…

避免使用第三方工具完成电脑环境检测

0. 简介 在之前配置各种深度学习环境的时候经常需要先检测一下电脑的软硬件环境&#xff0c;其实整个过程比较重复和固定&#xff0c;所以我们是否有可能一键检测Python版本、PIP版本、Conda版本、CUDA版本、电脑系统、CPU核数、CPU频率、内存、硬盘等内容这是很多Deepper苦恼…

废品回收小程序推动回收行业的发展趋势

回收在全球都是一个重要行业&#xff0c;它为全球的环保作出了重要贡献。 随着科技的不断发展创新&#xff0c;废品回收的方式也逐渐多样&#xff0c;全新的线上回收小程序也逐渐出现在大众的生活中&#xff0c;在当下的手机时代&#xff0c;线上回收也为大众提供了更加便利的…

如何使用pgvector为RDS PostgreSQL构建专属ChatBot?

背景 越来越多的企业和个人希望能够利用LLM和生成式人工智能来构建专注于其特定领域的具备AI能力的产品。目前&#xff0c;大语言模型在处理通用问题方面表现较好&#xff0c;但由于训练语料和大模型的生成限制&#xff0c;对于专业知识和时效性方面存在一些局限。在信息时代&…