NSF服务器

目录

1.简介

1.1 NFS背景介绍

1.2 生产应用场景

2.NFS工作原理

2.1 实例图

2.2 流程

3.NFS的使用

3.1.安装

3.2.配置文件

3.3.主配置文件分析

3.4 实验

服务端: 

客户端:

3.5.NFS账户映射

3.5.1.实验2

3.5.2.实验3

4.autofs自动挂载服务

4.1.产生原因

4.2.安装

4.3.配置文件分析

4.4 实验4

4.5.实验5


1.简介

1.1 NFS背景介绍

        NFS是一种古老的用于在UNIX/Linux主机之间进行文件共享的协议。它古老到你必须穿着白大补才能接近一台计算机的年代。在那个年代,所有的联网计算机都被认为是可信的,而不像现今这样,任何人都有多种多样方法能连接到你的计算机。因此,NFS在开发的时候专注于快速及易用的文件共享,而忽视了其安全性设计
        NFS(Network File System,网络文件系统)是FreeBSD支持的文件系统中的一种,它允许网络中的计算机(不同的计算机、不同的操作系统)之间通过TCP/IP网络共享资源,主要在unix系列操作系统上使用。
        NFS服务器可以让PC将网络中的NFS服务器共享的目录挂载到本地端的文件系统中,而在本地端的系统中看来,那个远程主机的目录就好像是自己的一个磁盘分区一样。
        由于NFS支持的功能比较多,而不同的功能都会使用不同的程序来启动,每启动一个功能就会启用一些端口来传输数据,因此NFS的功能所对应的端口并不固定,而是随机取用一些未被使用的小于1024的端口用于传输。但如此一来就会产生客户端连接服务器的问题,因为客户端需要知道服务器端的相关端口才能够连接。此时就需要RPC
        RPC(Remote Procedure Call,远程过程调用):由于服务器在启动NFS时会随机选取数个端口号,并主动向RPC注册,所以RPC知道每个NFS功能所对应的端口号,RPC将端口号通知给客户端,让客户端可以连接到正确的端口上去。RPC采用固定端口号port 111来监听客户端的需求并向客户端响应正确的端口号。

        注:在启动NFS之前,要先启动RPC,否则NFS会无法向RPC注册。另外,RPC若重新启动,原来注册的数据会消失不见,因此RPC重启后,它管理的所有服务都需要重新启动以重新向RPC注

1.2 生产应用场景

        NFS网络文件系统很像windows系统的网络共享、安全功能、网络驱动器映射,这也和linux系统里的Samba服务器类似。只不过一般情况下,windows网络共享服务或Samba服务用于办公局域网共享,而互联网中小型网站集群架构后端常用NFS进行数据共享,如果是大型网站,那可能会用到更复杂的分布式文件系统
        在企业集群架构的工作场景中,NFS作为所有前端web服务的共享存储,存储的内容一般包括网站用户上传的图片、附件、头像等,注意,网站的程序代码就不要放在NFS共享里了,因为网站程序是开发运维人员统一发布,不存在发布延迟问题,直接批量发布到web节点提供访问比共享到NFS里访问效率会更高些。
        NFS是当前互联网系统架构中常用的数据存储服务之一,中小型网站 (2000万pv(页面浏览量)以下)公示应用频率居高,大公司或门户除了使用NFS外,还可能会使用更为复杂的分布式文件系统

2.NFS工作原理

2.1 实例图

2.2 流程

首先服务器端启动RPC服务,并开启111端口

服务器端启动NFS服务,并向RPC注册端口信息

客户端启动RPC(portmap服务),向服务端的RPC(portmap)服务请求服务端的NFS端口

服务端的RPC(portmap)服务反馈NFS端口信息给客户端。 (服务器搭建成功后可以使用下列命令查看,一般都是2049)

3.NFS的使用

3.1.安装

[root@server ~]# cat /etc/services |grep -w nfs      # 查看当前NFS使用的端口
nfs             2049/tcp        nfsd shilp      # Network File System
nfs             2049/udp        nfsd shilp      # Network File System
nfs             2049/sctp       nfsd shilp      # Network File System
[root@server ~]# yum install nfs-utils -y                # 安装NFS

[root@server ~]# yum install rpcbind -y                 # 安装RPC(一般是默认已经安装)

3.2.配置文件

        主配置文件: /etc/exports,文件不一定存在
        /usr/sbin/exportfs:该文件是维护NFS共享目录资源的命令文件,可以使用命令重新共享/etc/exports的目录资源、卸载共享目录
        日志目录: /var/lib/nfs
        权限设置文件:
/var/lib/nfs/etab

3.3.主配置文件分析

         etc/exports文件默认为空文件,需要输入nfs共享命令

格式:          共享目录的路径        允许访问的NFS客户端 (共享权限参数)    

      共享权限参数  :(一般要写三大部分【权限     映射账户    传输模式:syns、async】) 

分析:                                                                        
        允许访问的NFS客户端: 可以写完整的IP地址或IP网段,如:
                192.168.48.130/24
                192.168.48.130/255.255.255.0
                192.168.48.0/24
                "*":允许所有主机都可以访问
权限参数:必须卸载园括号中,且括号是紧挨着主机名的,全选的相关参数如下,多个参数之间使用逗号隔开:

权限参数作用
ro只读
rw读写(最终还要看文件系统rwx权限)
root squash当NFS客户端以root账户访问时,映射为NFS服务器端的匿名账户(nobody)
no_root_squash当NFS客户端以root账户访问时,映射为root账户 (不推荐、不安全)
all_squash无论NFS客户端使用什么账户访问,均映射为NFS 服务器的匿名账户(nobody),推荐
no_all_squash客户端普通账户访问服务器的数据时,实际的信息原样显示
anonuid=将文件的用户和工作组映射为指定UID和GID,若不指定则默认为
anongid=65534 (nobody)
sync        同步,同时将数据写入内存与硬盘中,保证数据不会丢失,推荐
async异步,优先将数据保存到内存,然后在写入硬盘,效率高,但可能会数据丢

exportx文件内容实例:

/home/public *(rw,sync) :对所有机共享/home/public目录,可读可写,同步传输

/home/public 192.168.48.131/24(ro,all_squash,sync): 只对131主机开发共享/home/public ,只读权限,客户端映射为nobody账户,同步传输        

/home/public 192.168.48.0/24(rw , sync,all_squash, anonuid=2000, anongid=2000):对192.168.48.0网段中所有主机开放/home/public 目录,可读可写,同步传输,客户端映射为nobody,uid为2000,gid为2000       

3.4 实验

建立NFS服务器,使用客户端访问

服务端: 

第一步: 服务server端操作,完成准备工作

        root@server ~]# setenforce 0

        [root@server ~]# systemctl stop firewalld

        [root@server ~]# yum instal1 nfs-utils -y

第二步:客户端node1操作,完成准备工作

        root@server ~]# setenforce 0

        [root@server ~]# systemctl stop firewalld

        [root@server ~]# yum instal1 nfs-utils -y

第三步:服务端server操作,新建共享目录,并设置权限
[root@server ~]# echo  "www.openlab.com"  > /nfsfile/redme
[root@server ~]# cat /nfsfile/redme 

[root@server ~]# chmod -Rf 777 /nfsfile/

第四步:服务端server操作,修改nfs配置文件

[root@server ~]# vim /etc/exports

                /nfsfile192.168.48.131/24(rw,a11_squash,sync)

第五步:服务端server操作,先启动rpc服务,后启动nfs服务

[root@server ~]# systemctl start rpcbind                # 先启动RPC
[root@server ~]# systemctl start nfs-server            # 启动NFS

[root@server ~]# systemctl enable rpcbind         # 设置开机启动
[root@server ~]# systemctl enable nfs-server

# 注意:启动rpcbind服务时,若启动失败,可以先停止服务。在重新启动

        systemct1 stop rpcbind

        systemct start rpcbind

客户端:

第六步:客户端node1操作,通过命令查询共享数据并远程挂载使用

# 查询远程共享信息:showmount        -参数         服务器IP地址

# 参数:
        # -e: 显示NFS服务器的共享列表

        # -a: 显示本地挂载的文件资源列表

        # -V: 显示版本号

[root@node1 ~]# showmount -e 192.168.17.128          # 查询128的共享信息
        Export list for 192.168.17.128:
        /nfsfile 192.168.17.129/24

[root@node1 ~]# mkdir /nfs1
[root@node1 ~]# mount -t nfs 192.168.17.128:/nfsfile  /nfs1/       

       # 将192.168.17.128这台主机的/nfsfile账户目录,以nfs文件格式远程挂载到本地的/nfs1下

[root@node1 ~]# cat /nfs1/redme 

第七步:客户端node1操作,配置开机挂载,实现永久性挂载

[root@node1 ~]# vim /etc/fstab 

挂载目录                                挂载设备         文件系统         defaults         0        0

192.168.17.128:/nfsfile         /nfs1                   nfs                defaults          0        0

[root@node1 ~]# mount -a
[root@node1 ~]# reoot

检测:

3.5.NFS账户映射

3.5.1.实验2

 基于上例,将/nfsfile权限进行修改,查看客户端是够可以访问,是否可以写入数据

服务端:

[root@server ~]# vim /etc/exports                # 确认是否为rw写权限

[root@server ~]# cd /nfsfile/

[root@server nfsfile]# ll
总用量 4
-rwxrwxrwx 1 root root 16 8月 28 09:29 redme

[root@server nfsfile]# chmod -Rf 444 /nfsfile/                # 修改权限

[root@server nfsfile]# ll
总用量 4
r--r--r-- 1 root root 16 8月 28 09:29 redme

客户端:

[root@node1 ~]# cd /nfs1/

服务端:

[root@server nfsfile]# chmod -Rf 777 /nfsfile     # 有可能有延迟,建议多次执行

客户端:

[root@node1 ~]# cd /nfs1/

3.5.2.实验3

客户端访问服务端,默认使用服务端的账户进行映射(nobody)

定位到客户端node1:

[root@node1 nfs1]# touch test.txt

定位到服务端server:                       # 注意:账户及工作组

[root@server nfsfile]# vim /etc/exports

/nfsfile        192.168.17.129/24(rw,root_squash,sync)

[root@server nfsfile]# exportfs -arv               # 不卸载即可让新的配置文件生效
exporting 192.168.17.129/24:/nfsfile

定位到客户端node1:

[root@node1 nfs1]# touch test2.txt
[root@node1 nfs1]#  cd /
[root@node1 /]# su fox
[fox@node1 /]$ cd /nfs1/
[fox@node1 nfs1]$ ls

redme  test2.txt  test.txt
[fox@node1 nfs1]$ touch test3.txt      # 此时创建账户变为了fox

定位到服务端server:         

[root@server nfsfile]# vim /etc/exports
/nfsfile        192.168.17.129/24(rw,all_squash,sync,anonuid=3000,anongid=3000)

[root@server nfsfile]# exportfs -arv               # 不卸载即可让新的配置文件生效
exporting 192.168.17.129/24:/nfsfile

定位到客户端node1:

[root@node1 nfs1]# touch test4.txt

4.autofs自动挂载服务

4.1.产生原因

        在一般NFS文件系统的使用过程中,如果客户端要使用服务端所提供的文件系统,可以在/etc/fstab中设置开机时自动挂载,也可以在登录系统后手动利用mount来挂载。
        由于网络的问题,NFS服务器与客户端的连接不会一直存在,当我们挂载了NFS服务器之后任何一方脱机都可能造成另外一方等待超时,如果在资源挂载后长期不使用,也会造成服务器硬件资源的浪费。
        为了解决这样的问题,就出现了下面的想法:
                当客户端在有使用NFS文件系统的需求时才让系统自动挂载。
                当NFS文件系统使用完毕后 (autofs默认自动卸载时间为300s即5分钟),让NFS自动卸载

        autofs 自动挂载服务可以帮我们解决这一问题,该服务是运行在客户端的一种 Linux 系统守护进程,在用户需要使用该文件系统时才去动态挂载,从而节约了网络资源和服务器的硬件资源。

4.2.安装

[root@nodel ~]# yum insta11 autofs -y               # 客户端安装

4.3.配置文件分析

        配置文件路径: /etc/auto.master

        作用:处于生产环境中的 Linux 服务器,一般会同时管理许多设备的挂载操作。如果把这些设备挂载信息都写入到 autofs 服务的主配置文件中,无疑会让主配置文件臃肿不堪,不利于服务执行效率,也不利于日后修改里面的配置内容,则需要将挂载的设备独立配置形成子文件,主配置文件只存储配置挂载设置的文件名        

        /etc/auto.master文件内容格式:挂载目录 子配置文件。

                挂载目录:不需要事先存在,因为autofs会主动建立该目录
                子配置文件:文件名可自定义
                 例: /nfs /etc/auto.nfs
        子配置文件由自己创建,内容格式:
                本地挂载目录        [-挂载参数]         服务器地址:目录
                例: testmnt 192.168.48.130:/data0

                例:若要将服务端:192.168.17.128:/nfsfile文件,自动挂载客户端:上的/test/nfs文件夹        

    原本只需在自动挂载主配置文件vim /etc/master中写(/test/nfs        192.168.48.130:/nfsfile)

    现在别成了在自动挂载主配置文件vim /etc/master中写(/test        /etc/aa.bb )然后再到文件vim /etc/aa.bb中写(nfs        192.168.48.130:/nfsfile)

        优点:利于管理

        挂载参数:

参数功能
fg/bg当执行挂载时,该挂载行为会在前台 (fg) 还是后台 (bg) 执行,若在前台执行,则mount会持续尝试挂载,直到成功或time out为止;若为后台执行,则mount会在后台持续多次进行mount,而不会影响到前台的程序运行。
soft/hardhard表示当两者之间的任何一台主机脱机,则RPC会持续地呼叫,直到对方恢复连接为止。如果是soft的话,那RPC会在time out反重复呼叫,而非持续呼叫
intr当使用上面提到的hard方式挂载时,若加上intr这个参数,则当RPC持续呼叫时,该次的呼叫是可以被中断的
 rsize/wsize读出(rsize) 与写入 (wsize) 的区块大小。这个设置值可以影响客户端与服务器

4.4 实验4

        服务器创建共享目录,客户端实现自动挂载

第一步:服务器与客户端都恢复快照,关闭安全软件

[root@server ~]# systemctl stop firewalld
[root@server ~]# setenforce 0
[root@node1 ~]# setenforce 0
[root@node1 ~]# systemctl stop firewalld

第二步:安装软件

定位到服务端server:     

        [root@server ~]# yum install nfs-utils -y

        [root@server ~]# yum install rpcbind -y

定位到客户端node1:

        [root@node1 ~]# yum install  nfs-utils -y
        [root@nodel ~]# yum install autofs -y                 

第三步: 定位server端,新建共享目录,编辑nfs配置文件,设置权限   

[root@server ~]# mkdir /data

[root@server ~]# vim /etc/exports

        /data           *(ro,sync,all_aquash)

[root@server ~]# echo "this is test" > /data/file.txt

[root@server ~]# chmod -Rf 777 /data

第四步:定位server端,启动服务,必须先启动rpcbind

[root@server ~]# systemctl start rpcbind
[root@server ~]#
systemctl start nfs-server

注意:启动要按照图中顺序来启动

[root@server ~]# systemctl enable  rpcbind

[root@server ~]# systemctl enable  nfs-server                # 开机启动

第五步:定位node1端,编辑自动挂载主配置文件        

# 计划nodel端,挂载目录2为/nfs/testmnt

        [noot@nodel ~]# vim /etc/auto.master                # 定位第七行然后在其后添加一行

        /nfs    /etc/auto.nfs                                 # 挂载的父目录及子目录配置文件(文件名自行命名)

        [root@node1 ~]# vim /etc/auto.nfs
        testmnt         192.168.17.128:/data

第六步:定位node1端,启动服务

[root@nodel /]# systemct1 start autofs

[root@nodel /]# systemct enable autofs

第七步:定位节点1端,测试

[root@node1 /]# df -h         #   查看挂载信息


[root@node1 /]# cd /nfs
[root@nodel nfs]# cd testmnt                # 进入挂载目录时,testmnt自动创建

[root@nodel testmnt]# df -h


[root@nodel testmnt]# Is                                                                                                                file.txt
[root@nodel testmnt]# cat  file.txt                                                                                             this is test

4.5.实验5

自动挂载光驱

第一步: 定位server,恢复快照,关闭安全软件,安装autofs软件

[root@server ~]# systemctl stop firewalld
[root@server ~]# setenforce 0
[root@server ~]# yum install autofs -y

第二步:计划光驱本地挂载目录为: /media/cdrom

第三步:编辑自动挂载主配置文件

[root@server ~]# vim   /etc/auto.master

/media  /etc        /iso.aa

# /media 为最终挂载目录的父目录

# /etc/iso.aa:为子配置文件

第四步:编写子配置文件

[root@server ~]# vim /etc/iso.aa

cdrom   -fstype=iso9660,ro,nosuid,nobev :/dev/sr0    # 冒号前必须加空格

第五步:启动服务

[root@server ~]# systemctl start autofs

[root@server ~]# systemctl enable autofs

第六步:测试

查看挂载情况:[root@server ~]# df -h

下图为系统默认挂载情况:

因此:先卸载设备

[root@server ~]# umount /dev/sr0                        # 先卸载设备
[root@server ~]# df   -h

[root@server ~]# cd /media/
[root@server media]# cd cdrom                ​​​​​​​        # 输入该命令就会触发自动挂载

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/140970.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Mysql学习笔记--基础

一,SQL最重要的增删改命令格式 1,insert into 表名(不写这个括号里面的内容就默认所有字段都要添加) values() 插入单条数据 2,insert into 表名 (里面是列名) values(根据列名依次…

Java Web——前端HTML入门

目录 HTML&CSS3&JavaScript简述 1. HTML概念 2. 超文本 3. 标记语言 4. HTML基础结构 5. HTML基础词汇 6. HTML语法规则 7. VS Code 推荐使用的插件 8. 在线帮助文档 HTML&CSS3&JavaScript简述 HTML 主要用于网页主体结构的搭建,像一个毛坯…

【LeetCode:715. Range 模块 | 线段树】

🚀 算法题 🚀 🌲 算法刷题专栏 | 面试必备算法 | 面试高频算法 🍀 🌲 越难的东西,越要努力坚持,因为它具有很高的价值,算法就是这样✨ 🌲 作者简介:硕风和炜,…

Django(四、路由层)

文章目录 一、路由层1.路由匹配url方法第一个是参数 的正则表达式 二、正则无名分组与有名分组无名分组有名分组 三、反向解析1.概念无名分组动态路由解析有名分组动态路由解析 四、路由分发为什么要用路由分发? 1.总路由分发配置名称空间 五、伪静态的概念六、虚拟…

超级干货:光纤知识总结最全的文章

你们好,我的网工朋友。 光纤已经是远距离有线信号传输的主要手段,而安装、维护光纤也是很多人网络布线的基本功。 在网络布线中,通常室外楼宇间幢与幢之间使用的是光缆,室内楼宇内部大都使用的是以太网双绞线,也有使用…

企业微信开发教程一:添加企微应用流程图解以及常见问题图文说明

最近在前辈的基础上新添加了一个企微应用,过程中遇到了一些卡点,这里一一通过图片标注与注释的方式记录一下,希望能给后来人提供一些清晰明了的帮助,话不多说,大家直接看图吧。 (文中包括一些本项目独有的配…

linux下使用Docker Compose部署Spug实现公网远程访问

📑前言 本文主要是linux下使用Docker Compose部署Spug实现公网远程访问的文章,如果有什么需要改进的地方还请大佬指出⛺️ 🎬作者简介:大家好,我是青衿🥇 ☁️博客首页:CSDN主页放风讲故事 &am…

游戏平台采集数据

首先,你需要在你的项目中添加Kotlin的网络库,例如OkHttp。你可以在你的build.gradle文件中添加以下依赖: dependencies {implementation com.squareup.okhttp3:okhttp:4.9.0 }然后,你可以使用以下代码来创建一个基本的网络爬虫&a…

5年测试经验之谈:2年功能测试、3年自动化测试,从入门到25k...

毕业3年了,学的是环境工程专业,毕业后零基础转行做软件测试。 已近从事测试行业8年了,自己也从事过2年的手工测试,从事期间越来越觉得如果一直在手工测试的道路上前进,并不会有很大的发展,所以通过自己的努…

ZYNQ_project:IP_ram_pll_test

例化MMCM ip核,产生100Mhz,100Mhz并相位偏移180,50Mhz,25Mhz的时钟信号。 例化单口ram,并编写读写控制器,实现32个数据的写入与读出。 模块框图: 代码: module ip_top(input …

Flutter笔记:关于Flutter中的大文件上传(上)

Flutter笔记 关于Flutter中的大文件上传(上) 大文件上传背景与 Flutter 端实现文件分片传输 作者:李俊才 (jcLee95):https://blog.csdn.net/qq_28550263 邮箱 :291148484163.com 本文地址&#…

matlab模糊控制文件m代码实现和基础理论

1、内容简介 略 15-可以交流、咨询、答疑 通过m代码来实现生成模糊文件fis文件 2、内容说明 模糊文件m代码实现和基础理论 matlab模糊控制文件m代码实现和基础理论 模糊文件、m代码和模糊基础理论 3、仿真分析 略 4、参考论文 略 链接:https://pan.baidu.co…

Sui学术研究奖公布,资助研究者探索人工智能、能源市场和区块链游戏

Sui基金会高兴地宣布首轮Sui学术研究奖(SARAs)的获奖者。SARAs计划提供资助,支持推动Sui区块链技术的研究。学术和研究界对我们的初次征集呈现出大量高质量的提案。 已接受的九个提案涵盖了各种主题,如token经济学、智能合约机制…

docker stop slow 解决

验证 NanoMQ stop slow 的问题 daemon 和非 daemon 两种方式 docker stop 都很慢 疑问是默认情况下,SIGTERM 会被处理。 模拟 docker 内发送 SIGTERM 信号 # The default signal for kill is TERM # pkill will send the specified signal (by defau…

开发知识点-Django

Django 1 了解简介2 Django项目结构3 url 地址 和视图函数4 路由配置5 请求及响应6 GET请求和POST请求查询字符串 7 Django设计模式及模板层8 模板层-变量和标签9 模板层-过滤器和继承继承 重写 10 url反向解析11 静态文件12 Django 应用及分布式路由创建之后 注册 一下 13 模型…

matlab直线一级倒立摆lqr控制

1、内容简介 略 16-可以交流、咨询、答疑 matlab直线一级倒立摆lqr控制 2、内容说明 倒立摆是一个开环不稳定的强非线性系统,其控制策略与杂技运动员顶杆平衡表演的技巧有异曲同工之处,目的在于使得摆杆处于临界稳定状态,是进行控制理论研…

MySQL的SQL预编译及防SQL注入

文章目录 1 SQL语句的执行处理1.1 即时SQL1.2 预处理SQL1.2.1 预编译SQL的实现步骤1.2.2 预编译SQL的C使用举例1.2.3 MYSQL_BIND()函数中的参数类型: 2 SQL注入2.1 什么是SQL注入2.2 如何防止SQL注入 1 SQL语句的执行处理 SQL的执行可大致分为下面两种模式&#xf…

python双端队列_中间是头两边是尾_两边是头中间是尾

双端队列的顺序表存储结构以及两种特殊的双端队列 双端队列 是一种允许我们同时从前端和后端添加和删除元素的特殊队列,它是队列和栈的结合体。 双端队列(deque)与队列(queue)就差了两个字,队列里元素只能…

使用Redis实现热搜功能

Redis热搜 原理数据类型redis操作简单实现 实操封装方法执行方法最后使用springboot的定时任务对热搜榜单进行维护 原理 使用redis实现热搜的原理就是维护一个zset集合,然后使用score作为当前搜索词的搜索量,score越高的搜索词就说明该搜索词热度越高。…