当前位置: 首页 > news >正文

建自己博客网站宁波建网站推荐

建自己博客网站,宁波建网站推荐,做网站要几个人,全国最新实时大数据目录 1、部署环境 ​编辑 2、更改节点名称 3、准备环境 4、磁盘分区#xff0c;并挂载 5. 做主机映射--/etc/hosts/ 6. 复制脚本文件 7. 执行脚本完成分区 8. 安装客户端软件 1. 创建gfs 2. 安装解压源包 3. 安装 gfs 4. 开启服务 9、 添加节点到存储信任池中 1…目录 1、部署环境 ​编辑 2、更改节点名称 3、准备环境 4、磁盘分区并挂载 5. 做主机映射--/etc/hosts/ 6. 复制脚本文件 7. 执行脚本完成分区 8. 安装客户端软件 1. 创建gfs 2. 安装解压源包 3. 安装 gfs 4. 开启服务 9、 添加节点到存储信任池中 10、创建卷 1. 规划创建卷 2.创建分布式卷 3.创建条带卷 4. 创建复制卷 5.创建分布式条带卷 6.创建分布式复制卷 7.查看卷列表 11、部署客户端--7-1 1.复制文件并解压 2. 建立元数据 3.安装  4.创建挂载目录 5. 给客户端做主机名映射 6.挂载Gluster文件系统 12、测试Gluster文件系统 1.在5个卷中写入文件 13、查看文件分布 1. 查看分布式文件分布 2.查看条带卷文件分布 3.查看复制卷分布 4.查看分布式条带卷分布 5.查看分布式复制卷分布 14.破坏性测试 1.挂起node2 15.客户端查看破坏结果 1.查看分布式数据 2.查看条带卷数据 3.查看复制卷数据 4.查看分布式条带卷数据 5.查看分布式复制卷数据 16、总结 1查看GlusterFS卷 2查看所有卷的信息 3查看所有卷的状态 4停止一个卷 5删除一个卷注意删除卷时需要先停止卷且信任池中不能有主机处于宕机状态否则删除不成功 6设置卷的访问控制 1、部署环境 Node1节点node1/192.168.91.102 磁盘 /dev/sdb1 挂载点 /data/sdb1/dev/sdc1 /data/sdc1/dev/sdd1 /data/sdd1/dev/sde1 /data/sde1Node2节点node2/192.168.91.103 磁盘 /dev/sdb1 挂载点 /data/sdb1/dev/sdc1 /data/sdc1/dev/sdd1 /data/sdd1/dev/sde1 /data/sde1Node3节点node3/192.168.91.104 磁盘 /dev/sdb1 挂载点 /data/sdb1/dev/sdc1 /data/sdc1/dev/sdd1 /data/sdd1/dev/sde1 /data/sde1Node4节点node4/192.168.91.105 磁盘 /dev/sdb1 挂载点 /data/sdb1/dev/sdc1 /data/sdc1/dev/sdd1 /data/sdd1/dev/sde1 /data/sde1客户端节点192.168.91.100 给四个服务器每台添加4块硬盘  [rootlocalhost ~]# ls /dev/sd*2、更改节点名称 node1192.168.91.102 [rootlocalhost ~] # hostnamectl set-hostname node1 [rootlocalhost ~] # bash node2192.168.91.103 [rootlocalhost ~] # hostnamectl set-hostname node2 [rootlocalhost ~] # bash node3192.168.91.104 [rootlocalhost ~] # hostnamectl set-hostname node3 [rootlocalhost ~] # bash node4192.168.91.105 [rootlocalhost ~] # hostnamectl set-hostname node4 [rootlocalhost ~] # bash 3、准备环境 关闭防火墙和selinux [rootnode1 ~]# systemctl stop firewalld [rootnode1 ~]# setenforce 04、磁盘分区并挂载 vim /opt/fdisk.sh #!/bin/bash NEWDEVls /dev/sd* | grep -o sd[b-z] | uniq for VAR in $NEWDEV doecho -e n\np\n\n\n\nw\n | fdisk /dev/$VAR /dev/nullmkfs.xfs /dev/${VAR}1 /dev/nullmkdir -p /data/${VAR}1 /dev/nullecho /dev/${VAR}1 /data/${VAR}1 xfs defaults 0 0 /etc/fstab done mount -a /dev/nullchmod x /opt/fdisk.sh 5. 做主机映射--/etc/hosts/ echo 192.168.91.102 node1 /etc/hosts echo 192.168.91.103 node2 /etc/hosts echo 192.168.91.104 node3 /etc/hosts echo 192.168.91.105 node4 /etc/hosts 6. 复制脚本文件 [rootnode1 opt]# scp fdisk.sh node2:/opt/ [rootnode1 opt]# scp fdisk.sh node3:/opt/ [rootnode1 opt]# scp fdisk.sh node4:/opt/7. 执行脚本完成分区 8. 安装客户端软件 1. 创建gfs cd /etc/yum.repos.d/ mkdir repo.bak mv *.repo repo.bakvim glfs.repo[glfs] nameglfs baseurlfile:///opt/gfsrepo gpgcheck0 enabled1yum clean all yum makecache 2. 安装解压源包 3. 安装 gfs yum remove glusterfs-api.x86_64 glusterfs-cli.x86_64 glusterfs.x86_64 glusterfs-libs.x86_64 glusterfs-client-xlators.x86_64 glusterfs-fuse.x86_64 -yyum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma 4. 开启服务 systemctl start glusterd.service systemctl enable glusterd.service systemctl status glusterd.service9、 添加节点到存储信任池中 #只要在一台Node节点上添加其它节点即可 gluster peer probe node2 gluster peer probe node3 gluster peer probe node4gluster peer status 在7-2一台主机上添加信任其他主机会自动添加 10、创建卷 1. 规划创建卷 根据以下规划创建卷 卷名称 卷类型 Brick fenbushi 分布式卷 node1(/data/sdb1)、node2(/data/sdb1) tiaodai 条带卷 node1(/data/sdc1)、node2(/data/sdc1) fuzhi 复制卷 node3(/data/sdb1)、node4(/data/sdb1) fbs-td 分布式条带卷 node1(/data/sdd1)、node2(/data/sdd1)、node3(/data/sdd1)、node4(/data/sdd1) fbs-fz 分布式复制卷 node1(/data/sde1)、node2(/data/sde1)、node3(/data/sde1)、node4(/data/sde1) 2.创建分布式卷 #创建分布式卷没有指定类型默认创建的是分布式卷[rootnode1 ~]# gluster volume create fenbushi node1:/data/sdb1 node2:/data/sdb1 force volume create: fenbushi: success: please start the volume to access data [rootnode1 ~]# gluster volume list fenbushi [rootnode1 ~]# gluster volume start fenbushi volume start: fenbushi: success [rootnode1 ~]# gluster volume info fenbushi Volume Name: fenbushi Type: Distribute Volume ID: 0438fb36-e99c-4845-a702-18202498660a Status: Started Snapshot Count: 0 Number of Bricks: 2 Transport-type: tcp Bricks: Brick1: node1:/data/sdb1 Brick2: node2:/data/sdb1 Options Reconfigured: transport.address-family: inet nfs.disable: on [rootnode1 ~]# 3.创建条带卷 [rootnode1 ~]# gluster volume create tiaodai stripe 2 node1:/data/sdc1 node2:/data/sdc1 force volume create: tiaodai: success: please start the volume to access data [rootnode1 ~]# gluster volume start tiaodai volume start: tiaodai: success [rootnode1 ~]# gluster volume info tiaodai Volume Name: tiaodai Type: Stripe Volume ID: f64b6b6a-dadd-427f-8806-6e7dff448b66 Status: Started Snapshot Count: 0 Number of Bricks: 1 x 2 2 Transport-type: tcp Bricks: Brick1: node1:/data/sdc1 Brick2: node2:/data/sdc1 Options Reconfigured: transport.address-family: inet nfs.disable: on [rootnode1 ~]# 4. 创建复制卷 [rootnode1 ~]# gluster volume create fuzhi replica 2 node3:/data/sdb1 node4:/data/sdb1 force volume create: fuzhi: success: please start the volume to access data [rootnode1 ~]# gluster volume start fuzhi volume start: fuzhi: success [rootnode1 ~]# gluster volume info fuzhi Volume Name: fuzhi Type: Replicate Volume ID: 3cdffb32-a007-41c6-8e19-dbc17878ea12 Status: Started Snapshot Count: 0 Number of Bricks: 1 x 2 2 Transport-type: tcp Bricks: Brick1: node3:/data/sdb1 Brick2: node4:/data/sdb1 Options Reconfigured: transport.address-family: inet nfs.disable: on [rootnode1 ~]# 5.创建分布式条带卷 [rootnode1 ~]# gluster volume create fbs-td stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force volume create: fbs-td: success: please start the volume to access data [rootnode1 ~]# gluster volume start fbs-td volume start: fbs-td: success [rootnode1 ~]# gluster volume info fbs-td Volume Name: fbs-td Type: Distributed-Stripe Volume ID: b389f9b9-12bf-4ffd-a05a-d4a126a37cb4 Status: Started Snapshot Count: 0 Number of Bricks: 2 x 2 4 Transport-type: tcp Bricks: Brick1: node1:/data/sdd1 Brick2: node2:/data/sdd1 Brick3: node3:/data/sdd1 Brick4: node4:/data/sdd1 Options Reconfigured: transport.address-family: inet nfs.disable: on [rootnode1 ~]# 6.创建分布式复制卷 [rootnode1 ~]# gluster volume create fbs-fz replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force volume create: fbs-fz: success: please start the volume to access data [rootnode1 ~]# gluster volume start fbs-fz volume start: fbs-fz: success [rootnode1 ~]# gluster volume info fbs-fzVolume Name: fbs-fz Type: Distributed-Replicate Volume ID: f6913316-f886-4f4b-8e53-94feaf448587 Status: Started Snapshot Count: 0 Number of Bricks: 2 x 2 4 Transport-type: tcp Bricks: Brick1: node1:/data/sde1 Brick2: node2:/data/sde1 Brick3: node3:/data/sde1 Brick4: node4:/data/sde1 Options Reconfigured: transport.address-family: inet nfs.disable: on [rootnode1 ~]# 7.查看卷列表 gluster volume list11、部署客户端--7-1 1.复制文件并解压 2. 建立元数据 cd /etc/yum.repos.d/ mkdir repo.bak mv *.repo repo.bakvim glfs.repo[glfs] nameglfs baseurlfile:///opt/gfsrepo gpgcheck0 enabled1[rootlocalhost opt]# yum clean all yum makecache3.安装  yum -y install glusterfs glusterfs-fuse4.创建挂载目录 mkdir -p /test/{fenbushi,tiaodai,fbs-td,fuzhi,fbs-fz}5. 给客户端做主机名映射 192.168.91.102 node1 192.168.91.103 node2 192.168.91.104 node3 192.168.91.105 node4 6.挂载Gluster文件系统 #临时挂载 [rootlocalhost opt]# mount.glusterfs node1:fenbushi /test/fenbushi/ [rootlocalhost opt]# mount.glusterfs node1:tiaodai /test/tiaodai/ [rootlocalhost opt]# mount.glusterfs node1:fuzhi /test/fuzhi/ [rootlocalhost opt]# mount.glusterfs node1:fbs-td /test/fbs-td/ [rootlocalhost opt]# mount.glusterfs node1:fbs-fz /test/fbs-fz/df   -h###查看挂载效果 12、测试Gluster文件系统 1.在5个卷中写入文件 cd /opt dd if/dev/zero of/opt/demo1.log bs1M count40 dd if/dev/zero of/opt/demo2.log bs1M count40 dd if/dev/zero of/opt/demo3.log bs1M count40 dd if/dev/zero of/opt/demo4.log bs1M count40 dd if/dev/zero of/opt/demo5.log bs1M count40 [rootlocalhost opt]# cp /opt/demo* /test/fenbushi/ [rootlocalhost opt]# cp /opt/demo* /test/tiaodai/ [rootlocalhost opt]# cp /opt/demo* /test/fuzhi/ [rootlocalhost opt]# cp /opt/demo* /test/fbs-td/ [rootlocalhost opt]# cp /opt/demo* /test/fbs-fz/ 13、查看文件分布 1. 查看分布式文件分布 没有数据分片 1.  因为我们之前做分布式卷的时候指定就是node1和node2的sdb1磁盘 2.  所以我们查看文件分布的时候要对应之前创建卷的时候的分布 2.查看条带卷文件分布 数据被分片 3.查看复制卷分布 数据备份了 4.查看分布式条带卷分布 数据被分布式存储数据被分片 5.查看分布式复制卷分布 14.破坏性测试 1.挂起node2 15.客户端查看破坏结果 1.查看分布式数据 2.查看条带卷数据 3.查看复制卷数据 因为我们把复制卷坐在了node3和node4上 所以我们把node4挂起 4.查看分布式条带卷数据 5.查看分布式复制卷数据 16、总结 ##### 上述实验测试凡是带复制数据相比而言数据比较安全 ##### #扩展其他的维护命令 1查看GlusterFS卷 gluster volume list  2查看所有卷的信息 gluster volume info 3查看所有卷的状态 gluster volume status 4停止一个卷 gluster volume stop dis-stripe 5删除一个卷注意删除卷时需要先停止卷且信任池中不能有主机处于宕机状态否则删除不成功 gluster volume delete dis-stripe 6设置卷的访问控制 #仅拒绝 gluster volume set dis-rep auth.deny 192.168.80.100 #仅允许 gluster volume set dis-rep auth.allow 192.168.80.*      #设置192.168.80.0网段的所有IP地址都能访问dis-rep卷分布式复制卷
http://www.zqtcl.cn/news/953481/

相关文章:

  • 可以完成交易的网站 做微信公众号电商网站开发
  • 上海市建设安全协会官方网站机械加工怎么找客户
  • 郑州驾校网站建设互联网公司可通过数据分析人们的哪些方面
  • 珠海杰作网站建设网络公司做一个关于电影的网页设计
  • 电子商务网站建设需要哪些步骤网站开发维护合同书
  • 顺德网站设计成都网站优化方式
  • 宁波建网站哪家好用点网站后台 更新缓存
  • 如何推广网站链接做旅游网站的目的
  • 网站规划与设计课程设计中企动力网站建设 长春
  • 最新网站建设哪家公司好wordpress 顶部图片
  • 有什么网站可以做一起作业公司简介优秀文案
  • 太仓住房和城乡建设局网站seo网页推广
  • 网络公司 网站源码网页源代码修改了影响别人吗
  • 网站后台是怎样制作的app开发公司排行榜做软件的公司
  • 有专门做网站的公司吗西安分类信息seo公司
  • 重庆璧山网站制作公司哪家专业商城网站建设 优帮云
  • 双语网站建设费用安徽省芜湖建设定额网站
  • 常州市城乡建设局网站wordpress 阿里云cdn
  • 福州制作网站设计哪里比较好百度网址大全官方网站
  • 一般做美食网站的产品需求我想做个网站
  • 成品网站制作公司应用公园是免费的吗
  • 做毕业网站的流程网站建设价格一览表
  • 企业服务网站开发做网站怎样建立服务器
  • 电子商务他们的代表网站360免费wifi官网
  • 网站后端开发软件cc域名做门户网站
  • 保定设计网站超云建站
  • 建筑工程网官网入口优化网站关键词排名软件
  • 企业网站功能怎么设计wordpress文章图片轮播
  • 网站后台登陆验证码不对阳江房产网楼市数据
  • 营销型网站建设遨龙仙居住房和城乡建设规划局网站