当前位置: 首页 > news >正文

重庆铜梁网站建设公司自己的网站怎么做

重庆铜梁网站建设公司,自己的网站怎么做,免费pc 微网站模板,天门做网站目录 前瞻 emptyDir存储卷 hostPath存储卷 nfs共享存储卷 PVC 和 PV NFS使用PV和PVC 配置nfs存储 定义PV 定义PVC 测试访问 搭建 StorageClass nfs-client-provisioner #xff0c;实现 NFS 的动态 PV 创建 在192.168.75.40节点上安装nfs#xff0c;并配置nfs服务 …目录 前瞻 emptyDir存储卷 hostPath存储卷 nfs共享存储卷 PVC 和 PV NFS使用PV和PVC 配置nfs存储 定义PV 定义PVC 测试访问 搭建 StorageClass nfs-client-provisioner 实现 NFS 的动态 PV 创建 在192.168.75.40节点上安装nfs并配置nfs服务 创建 Service Account用来管理 NFS Provisioner 在 k8s 集群中运行的权限设置 nfs-client 对 PVPVCStorageClass 等的规则 使用 Deployment 来创建 NFS Provisioner 创建 StorageClass负责建立 PVC 并调用 NFS provisioner 进行预定的工作并让 PV 与 PVC 建立关联 创建 PVC 和 Pod 测试 前瞻 K8S存储卷 volumes与containers字段同一层级 emptyDir可实现Pod中的容器之间共享目录数据但没有持久化数据的能力存储卷会随着Pod生命周期结束而一起删除 hostPath将node节点上的目录或文件挂载到Pod容器中有持久化数据的能力但是只能在单个node节点上持久化数据不能实现跨node节点的Pod共享数据 nfs将nfs服务的共享目录挂载到Pod容器中有持久化数据的能力且也能实现跨node节点的Pod共享数据 emptyDir存储卷 当Pod被分配给节点时首先创建emptyDir卷并且只要该Pod在该节点上运行该卷就会存在。正如卷的名字所述它最初是空的。Pod 中的容器可以读取和写入emptyDir卷中的相同文件尽管该卷可以挂载到每个容器中的相同或不同路径上。当出于任何原因从节点中删除 Pod 时emptyDir中的数据将被永久删除。 mkdir /opt/volumes cd /opt/volumesvim pod-emptydir.yaml apiVersion: v1 kind: Pod metadata:name: pod-emptydirnamespace: defaultlabels:app: myapptier: frontend spec:containers:- name: myappimage: ikubernetes/myapp:v1imagePullPolicy: IfNotPresentports:- name: httpcontainerPort: 80#定义容器挂载内容volumeMounts:#使用的存储卷名称如果跟下面volume字段name值相同则表示使用volume的这个存储卷- name: html#挂载至容器中哪个目录mountPath: /usr/share/nginx/html/- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: html#在容器内定义挂载存储名称和挂载路径mountPath: /data/command: [/bin/sh,-c,while true;do echo $(date) /data/index.html;sleep 2;done]#定义存储卷volumes:#定义存储卷名称 - name: html#定义存储卷类型emptyDir: {}kubectl apply -f pod-emptydir.yamlkubectl get pods -o wide 在上面定义了2个容器其中一个容器是输入日期到index.html中然后验证访问nginx的html是否可以获取日期。以验证两个容器之间挂载的emptyDir实现共享。  hostPath存储卷 hostPath卷将 node 节点的文件系统中的文件或目录挂载到集群中。 hostPath可以实现持久存储但是在node节点故障时也会导致数据的丢失。 #在 node01 节点上创建挂载目录 mkdir -p /data/pod/volume1 echo node01.kgc.com /data/pod/volume1/index.html #在 node02 节点上创建挂载目录 mkdir -p /data/pod/volume1 echo node02.kgc.com /data/pod/volume1/index.html#创建 Pod 资源 vim pod-hostpath.yaml apiVersion: v1 kind: Pod metadata:name: pod-hostpathnamespace: default spec:containers:- name: myappimage: ikubernetes/myapp:v1#定义容器挂载内容volumeMounts:#使用的存储卷名称如果跟下面volume字段name值相同则表示使用volume的这个存储卷- name: html#挂载至容器中哪个目录mountPath: /usr/share/nginx/html#读写挂载方式默认为读写模式falsereadOnly: false#volumes字段定义了paues容器关联的宿主机或分布式文件系统存储卷volumes:#存储卷名称- name: html#路径为宿主机存储路径hostPath:#在宿主机上目录的路径path: /data/pod/volume1#定义类型这表示如果宿主机没有此目录则会自动创建type: DirectoryOrCreatekubectl apply -f pod-hostpath.yaml#访问测试 kubectl get pods -o wide curl 10.244.196.163 #删除pod再重建验证是否依旧可以访问原来的内容 kubectl delete -f pod-hostpath.yaml kubectl apply -f pod-hostpath.yaml kubectl get pods -o wide curl 10.244.196.140nfs共享存储卷 #在stor01节点上安装nfs并配置nfs服务 mkdir /data/volumes -p chmod 777 /data/volumesvim /etc/exports /data/volumes 192.168.75.0/24(rw,no_root_squash)systemctl start rpcbind systemctl start nfsshowmount -e Export list for stor01: /data/volumes 192.168.80.0/24#master节点操作 vim pod-nfs-vol.yaml apiVersion: v1 kind: Pod metadata:name: pod-vol-nfsnamespace: default spec:containers:- name: myappimage: ikubernetes/myapp:v1volumeMounts:- name: htmlmountPath: /usr/share/nginx/htmlvolumes:- name: htmlnfs:path: /data/volumesserver: stor01kubectl apply -f pod-nfs-vol.yaml kubectl get pods -o wide#在nfs服务器上创建index.html cd /data/volumes vim index.html h1 nfs stor01/h1#master节点操作 curl 10.244.196.159 h1 nfs stor01/h1kubectl delete -f pod-nfs-vol.yaml #删除nfs相关pod再重新创建可以得到数据的持久化存储 kubectl apply -f pod-nfs-vol.yamlPVC 和 PV PV 全称叫做 Persistent Volume持久化存储卷。它是用来描述或者说用来定义一个存储卷的这个通常都是由运维工程师来定义。 PVC 的全称是 Persistent Volume Claim是持久化存储的请求。它是用来描述希望使用什么样的或者说是满足什么条件的 PV 存储。 PVC 的使用逻辑在 Pod 中定义一个存储卷该存储卷类型为 PVC定义的时候直接指定大小PVC 必须与对应的 PV 建立关系PVC 会根据配置的定义去 PV 申请而 PV 是由存储空间创建出来的。PV 和 PVC 是 Kubernetes 抽象出来的一种存储资源。 上面介绍的PV和PVC模式是需要运维人员先创建好PV然后开发人员定义好PVC进行一对一的Bond但是如果PVC请求成千上万那么就需要创建成千上万的PV对于运维人员来说维护成本很高Kubernetes提供一种自动创建PV的机制叫StorageClass它的作用就是创建PV的模板。 创建 StorageClass 需要定义 PV 的属性比如存储类型、大小等另外创建这种 PV 需要用到的存储插件比如 Ceph 等。 有了这两部分信息Kubernetes 就能够根据用户提交的 PVC找到对应的 StorageClass然后 Kubernetes 就会调用 StorageClass 声明的存储插件自动创建需要的 PV 并进行绑定。 PV是集群中的资源。 PVC是对这些资源的请求也是对资源的索引检查。  PVK8S在指定的存储设备空间中逻辑划分创建出来的可持久化的存储资源对象 PVC对PV存储资源对象的请求和绑定也是Pod能够定义使用的一种存储卷类型 PV和PVC之间的相互作用遵循这个生命周期 Provisioning配置--- Binding绑定--- Using使用--- Releasing释放 --- Recycling回收 ●Provisioning即 PV 的创建可以直接创建 PV静态方式也可以使用 StorageClass 动态创建 ●Binding将 PV 分配给 PVC ●UsingPod 通过 PVC 使用该 Volume并可以通过准入控制StorageProtection1.9及以前版本为PVCProtection 阻止删除正在使用的 PVC ●ReleasingPod 释放 Volume 并删除 PVC ●Reclaiming回收 PV可以保留 PV 以便下次使用也可以直接从云存储中删除 根据这 5 个阶段PV 的状态有以下 4 种 ●Available可用表示可用状态还未被任何 PVC 绑定 ●Bound已绑定表示 PV 已经绑定到 PVC ●Released已释放表示 PVC 被删掉但是资源尚未被集群回收 ●Failed失败表示该 PV 的自动回收失败 一个PV从创建到销毁的具体流程如下 1、一个PV创建完后状态会变成Available等待被PVC绑定。 2、一旦被PVC邦定PV的状态会变成Bound就可以被定义了相应PVC的Pod使用。 3、Pod使用完后会释放PVPV的状态变成Released。 4、变成Released的PV会根据定义的回收策略做相应的回收工作。有三种回收策略Retain、Delete和Recycle。Retain就是保留现场K8S集群什么也不做等待用户手动去处理PV里的数据处理完后再手动删除PV。Delete策略K8S会自动删除该PV及里面的数据。Recycle方式K8S会将PV里的数据删除然后把PV的状态变成Available又可以被新的PVC绑定使用。 创建PV的方式 手动根据PV资源的配置模板静态的方式创建PV 根据PVC的配置模板通过引用StorageClass(简称SC)资源调用存储卷插件来动态的方式创建PV 静态创建PV的步骤 1准备好存储设备和共享目录 2准备创建PV资源的配置文件定义访问模式(ReadWriteOnce、ReadOnlyMany、ReadWriteMany、ReadWriteMany)、存储空间大小、回收策略Retain、Recycle、Delete、存储设备类型、storageClassName等 3准备创建PVC资源的配置文件定义访问模式(必要条件必须是PV支持的访问模式)、存储空间大小(默认就近选择大于等于指定大小的PV)、storageClassName等来绑定PV 4创建Pod资源挂载PVC存储卷定义卷类型为persistentVolumeClaim并在容器配置中定义存储卷挂载点路径 动态创建PV的步骤 1准备好存储设备和共享目录 2如果是外置存储卷插件需要先创建serviceaccount账户(Pod使用访问apiserver使用的账户)和RBAC授权(创建角色授予相关资源对象的操作权限再将账户与角色绑定)使得serviceaccount账户具有对PV、PVC、StorageClass等资源的操作权限 3准备创建外置存储插件Pod资源的配置文件定义serviceaccount账户作为Pod的用户并设置相关的环境变量(比如存储插件名称等) 4创建StorageClass资源provisioner要设置为存储插件名称以上操作是一劳永逸的之后只需要创建PVC资源引用StorageClass就可以自动调用存储卷插件动态创建PV资源 5准备创建PVC资源的配置文件定义访问模式、存储空间大小、storageClassName设置为StorageClass资源名称等来动态创建PV资源并绑定PV 6创建Pod资源挂载PVC存储卷定义卷类型为persistentVolumeClaim并在容器配置中定义存储卷挂载点路径 kubectl explain pv #查看pv的定义方式 FIELDS:apiVersion: v1kind: PersistentVolumemetadata: #由于 PV 是集群级别的资源即 PV 可以跨 namespace 使用所以 PV 的 metadata 中不用配置 namespacename: speckubectl explain pv.spec #查看pv定义的规格 spec:nfs:定义存储类型path:定义挂载卷路径server:定义服务器名称accessModes:定义访问模型有以下三种访问模型以列表的方式存在也就是说可以定义多个访问模式- ReadWriteOnce #RWO卷可以被一个节点以读写方式挂载。 ReadWriteOnce 访问模式也允许运行在同一节点上的多个 Pod 访问卷。- ReadOnlyMany #ROX卷可以被多个节点以只读方式挂载。- ReadWriteMany #RWX卷可以被多个节点以读写方式挂载。 #nfs 支持全部三种iSCSI 不支持 ReadWriteManyiSCSI 就是在 IP 网络上运行 SCSI 协议的一种网络存储技术HostPath 不支持 ReadOnlyMany 和 ReadWriteMany。capacity:定义存储能力一般用于设置存储空间storage: 2Gi 指定大小storageClassName: 自定义存储类名称此配置用于绑定具有相同类别的PVC和PVpersistentVolumeReclaimPolicy: Retain #回收策略Retain/Delete/Recycle #Retain保留当用户删除与之绑定的PVC时候这个PV被标记为releasedPVC与PV解绑但还没有执行回收策略且之前的数据依然保存在该PV上但是该PV不可用需要手动来处理这些数据并删除该PV。 #Delete删除删除与PV相连的后端存储资源。对于动态配置的PV来说默认回收策略为Delete。表示当用户删除对应的PVC时动态配置的volume将被自动删除。只有 AWS EBS, GCE PD, Azure Disk 和 Cinder 支持 #Recycle回收如果用户删除PVC则删除卷上的数据卷不会删除。只有 NFS 和 HostPath 支持kubectl explain pvc #查看PVC的定义方式 KIND: PersistentVolumeClaim VERSION: v1 FIELDS:apiVersion stringkind string metadata Objectspec Object#PV和PVC中的spec关键字段要匹配比如存储storage大小、访问模式accessModes、存储类名称storageClassName kubectl explain pvc.spec spec:accessModes: 定义访问模式必须是PV的访问模式的子集resources:requests:storage: 定义申请资源的大小storageClassName: 定义存储类名称此配置用于绑定具有相同类别的PVC和PV NFS使用PV和PVC 配置nfs存储 mkdir v{1,2,3,4,5}vim /etc/exports /data/volumes/v1 192.168.75.0/24(rw,no_root_squash) /data/volumes/v2 192.168.75.0/24(rw,no_root_squash) /data/volumes/v3 192.168.75.0/24(rw,no_root_squash) /data/volumes/v4 192.168.75.0/24(rw,no_root_squash) /data/volumes/v5 192.168.75.0/24(rw,no_root_squash)exportfs -arv showmount -e定义PV #这里定义5个PV并且定义挂载的路径以及访问模式还有PV划分的大小。 vim pv-demo.yaml apiVersion: v1 kind: PersistentVolume metadata:name: pv001labels:name: pv001 spec:nfs:path: /data/volumes/v1server: 192.168.75.40accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 1Gi --- apiVersion: v1 kind: PersistentVolume metadata:name: pv002labels:name: pv002 spec:nfs:path: /data/volumes/v2server: 192.168.75.40accessModes: [ReadWriteOnce]capacity:storage: 2Gi --- apiVersion: v1 kind: PersistentVolume metadata:name: pv003labels:name: pv003 spec:nfs:path: /data/volumes/v3server: 192.168.75.40accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 2Gi --- apiVersion: v1 kind: PersistentVolume metadata:name: pv004labels:name: pv004 spec:nfs:path: /data/volumes/v4server: 192.168.75.40accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 4Gi --- apiVersion: v1 kind: PersistentVolume metadata:name: pv005labels:name: pv005 spec:nfs:path: /data/volumes/v5server: 192.168.75.40accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 5Gikubectl apply -f pv-demo.yamlkubectl get pv 定义PVC #这里定义了pvc的访问模式为多路读写该访问模式必须在前面pv定义的访问模式之中。定义PVC申请的大小为2Gi此时PVC会自动去匹配多路读写且大小为2Gi的PV匹配成功获取PVC的状态即为Bound vim pod-vol-pvc.yaml apiVersion: v1 kind: PersistentVolumeClaim metadata:name: mypvcnamespace: default spec:accessModes: [ReadWriteMany]resources:requests:storage: 2Gi --- apiVersion: v1 kind: Pod metadata:name: pod-vol-pvcnamespace: default spec:containers:- name: myappimage: ikubernetes/myapp:v1volumeMounts:- name: htmlmountPath: /usr/share/nginx/htmlvolumes:- name: htmlpersistentVolumeClaim:claimName: mypvckubectl apply -f pod-vol-pvc.yamlkubectl get pv kubectl get pvc 测试访问 #在存储服务器上创建index.html并写入数据通过访问Pod进行查看可以获取到相应的页面。 cd /data/volumes/v3/ echo welcome to use pv3 index.html#回到master上进行测试 kubectl get pods -o wide curl 10.244.196.15 搭建 StorageClass nfs-client-provisioner 实现 NFS 的动态 PV 创建 Kubernetes 本身支持的动态 PV 创建不包括 NFS所以需要使用外部存储卷插件分配PV。详见https://kubernetes.io/zh/docs/concepts/storage/storage-classes/ 卷插件称为 Provisioner存储分配器NFS 使用的是 nfs-client这个外部卷插件会使用已经配置好的 NFS 服务器自动创建 PV。 Provisioner用于指定 Volume 插件的类型包括内置插件如 kubernetes.io/aws-ebs和外部插件如 external-storage 提供的 ceph.com/cephfs。 在192.168.75.40节点上安装nfs并配置nfs服务 mkdir /opt/k8s chmod 777 /opt/k8s/vim /etc/exports /opt/k8s 192.168.75.0/24(rw,no_root_squash,sync)systemctl restart nfs创建 Service Account用来管理 NFS Provisioner 在 k8s 集群中运行的权限设置 nfs-client 对 PVPVCStorageClass 等的规则 vim nfs-client-rbac.yaml #创建 Service Account 账户用来管理 NFS Provisioner 在 k8s 集群中运行的权限 apiVersion: v1 kind: ServiceAccount metadata:name: nfs-client-provisioner --- #创建集群角色 apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata:name: nfs-client-provisioner-clusterrole rules:- apiGroups: []resources: [persistentvolumes]verbs: [get, list, watch, create, delete]- apiGroups: []resources: [persistentvolumeclaims]verbs: [get, list, watch, update]- apiGroups: [storage.k8s.io]resources: [storageclasses]verbs: [get, list, watch]- apiGroups: []resources: [events]verbs: [list, watch, create, update, patch]- apiGroups: []resources: [endpoints]verbs: [create, delete, get, list, watch, patch, update] --- #集群角色绑定 apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata:name: nfs-client-provisioner-clusterrolebinding subjects: - kind: ServiceAccountname: nfs-client-provisionernamespace: default roleRef:kind: ClusterRolename: nfs-client-provisioner-clusterroleapiGroup: rbac.authorization.k8s.iokubectl apply -f nfs-client-rbac.yaml使用 Deployment 来创建 NFS Provisioner NFS Provisioner(即 nfs-client)有两个功能一个是在 NFS 共享目录下创建挂载点(volume)另一个则是将 PV 与 NFS 的挂载点建立关联。 #由于 1.20 版本启用了 selfLink所以 k8s 1.20 版本通过 nfs provisioner 动态生成pv会报错解决方法如下 vim /etc/kubernetes/manifests/kube-apiserver.yaml spec:containers:- command:- kube-apiserver- --feature-gatesRemoveSelfLinkfalse #添加这一行- --advertise-address192.168.80.20 ......kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yaml kubectl delete pods kube-apiserver -n kube-system kubectl get pods -n kube-system | grep apiserver #创建 NFS Provisioner vim nfs-client-provisioner.yaml kind: Deployment apiVersion: apps/v1 metadata:name: nfs-client-provisioner spec:replicas: 1selector:matchLabels:app: nfs-client-provisionerstrategy:type: Recreatetemplate:metadata:labels:app: nfs-client-provisionerspec:serviceAccountName: nfs-client-provisioner #指定Service Account账户containers:- name: nfs-client-provisionerimage: quay.io/external_storage/nfs-client-provisioner:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: nfs-client-rootmountPath: /persistentvolumesenv:- name: PROVISIONER_NAMEvalue: nfs-storage #配置provisioner的Name确保该名称与StorageClass资源中的provisioner名称保持一致- name: NFS_SERVERvalue: 192.168.75.40 #配置绑定的nfs服务器- name: NFS_PATHvalue: /opt/k8s #配置绑定的nfs服务器目录volumes: #申明nfs数据卷- name: nfs-client-rootnfs:server: 192.168.75.40path: /opt/k8skubectl apply -f nfs-client-provisioner.yaml kubectl get pod 创建 StorageClass负责建立 PVC 并调用 NFS provisioner 进行预定的工作并让 PV 与 PVC 建立关联 vim nfs-client-storageclass.yaml apiVersion: storage.k8s.io/v1 kind: StorageClass metadata:name: nfs-client-storageclass provisioner: nfs-storage #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致 parameters:archiveOnDelete: false #false表示在删除PVC时不会对数据目录进行打包存档即删除数据为ture时就会自动对数据目录进行打包存档存档文件以archived开头kubectl apply -f nfs-client-storageclass.yamlkubectl get storageclass 创建 PVC 和 Pod 测试 vim test-pvc-pod.yaml apiVersion: v1 kind: PersistentVolumeClaim metadata:name: test-nfs-pvc#annotations: volume.beta.kubernetes.io/storage-class: nfs-client-storageclass #另一种SC配置方式 spec:accessModes:- ReadWriteManystorageClassName: nfs-client-storageclass #关联StorageClass对象resources:requests:storage: 1Gi --- apiVersion: v1 kind: Pod metadata:name: test-storageclass-pod spec:containers:- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentcommand:- /bin/sh- -cargs:- sleep 3600volumeMounts:- name: nfs-pvcmountPath: /mntrestartPolicy: Nevervolumes:- name: nfs-pvcpersistentVolumeClaim:claimName: test-nfs-pvc #与PVC名称保持一致kubectl apply -f test-pvc-pod.yaml #PVC 通过 StorageClass 自动申请到空间 kubectl get pvc #查看 NFS 服务器上是否生成对应的目录自动创建的 PV 会以 ${namespace}-${pvcName}-${pvName} 的目录格式放到 NFS 服务器上 ls /opt/k8s/ #进入 Pod 在挂载目录 /mnt 下写一个文件然后查看 NFS 服务器上是否存在该文件 kubectl exec -it test-storageclass-pod sh / # cd /mnt/ /mnt # echo this is test file test.txt #发现 NFS 服务器上存在说明验证成功 cat /opt/k8s/test.txt
http://www.zqtcl.cn/news/872461/

相关文章:

  • 图片类网站建设seol英文啥意思
  • 网站编辑工作好做吗WordPress的图片存在哪
  • 你的网站尚未进行备案为什么网站百度搜不到了
  • 沙洋网站开发网站建设方案免费
  • iis建设网站教程单页面推广网站
  • 东莞网站建设效果郑州企业自助建站系统
  • php做的购物网站系统下载宜州做网站需要多少钱
  • 昆明网上商城网站建设怎么做网站教程视频
  • 网站开发都需要什么移动公司网络维护待遇
  • 计算机网络技术网站建设方向wordpress虚拟货币
  • 小江网站建设公司紧急页面通知升级中访问大通知
  • 那个公司做的网站详情页好看做动态图片的网站吗
  • 旅游网站模板文章wordpress 删除
  • 沛县专业做网站wordpress id重置密码
  • 湖南邵阳建设局网站做外贸一般用什么网站
  • html网站开发主要涉及哪些技术越秀金融大厦地址
  • 北京建设银行网站田村广州室内设计公司排行榜
  • 安徽金路建设集团有限公司网站平面设计班培训入门
  • 小型电子商务网站开发php mysql网站开发教程
  • 网站建设常州麦策电商2 网站建设的一般步骤包含哪些
  • cn免费域名注册网站企业推广的渠道有哪些
  • 关于网站建设心得体会网站的功能包括哪些
  • 番禺网站制作技术网站建设与管理pdf
  • 毕业设计做网站选题营销型网站功能模块
  • 西部数码网站管理助手安装建工教育网
  • wordpress 网站logowordpress文本编辑器插件
  • 杭州装饰网站建设如何免费建购物网站
  • 在vs做的项目怎么连接到网站珠海有什么网站
  • 网上购物网站建设论文6做的网站必须放在idc机房吗
  • 基于asp.net的视频网站开发500套wordpress模板