如何通过网站做网上报名系统,网站在建设中无法访问,wordpress安装出错,广告公司经营范围什么是OpenEBS#xff1f;现在#xff0c;OpenEBS是kubernetes下与容器原生和容器附加存储类型相关通用的领先开源项目之一。 通过为每个工作负载指定专用的存储控制器#xff0c;OpenEBS遵循容器附加存储或CAS的脚步。 为了向用户提供更多功能#xff0c;OpenEBS具有精细的…什么是OpenEBS现在OpenEBS是kubernetes下与容器原生和容器附加存储类型相关通用的领先开源项目之一。 通过为每个工作负载指定专用的存储控制器OpenEBS遵循容器附加存储或CAS的脚步。 为了向用户提供更多功能OpenEBS具有精细的存储策略和隔离功能 可帮助用户根据工作负载选择存储。该项目不依赖Linux内核模块而是在用户空间中运行。 它属于Cloud Native Computing Foundation沙箱在各种情况下都非常有用例如在公共云中运行的群集 在隔离环境中运行的无间隙群集以及本地群集。什么是CAS首先CAS是Container Attached Storage的缩写。通常Kubernetes存储在集群环境之外维护。 无论共享文件系统如何存储设施始终与外部资源相关包括Amazon EBSGCE PDNFSGluster FS和Azure 磁盘等存储巨头。在大多数情况下存储通常以OS内核模块的形式与节点相关。这也适用于永久卷在永久卷中 它们与模块紧密耦合因此显示为旧版资源和整体式。CAS提供的是Kubernetes使用诸如微服务之类的存储实体的便利。 总体而言CAS分为两个元素即数据平面和控制平面。另一方面控制平面控制一组CRD或Custom Resource Definitions并涉及低级别的存储实体。 数据平面和控制平面之间的这种清晰的分离为用户提供了与Kubernetes中的微服务相同的优势。 这种独特的架构通过使存储实体与持久性脱钩从而有助于工作负载的可移植性。这种体系结构的另一个好处是 它允许操作员和管理员根据工作量动态调整卷的大小。这也称为横向扩展功能。这种结构将计算Pod和数据P置于超融合模式在这种模式下它们具有较高的容错能力和良好的吞吐量。是什么使OpenEBS与其他存储解决方案不同使OpenEBS与传统存储引擎大不相同的一些品质是 就像它所服务的应用程序一样OpenEBS具有构建的微服务架构。在部署OpenEBS时 它们作为容器安装到Kubernetes的工作程序节点。此外该系统管理其组件并使用Kubernetes进行编排。 可移植性是OpenEBS作为开放源代码存储选项的优良品质因为它是完全内置的用户空间。 这使其容易出现跨平台问题。 Kubernetes的使用使该系统非常有意图驱动因为它遵循有助于提高客户可用性的原则。 谈到可用性功能使用OpenEBS的另一个好处是它允许用户从各种存储引擎中进行选择。 这意味着一个人可以使用与其应用程序的设计和目标兼容的存储引擎。无论引擎的类型如何 OpenEBS都提供了一个强大的框架该框架具有良好的可管理性快照可用性和克隆。例如 Cassandra是需要低延迟写入的分布式应用程序。因此它可以使用本地PV引擎。同样 建议将ZFS引擎用于需要弹性的整体式应用程序例如PostgreSQL和MySQL。对于流应用程序 专业人士经常建议使用称为MayaStor的NVMe引擎该引擎可保证最佳性能。部署OpenEBS之后您可以获得许多存储服务包括 在连接到Kubernetes的工作节点上使存储管理自动化。这将使您可以使用该存储来动态配置本地PV和OpenEBS PV。 跨节点的数据持久性得到了改善这有助于用户节省通常在重建时浪费的时间。例如卡桑德拉响。云提供商和可用性区域之间的数据将正确同步。此类功能有助于提高所需数据的可用性并减少连接和分离时间。这有点像用户的通用层因此他们可以体验到相同级别的存储服务以及良好的开发人员和布线设施。是否使用裸机AKSAWS或GKE都没有关系。由于OpenEBS属于Kubernetes原生解决方案因此管理员与开发人员之间进行交互的机会更大 这有助于管理OpenEBS。他们可以使用HelmPrometheusKubectlGrafana和Weave Scope等各种工具。正确管理与S3和其他目标之间的来回分层过程。开放式EBS架构我们已经知道OpenEBS属于CAS或容器附加存储模型。用此模型维护其结构OpenEBS系统的每个卷都有一个指定 的控制器POD和一组重复的POD。我们已经讨论了CAS系统背后的思想因此我们可以说CAS系统的整体体系结构有助于 使OpenEBS成为用户友好的系统。人们认为OpenEBS在操作过程中非常简单就像来自Kubernetes的其他任何云原 生项目一样。这是OpenEBS架构图。相应地绘制了所有重要功能我们将对其进行简要讨论。OpenEBS系统包含许多组件。总体而言它们可以分为以下几类。控制平面包括API服务器预配器卷小车和卷导出之类的细分。数据平面JivacStor和LocalPV节点磁盘管理器监视发现和管理连接到Kubernetes节点的媒体。云原生工具集成集成通过GrafanaJaegerPrometheus和Fluentd完成。OpenEBS的控制平面OpenEBS集群的另一个术语是Maya。控制平面有多种功能。其中一些功能包括配置卷 与卷关联的操作如克隆制作快照快照存储策略实施存储策略创建卷指标的导出 以便Prometheus/Grafana可以使用它们以及许多其他功能。标准的Kubernetes存储插件是动态预配器OpenEBS PV预配器的主要任务是根据Kubernetes用于PV实施 规范并启动卷预配。当涉及批量策略管理和批量处理任务时m-apiserver有助于公开存储REST API。 当我们查看数据平面和控制平面之间的连接时我们可以看到一个sidecar模式。我们有一些数据平面必 须与控制平面通信时的条件示例。对于吞吐量延迟和IOPS等卷统计信息。在此使用了volume-exporter 边车。在卷副本容器的帮助下进行磁盘或池管理在卷控制器容器的帮助下执行卷策略。在这里使用了音量管理小车。让我们谈谈控制平面的上述组件该组件的主要功能是在作为POD运行时做出供应决策。工作机制也非常简单。首先开发人员提出具有必要体积参数的 声明然后选择正确的存储类别。最后他或她在YAML规范上调用Kubelet。在这里maya-apiserver和 OpenEBS PV供应商相互交互并创建节点上的卷副本容器和卷控制器容器所需的部署规范。 使用PVC规范中的注释来控制体积容器的调度。根据当前统计OpenEBS仅支持iSCSI绑定。m-apiserver的主要任务是公开OpenEBS REST API并且它以POD的形式运行。如果需要创建卷容器 则m-apiserver会生成部署规范所需的文件。然后根据情况调度pod并调用kube-apiserver。 该过程完成后将创建对象PV然后将其安装在应用程序容器上。然后控制器盒与副本盒的帮助一起托管PV。 副本容器和控制器容器都是数据平面的重要部分。m-apiserver的另一项主要任务是卷策略的管理。在提供策略时OpenEBS通常使用精细的规范。 然后m-apiserver使用YAML规范的这些解释将它们转换为可执行的组件。在那之后它们通过音量管理侧边栏得 到了强制执行。Maya Volume Exporter每个存储控制器pod即cStor和Jiva都有一个称为Maya卷导出器的sidecar。这些边车的功能是通过将数 据平面与控制平面相连来帮助检索信息。如果我们查看统计信息的粒度则它始终处于卷级别。统计信息的一些示例是Volume write latencyVolume read latencyWrite IOPSRead IOPSWrite block sizeRead block sizeCapacity statusvolume manauagement sidecar边车的主要功能有两个一是将卷策略和控制器配置参数传递到卷控制器容器或数据平面。 另一个是传递副本配置参数以及卷副本容器的数据保护参数的副本。OpenEBS的数据平面OpenEBS架构最喜欢的一件事是它向用户提供的与存储引擎相关的功能。它为用户提供了根据工作负载的配置 和特征来配置其存储引擎的选择。例如如果您具有基于IOPS的高数据库则可以从读取繁重的共享CM S工作负载中选择其他存储引擎。因此数据平面为用户提供了三种存储引擎选择JivacStor和Local PV。cStor是OpenEBS提供的最受欢迎的存储引擎选项其中包括丰富的存储引擎和轻量级的功能。这些功能 对于类似HA工作负载的数据库特别有用。您通过此选项获得的功能是企业级的。其中一些是按需容量和性能提升 高数据弹性数据一致性同步数据复制克隆快照和精简数据提供。cStor同步复制的单个副本可提供高可用性的 有状态Kubernetes部署。当从应用程序请求数据的高可用性时cStor会生成3个副本其中数据以同步顺序写入。 此类复制有助于保护数据丢失。Jiva是OpenEBS最早的存储引擎使用非常简单。之所以如此方便部分原因在于该引擎完全根据用户空间的标准运行 并具有标准的块存储容量例如同步复制。如果您的小型应用程序没有添加块存储设备的选项那么Jiva可能是您的 正确选择。考虑到这一点事实也恰恰相反这意味着该引擎对于需要高级存储和高性能功能的工作负载效率不高。继续使用OpenEBS的最简单的存储引擎是Local PV或Local Persistent Volume。它只是一个直接连接到单个 Kubernetes节点的磁盘。对熟悉的API的这种使用意味着Kubernetes可以在此过程中提取高性能的本地存储。 概括整个概念OPenEBS的Local PV将帮助用户在节点上创建持久的本地磁盘或路径卷。这对于不需要高级存储 功能例如克隆复制和快照的应用程序例如云原生应用程序非常有用。例如对于基于OpenEBS的本地PV的配置 可以使用同时处理HA和复制的StatefulSet。| 快照和克隆支持 | 基本的 | 高级 | 没有 | | ------------- | ----- |----- | --- | | 资料一致性 | 是 | 是 | 不适用 | 使用Velero备份和还原 | 是 | 是 | 是 | 适合大容量工作负载 | 是 | 是 | 精简配置 | 是 | 没有 | 磁盘池或聚合支持 | 是 | 没有 | 按需扩容 | 是 | 是 | 数据弹性RAID支持 | 是 | 是* | 近磁盘性能 | 没有 | 没有 | 是我们有三个当前可用的存储引擎但这并不意味着它们是唯一的选择。实际上OpenEBS社区目前正在开发新引擎。 它们仍然是原型需要在进入市场之前进行适当的测试。例如MayaStor是一种数据引擎可能很快就会投放市场。 它是用Rust编写的具有低延迟引擎对于需要API访问以访问块存储和接近磁盘性能的应用程序非常有帮助。此外 与本地PV相关的问题已经过测试以ZFS本地PV为名称的变体因克服了这些缺点而获得了一些认可。节点设备管理器在Kubernetes中工作时在有状态应用程序的情况下管理持久性存储的任务由各种工具完成。NDM或节点设备管理器 就是一种可以填补这一空白的工具。DevOps架构师必须以保持一致性和弹性的方式提供应用程序开发人员和应用程序本身的基础设施需求。为了做到这一点存储堆栈的灵活性必须很高以便云原生生态系统可以轻松使用堆栈。在这种情况下NDM的功能非常方便它可以将单独的磁盘组合在一起并赋予它们将它们分段存储的能力。NDM通过将磁盘标识为Kubernetes对象来实现此目的。它还有助于管理Kubernetes PV供应商如OpenEBSPrometheus和其他系统的磁盘子系统。与云原生工具的集成Grafana和Prometheus Prometheus的安装是在OpenEBS运营商作为微服务的一部分进行的初始设置期间进行的。音量策略负责根据给定的音量控制Prometheus监视。总体而言Prometheus和Grafana工具共同帮助OpenEBS社区监视持久性数据。WeaveScope如果需要查看与容器进程主机或服务相关的标签元数据和度量则使用WeaveScope。因此在Kubernetes中将它作为云原生可视化解决方案的重要组成部分。对于WeaveScope集成将启用诸如卷Pod节点磁盘管理器组件以及与Kubernetes相关的其他类型的存储结构之类的东西。所有这些增强功能都有助于遍历和探索这些组件。数据如何受到保护Kubernetes有许多方法可以保护数据。例如如果IO容器与iSCSI目标一起发生故障则它会被Kubernetes旋转回去。将相同的原理应用于存储数据的副本容器。OpenEBS可以借助可配置的仲裁或副本的最低要求来保护多个副本。cStor具有其他功能可以检查静默数据的损坏并可以在将其隐藏在后台的同时对其进行修复。如何安装和入门首先要做的是确认iSCSI客户端设置。通过使用必要的iSCSI协议OpenEBS为用户提供了块卷支持。因此必须在安装期间所有Kubernetes节点都具有iSCSI启动器。根据您的操作系统有多种方法可以验证iSCSI客户端安装。如果尚未安装我们以Ubuntu用户的整个过程为例正如我们已经讨论的那样为使OpenEBS系统正常运行需要确保iSCSI服务在所有辅助节点上运行。请按照以下步骤在Linux平台Ubuntu中启动该过程。配置如果您的系统中已经安装了iSCSI启动器请使用以下给定命令检查启动器名称的配置和iSCSI服务的状态sudo cat /etc/iscsi/initiatorname.iscsi
systemctl status iscsid成功运行命令后系统将显示服务是否正在运行。如果状态显示为“非活动”则键入以下命令以重新启动iscsid服务sudo systemctl enable iscsid
sudo systemctl start iscsid如果提供正确的命令那么系统将为您提供以下输出systemctl status iscsid
● iscsid.service - iSCSI initiator daemon (iscsid)Loaded: loaded (/lib/systemd/system/iscsid.service; disabled; vendor preset: enabled)Active: active (running) since Mon 2019-02-18 11:00:07 UTC; 1min 51s agoDocs: man:iscsid(8)Process: 11185 ExecStart/sbin/iscsid (codeexited, status0/SUCCESS)Process: 11170 ExecStartPre/lib/open-iscsi/startup-checks.sh (codeexited, status0/SUCCESS)Main PID: 11187 (iscsid)Tasks: 2 (limit: 4915)CGroup: /system.slice/iscsid.service├─11186 /sbin/iscsid└─11187 /sbin/iscsid如果您未在节点上安装iSCSI启动器请在以下命令的帮助下转到“ open-iscsi”软件包sudo apt-get update
sudo apt-get install open-iscsi
sudo systemctl enable iscsid
sudo systemctl start iscsid如果在他们的系统上预先安装了Kubernetes环境则他或她可以借助以下命令轻松地部署OpenEBSkubectl apply -f https://openebs.github.io/charts/openebs-operator.yaml之后您可以开始针对OpenEBS运行工作负载。实际上有许多工作负载使用OpenEBS的存储类。不您不必非常特定于存储类。这是简单的方法但是花一些时间选择特定的存储类将帮助您节省时间从长远来看还有助于自定义工作负载。默认的OpenEBS回收策略与K8所使用的相同。“删除”是动态配置的PersistentVolume的默认回收策略。它们在某种意义上是相关的如果一个人删除了相应的PersistentVolumeClaim则动态配置的卷将被自动删除。对于cStor卷则数据随之删除。对于jiva0.8.0版及更高版本清理作业将执行数据删除工作。kubectl delete job job_name -n namespace在配置Jiva和cStor卷之前您应该做的第一件事是验证iSCSI客户端。话虽这么说始终建议用户完成iSCSI客户端的设置并确保iscsid服务运行良好并在每个工作节点上运行。这是正确正确地安装OpenEBS安装程序所必需的。另外请记住如果要安装OpenEBS则必须具有集群管理员用户上下文。如果您没有集群管理员用户上下文则创建一个上下文并在该过程中使用它。对于创建可以使用以下命令。kubectl config set-context NAME [--clustercluster_nickname] [--useruser_nickname] [--namespacenamespace]这是上述命令的示例kubectl config set-context admin-ctx --clustergke_strong-eon-153112_us-central1-a_rocket-test2 --usercluster-admin之后键入以下命令来设置新创建的上下文或现有的上下文。请参阅以下示例kubectl config use-context admin-ctx通过helm安装过程在启动该过程之前请检查您的系统中是否安装了helm并且helm存储库需要任何更新。对于Helm的v2版本首先运行命令helm init将分till pod安装在“ kube-system”命名空间下然后按照下面给出的说明为分till设置RBAC。要获取helm已安装版本用户可以键入以下命令helm version这是输出示例Client: amp;version.Version{SemVer:v2.16.1, GitCommit:bbdfe5e7803a12bbdf97e94cd847859890cf4050, GitTreeState:clean}如果使用默认模式进行安装请使用下面给出的命令在“ openebs”命名空间中安装OpenEBShelm install --namespace openebs --name openebs stable/openebs --version 1.10.0对于Helm v3版本您可以在以下命令的帮助下获取helm v3版本的预安装版本helm version这是输出示例version.BuildInfo{Version:v3.0.2, GitCommit:19e47ee3283ae98139d98460de796c1be1e3975f, GitTreeState:clean, GoVersion:go1.13.5}在helm v3的帮助下可以通过两种方式安装OpenEBS。让我们一一讨论。第一种选择在这种方法中helm从本地kube配置获取当前的名称空间并在用户决定运行helm命令时稍后使用它。如果不存在则掌舵将使用默认名称空间。首先借助以下命令将openebs与openebs命名空间一起安装您可以使用以下代码行查看当前上下文kubectl config current-context为当前上下文分配名称openebs并键入以下内容kubectl config set-context current_context_name --namespaceopenebs要创建OpenEBS名称空间kubectl create ns openebs然后以openebs作为图表名称安装OpenEBS。使用以下命令helm install openebs stable/openebs --version 1.10.0最后写下以下代码以查看charthelm ls通过执行上述步骤您将安装带有openebs名称空间的OpenEBS该名称空间的图表名称为openebs。第二个选项第二个选项是关于直接在helm命令中提及名称空间。定期执行以下步骤进行安装。为OpenEBS创建名称空间 kubectl create ns openebs使用图表名称openebs安装openebs系统。命令如下helm install --namespace openebs openebs stable/openebs --version 1.10.0helm install –namespace openebs openebs stable/openebs –version 1.10.0要查看chart请使用以下代码helm ls -n openebs之后您将获得带有chart名称和名称空间openebs的OpenEBS安装版本。您需要注意一些事项 从Kubernetes的1.12版本开始容器必须设置其极限值和资源请求否则容器将被逐出。在安装之前我们建议读者首先在YAML运算符中将值设置为OpenEBS pod spec。 在安装OpenEBS操作员之前请检查节点上块设备的安装状态。如果继续使用自定义安装模式则会遇到以下高级配置您可以为OpenEBS控制平面pod选择节点。节点选择也可用于OpenEBS存储池。如果不需要磁盘过滤器则可以简单地排除它们。在OpenEBS运营商YAML中有一个配置环境变量是可选的。如果您想采用自定义安装方式则需要下载openebs-operator-1.10.0更新配置然后使用“ kubectl”命令。设置控制平面的节点选择器如果您有一个很大的Kubernetes集群则可以故意将OpenEBS控制平面的调度过程限制为仅几个特定节点。对于此过程应该指定键值对的映射然后找到所需的群集节点以标签的形式附加相同的键值对。为准入控制设置节点选择器准入控制器的作用是在对象持久化之前截取已提交给Kubernetes的API服务器的请求。仅在授权或验证请求后才能执行此操作。为了验证传入请求openebs准入控制器制定其他自定义准入策略。例如这是最新版本的两种准入策略。如果存在PersistentVolumeClaim的克隆则通过删除PersistentVolumeClaim来完成验证。为了验证请求的声明容量该大小必须变为快照大小并由Clone PersistentVolumeClaim创建。我们可以使用节点选择器方法来调度特定节点上的准入控制器容器。对于节点磁盘管理器节点选择器设置对于OpenEBS cStorPool的构建可以使用块设备自定义资源也可以使用节点磁盘管理器创建块设备。如果您想过滤掉Kubernetes中的集群并且仅将某些节点用于OpenEBS存储则指定键值对并将相同的键值以标签的形式附加到必要的节点即可。节点磁盘管理器磁盘筛选器设置NDM的默认功能是分离出下面给出的磁盘模式然后将在特定节点上发现的其余磁盘模式转换为DISK CR。问题是不应安装它们。如果群集中还有其他类型的磁盘尚未过滤掉您要做的就是将其他磁盘模式包括到排除列表中。该列表位于YAML文件中。exclude:loop,/dev/fd0,/dev/sr0,/dev/ram,/dev/dm-配置环境变量在环境变量主题下提供了与默认cStor稀疏池本地PV基本路径默认存储配置和cStor Target相关的配置。启用核心转储对于NDM守护程序集和cStor池容器转储核心被禁用为默认设置的一部分。要启用此功能您需要将ENV变量“ ENABLE_COREDUMP”设置为1。然后您要做的就是在cStor池中部署ENV设置以在cStor池pod中启用转储核心并将ENV设置放入ndm守护程序规范中daemonset pod核心转储。- name: ENABLE_COREDUMP
value: 1稀疏目录SparseDir只是用于查找稀疏文件的hostPath目录。默认情况下该值设置为“ / var / openebs / sparse”。在应用OpenEBS运算符YAML文件之前应将某些配置添加为maya-apiserver规范中环境变量的一部分。# environment variable- name: SparseDirvalue: /var/lib/cStorSparsePool默认根据配置值OpenEBS安装过程将创建一个默认的cStor稀疏池。该配置完全取决于true和false的值。如果为true则将配置cStor稀疏池否则将不会进行配置。配置的默认值始终为false此稀疏池仅用于测试目的。如果要使用稀疏磁盘安装cStor则应在Maya-apiserver规范中以环境变量的形式添加此特定配置。这是一个例子# environment variable
- name: OPENEBS_IO_INSTALL_DEFAULT_CSTOR_SPARSE_POOLvalue: falseTargetDir目标目录用作目标容器的hostPath其默认值设置为“ / var / openebs”。该预值将覆盖主机路径并在maya-apiserver部署中引入OPENEBS_IO_CSTOR_TARGET_DIR ENV。当主机操作系统无法在默认的OpenEBS路径即/ var / openebs /上写入时通常需要这种类型的配置。与cStor SparsePool一样应在应用操作员YAML文件之前将某些配置作为环境变量添加到maya-apiserver规范中。这是一个例子# environment variable
- name: OPENEBS_IO_CSTOR_TARGET_DIRvalue: /var/lib/overlay/openebsOpenEBS本地PV基本路径对于基于主机路径的localPV默认的hospath为/ var / openebs / local。以后可以在OpenEBS operator的安装过程中对此进行更改。您要做的就是传递OPENEBS_IO_BASE_PATH ENV参数。# environment variable- name: OPENEBS_IO_BASE_PATHvalue: /mnt/默认存储配置Jiva和本地PV存储类是OpenEBS随附的一些默认存储配置。可以根据需要配置和定制OpenEBS中的存储引擎并通过关联的自定义资源和存储类来完成。在安装过程之后您始终可以更改存储的默认配置但是它会被API服务器覆盖。因此我们通常建议用户在默认选项的帮助下创建自己的存储配置。如果在安装过程中禁用默认配置则可以进行自己的存储配置类型。若要正确禁用默认配置请在Maya-apiserver中将以下代码行添加为环境变量。# environment variable
- name: OPENEBS_IO_CREATE_DEFAULT_STORAGE_CONFIGvalue: false验证安装过程要使用命名空间获取Pod列表请使用以下代码kubectl get pods -n openebs如果成功安装了OpenEBS则很可能会看到以下示例所示的输出openebs-ndm引用守护程序集该守护程序集应在集群的所有节点上运行或者至少在nodeSelector配置期间选择的节点上运行。同样maya-apiserveropenebs-snapshot-operator和openebs-provisioner控制平面容器也应该正在运行。如果已经配置了nodeSelector请确保将它们安排在正确的节点上。为此请使用“ Kubectly get pods -n openebs -o wide”列出容器。验证存储类首先通过列出以下内容检查OpenEBS是否已安装默认存储类kubectl get sc供您参考以下是成功安装后将看到的输出示例。您将找到创建的给定StorageClasses验证块设备CR对于NDM守护程序集创建的每个块设备CR发现的节点具有以下两个例外与排除供应商过滤器和“路径过滤器”匹配的磁盘。节点上已经挂载的磁盘。要检查CR是否如预期的那样来临请使用以下命令列出块设备CR。kubectl get blockdevice -n openebs如果以正确的方式进行操作屏幕上将显示类似的输出之后使用以下命令检查节点上的标签集以找到节点的相应块设备CR。kubectl describe blockdevice blockdevice-cr -n openebs验证Jiva默认池kubectl get sp达到上述要求后您可能会看到以下输出安装后要考虑的事项安装后可以使用以下存储类来简单地测试OpenEBS要配置Jiva卷请使用openebs-jiva-default。在这里使用默认池并在mnt/openebs_disk目录下创建数据的副本。该目录位于Jiva副本窗格中。要在主机路径上配置本地PV请使用openebs-host路径。要在设备上配置本地PV请使用openebs-device。要使用实际磁盘必须首先根据要求创建Jiva池cStorPools或OpenEBS Local PV。之后创建所需的StorageClasses或使用默认的StorageClasses进行使用。