当前位置: 首页 > news >正文

手机网站的特效建设网站和app

手机网站的特效,建设网站和app,做app模板下载网站,郑州做网站 哪家好译者#xff1a;王乐这部文档是面对想要学习Kubernetes集群的读者。如果你对入门指南已经可以满足你对这个列表上所列的需求#xff0c;我们建议你继续阅读这个#xff0c;因为他是根据前人积累经验所写的新手指南。当然如果除了学习入门指南知识外还希望学习IaaS#xff0…译者王乐这部文档是面对想要学习Kubernetes集群的读者。如果你对入门指南已经可以满足你对这个列表上所列的需求我们建议你继续阅读这个因为他是根据前人积累经验所写的新手指南。当然如果除了学习入门指南知识外还希望学习IaaS网络配置管理或对操作系统有特殊要求这个指南将会提供给学习者一个指导性的概述及思路。设计和准备学习1. 你应该已经熟悉Kubernetes了。我们建议根据 其他入门指南架设一个临时的集群。这样可以帮助你先熟悉Kubernetes命令行(kubectl)和一些概念(pods, services, 等等)。2. 当你浏览完其他入门指南的时候你应该已经安装好了 kubectl 。如果没有你可以根据这个说明安装。Cloud ProviderKubernetes有一个概念叫Cloud Provider是指一个提供管理TCP负载均衡节点(实例)和路由器接口的模块。 pkg/cloudprovider/cloud.go 里具体定义了这个接口。 当然你也可以不用实现这个Cloud Provider去新建一个自定义的聚群(例如使用裸机集群)。取决于不同部件是如何设置的并不是所有接口都需要实现的。node(节点)你可以使用虚拟机或物理机。为了运行本指南给出的例子和测试用例你最好有4个节点以上。虽说很多入门指南讲主节点和普通节点做了区分但严格意义上讲这不是必要的。节点需要运行在x86_64的Linux系统上。当然也可能运行在其他的系统和CPU架构上但这个指南不会提供相关的帮助。对于一个拥有10个以上节点的集群来说Apiserver和etcd可以一起安装在一台1核和1GB内存的机子上。你可以给其他节点可以分配合理的内存和CPU内核。不是所有节点需要同样的配置。网络Kubernetes有一个独特的网络模型.Kubernetes给每一个pod分配IP地址。当你新建一个集群为了保证Pod获得IP地址你需要给Kubernetes分配一个IP地址池。最简单的做法是每当节点与节点之间的通信可以以一下两种方式实现(1)配置网络完成Pod的IP地址路由因为一切从头开始所以难度会大一些。Google Compute Engine (GCE) 和 AWS会指导如何使用这种方式需要编程配置路由器和交换机去实现Pod的IP地址路由。可在Kubernetes环境外配置或者通过在Cloud Provider模块的“路由”接口里实现。通常情况下提供最优网络性能。(2)建立一个拓扑网络较容易建立因为数据流量被封装所以每个Pod的IP地址是可以路由的。例如FlannelWeaveOpen vSwitch (OVS)不需要CLoud Provider模块里的“路由”部分较为不太理想的性能(具体的性能弱化取决于你的实际情况)你需要为Pod所需要的IP地址选一个IP地址范围。(3)一些可选择配置方式GCE每一个项目有一个自己的IP子网“10.0.0.0/8”。项目中的每一个Kubernetes集群从中获得一个“/16”的子网。每一个节点从’/16’的子网里获IP地址。AWS在一个组织内使用一个VPC。从中分配地址给每一个聚群或者使用给不同的集群分配不同的VPC。暂不支持支持IPv6(4)给每一的node的Pod地址分配一个CIDR子网或者一个你总共需要max-pods-per-node * max-number-of-nodes个IP地址。一个“/24” 如果缺少IP地址一个“/26”(62个节点)或者“/27”(30个节点)也能满足。例如使用“10.10.0.0/16” “10.10.0.0/24” “10.10.255.0/24”需要路由设置或连接到拓扑网络Kubernetes 会给每个service分配一个IP地址。 但是service的地址并不一定是可路由的。当数据离开节点时kube-proxy需要将Service IP地址翻译成Pod IP地址。因此你需要给Service也分配一个地址段。这个网段叫做“SERVICE_CLUSTER_IP_RANGE”。例如你可以这样设置“SERVICE_CLUSTER_IP_RANGE”10.0.0.0/16”这样的话就会允许65534个不同的Service同时运行。请注意你可以调整这个IP地址段。但不允许在Service和Pod运行的时候移除这个网段。同样你需要为主节点选一个静态IP地址。 命名这个IP地址为“MASTER_IP”。 配置防火墙从而允许访问apiserver端口80和443。 使用sysctl设置”net.ipv4.ip_forward 1“从而开启IPv4 forwarding。集群命名为你的集群选个名字。要选一个简短不会和其他服务重复的名字。用kubectl来访问不同的集群。比如当你想在其他的区域测试新的Kubernetes版本。Kubernetes集群可以建立一个Cloud Provider资源(例如AWS ELB)。所以不同的集群要能区分他们之间的相关资源这个名字叫做“CLUSTERNAME”。软件安装包你需要以下安装包etcd以下容器二选一:dockerrktKuberneteskubeletkube-proxykube-apiserverkube-controller-managerkube-scheduler下载和解压缩Kubernetes安装Kubernets安装版本包包含所有Kuberentes的二进制发行版本和所对应的etcd。你可使直接使用这个二进制发行版本(推荐)或者按照开发者文档说明编译这些Kubernetes的二进制文件。 本指南只讲述了如何直接使用二进制发行版本。 下载最新安装版本并解压缩。之后找到你下载“./kubernetes/server/kubernetes-server-linux-amd64.tar.gz”的路径 并解压缩这个压缩包。然后在其中找到“./kubernetes/server/bin”文件夹。里面有所所需的可运行的二进制文件。选择安装镜像在容器外运行dockerkuberlet和kube-proxy就像你运行任何后台系统程序。所以你只需要这些基本的二进制运行文件。etcd kube-apiserver kube-controller-manager和kubescheduler我们建议你在容器里运行etcd kube-apiserver kube-controller-manager和kube-scheduler。所以你需要他们的容器镜像。 你可以选择不同的Kubernetes镜像你可以使用Google Container Registry (GCR)上的镜像文件例如“gcr.io/google_containers/hyperkube:$TAG”。这里的“TAG”是指最新的发行版本的标示。这个表示可以从最新发行说明找到。确定$TAG和你使用的kubeletkube-proxy的标签是一致的。hyperkube是一个集成二进制运行文件你可以使用“hyperkube kubelet …”来启动kubelet 用“hyperkube apiserver …”运行apiserver 等等。生成你自己的镜像使用私有镜像服务器。例如可以使用“docker load -i kube-apiserver.tar”将“./kubernetes/server/bin/kubeapiserver.tar”文件转化成dokcer镜像。之后可使用“docker images”来验证镜像是否从制定的镜像服务器加载成功。对于etcd你可以使用上Google Container Registry (GCR)的镜像例如“gcr.io/google_containers/etcd:2.0.12”使用Docker Hub或着Quay.io上的镜像例如“quay.io/coreos/etcd:v2.2.0”使用你操作系统自带的etcd自己编译你可以使用这个命令行“cd kubernetes/cluster/images/etcd; make”我们建议你使用Kubernetes发行版本里提供的etcd版本。Kubernetes发行版本里的二进制运行文件只是和这个版本的etcd测试过。你可以在“kubernetes/cluster/images/etcd/Makefile”里“ETCD_VERSION”所对应的值找到所推荐的版本号。 接下来本文档会假设你已经选好镜像标示并设置了对应的环境变量。 设置好了最新的标示和正确的镜像服务器“HYPERKUBE_IMAGEgcr.io/google_containers/hyperkube:$TAG”“ETCD_IMAGEgcr.io/google_containers/etcd:$ETCD_VERSION”安全模式这里有两种主要的安全选项使用HTTP访问apiserver配合使用防火墙。这种方法比较易用。使用HTTPS访问apiserver配合电子证书和用户登录信息使用。推荐使用设置电子证书较为复杂。如果要用HTTPS这个方式你需要准备电子证书和用户登录信息。准备安全证书你需要准备多个证书主节点会是一个HTTPS服务器所以需要一个证书。如果Kuberlets需要通过HTTPS提供API服务时这些kuberlets需要出示证书向主节点证明主从关系。除非你决定要一个真正CA来生成这些证书的话你需要一个根证书并用这个证书来给主节点kuberlet和kubectl的证书签名。参见“cluster/gce/util.sh”脚本里的“create-certs”并参见“cluster/saltbase/salt/generate-cert/make-ca-cert.sh”和cluster/saltbase/salt/generate-cert/make-cert.sh“你需要修改以下部分(我们之后也会用到这些参数的)”CA_CERT“放置在apiserver所运行的节点上比如“/srv/kubernetes/ca.crt”。“MASTER_CERT”用CA_CERT来签名放置在apiserver所运行的节点上比如”/srv/kubernetes/server.crt”。“MASTER_KEY“放置在apiserver所运行的节点上比如”/srv/kubernetes/server.key“。“KUBELET_CERT”可选配置”KUBELET_KEY“可选配置准备登录信息管理员(及任何用户)需要对应验证身份的令牌或密码。令牌可以是长字符串比如 32个字符可参见”TOKEN$(dd if/dev/urandom bs128 count1 2/dev/null | base64 | tr -d”/” | dd bs32 count1 2/dev/null)““你的令牌和密码需要保存在apiserver上的一个文件里。本指南使用这个文件”/var/lib/kubeapiserver/known_tokens.csv“。文件的具体格式在认证文档里描述了。 至于如何把登录信息分发给用户Kubernetes是将登录信息放入kubeconfig文件里。管理员可以按如下步骤创建kubeconfig文件如果你已经在非客制化的集群上运行过Kubernetes(例如按照入门指南架设过Kubernetes)那么你已经有“$HOME/.kube/config”文件了。你需要在kuberconfig文件里添加证书密钥和主节点IP1、如果你选择了“firewall-only”的安全设置你需要按如下设置apiserver2、“kubectl config set-cluster $CLUSTER_NAME –serverhttp://$MASTER_IP –insecure-skip-tls-verifytrue”3、否则按如下设置你的apiserver的IP证书用户登录信息4、“kubectl config set-cluster $CLUSTER_NAME –certificate-authority$CA_CERT –embed-certstrue –serverhttps://$MASTER_IP”5、“kubectl config set-credentials $USER –client-certificate$CLI_CERT –clientkey$CLI_KEY –embed-certstrue –token$TOKEN”6、设置你的集群为缺省集群7、“kubectl config set-context $CONTEXT_NAME –cluster$CLUSTER_NAME –user$USER”8、“kubectl config use-context $CONTEXT_NAME”接下来为kubelets和kube-proxy准备kubeconfig文件。至于要准备多少不同的文件这里有几个选项1. 使用和管理员同样的登陆账号这是最简单的建设方法。2. 所有的kubelet使用同一个令牌和kubeconfig文件另外一套给所有的kube-proxy使用在一套给管理员使用。这个设置和GCE的配置类似。3. 为每一个kubeletkube-proxy和管理员准备不同的登陆账号。这个配置在实现中目前还不支持。为了生成这个文件你可以参照“cluster/gce/configure-vm.sh”中的代码直接从“$HOME/.kube/config”拷贝过去或者参考以下模版apiVersion: v1kind: Configusers:- name: kubeletuser:token: ${KUBELET_TOKEN}clusters:- name: localcluster:certificate-authority-data: ${CA_CERT_BASE64_ENCODED}contexts:- context:cluster: localuser: kubeletname: service-account-contextcurrent-context: service-account-context把kubeconfig文件放置到每一个节点上。本章节之后的事例会假设kubeconfig文件已经放置在“/var/lib/kube-proxy/kubeconfig”和“/var/lib/kubelet/kubeconfig”里。在节点上配置和安装基础软件这个章节讨论的是如歌配置Kubernetes节点。 你应该在每个节点运行三个后台进程docker or rktkubelet *kube-proxyDocker容器对最低Docker版本的要求是随着kubelet的版本变化的。最新的稳定版本通常是个好选择。如果版本太低Kubelet记录下警报并拒绝运行pod所以你可以选择个版本试一下。如果你之前安装Docker的节点没有Kubernetes相关的配置你可能已经有Docker新建的网桥和iptables的规则。所以你或许希望在为Kubernetes配置Docker前根据以下命令移除之前的配置。iptables -t nat -Fifconfig docker0 downbrctl delbr docker0如何配置Docker取决于你网络是基于routable-vip还是overlay-network。 这里有一些建议的Docker选项为每一个节点的CIDR网断建立你自己的网桥命名为cbr0并为docker设置 –bridgecbr0 。配置 –iptablesfalse 所以docker不会为host-port设置iptables(这个控制在docker旧版本不够细致以后会在新版本里修复)所以kube-proxy可以代替docker来设置iptables。–ip-masqfalse如果你将PodIP设置为可路由寻址你会希望将这个选项设置为false。否则docker会将NodeIP重写为PodIP的源地址。一些环境(例如,GCE)下需要伪装(masquerade)离开这个云环境的流量。这个配置是取决于具体的云环境的。如果你在使用overlay网络请参考其他资料。–mtu但使用Flannel的时候需要这个选项。 因为UDP包封装造成过大的数据包。–insecure-registry $CLUSTER_SUBNET为链接没有SSL安全链接的私有registry。你或许希望为Docker提高可以打开文件的数目DOCKER_NOFILE1000000 这里的设置取决于你的节点的操作系统。比如GCE上基于Debian的发行版本使用 /etc/default/docker 这个配置文件。在进行下一步安装前可以参考Docker文档里的实例来确保docker在你的系统上正常工作。rktrkt是类似Docker的技术。你只需要二选一安装Docker或者rkt。最低的版本是v0.5.6。systemd是在节点上运行rkt必须的。与rkt v0.5.6所对应的最低版本是systemd 215。rkt metadata service也是必须安装的来支持rtk的网络部分。你可以用以下命令来运行rkt的metadata服务 sudo systemd-run rkt metadata-service接下来你需要来设置kubelet的标记--container-runtimerktkubelet所有的节点都要运行kubelet。可参考的参数如果选择HTTPS的安全配置–api-servershttps://$MASTER_IP–kubeconfig/var/lib/kubelet/kubeconfig否则使用防火墙的安全配置–api-servershttp://$MASTER_IP–config/etc/kubernetes/manifests–cluster-dns 是用来配置DNS服务器的地址(参考Starting Addons.)–cluster-domain 是为DNS集群地址使用的DNS域名前缀。–docker-root–root-dir–configure-cbr0 (参考之前的介绍)–register-node (参考章节节点.)kube-proxy所有的节点都要运行kube-proxy。(并不一定要在主节点上运行kube-proxy但最好还是与其它节点保持一致) 可参考如何获得kubelet二进制运行包来获得kube-proxy二进制运行包。可参考的参数如果选择HTTPS的安全配置–api-servershttps://$MASTER_IP–kubeconfig/var/lib/kube-proxy/kubeconfig否则使用防火墙的安全配置–api-servershttp://$MASTER_IP网络为了pod的网络通信需要给每一个节点分配一个自己的CIDR网段。这个叫做 NODE_X_POD_CIDR 。需要给每一个节点新建一个叫 cbr0 网桥。网桥会在networking documentation里做详细介绍。约定俗成$NODE_X_POD_CIDR 里的第一个IP地址作为这个网桥的IP地址。这个地址叫做 NODE_X_BRIDGE_ADDR 。比如 NODE_X_POD_CIDR 是 10.0.0.0/16 那么 NODE_X_BRIDGE_ADDR 是 10.0.0.1/16 。注意这里用 /16 这个后缀是因为之后也会这么使用。推荐的自动化步骤:1. 在初始化的脚本里设置kubelet的选项为 –configure-cbr0true 并重启kubelet服务。Kubelet会自动设置cobr0. 它会一直等待直到节点controller正确设置Node.Spec.PodCIDR。因为你目前还没有设置好apiserver和节点controller所以网桥不会马上完成设置。人工步骤:1. 设置kubelet的选项 –configure-cbr0false 并重启kubelet。2. 新建网桥比如 brctl addbr cbr0 .3. 设定合适的MTU比如 ip link set dev cbr0 mtu 1460 (注意: 真实的MTU值是由你的网络环境所决定的)4. 把集群网络加入网桥(docker会连接在这个网桥的另一端)。比如 ip addr add $NODE_X_BRIDGE_ADDR dev cbr05. 开启网桥比如 ip link set dev cbr0 up在你关闭了Docker的IP伪装的情况下为了让pod之间相互通信你可能需要为去往集群网络外的流量做目的IP地址伪装例如iptables -t nat -A POSTROUTING ! -d ${CLUSTER_SUBNET} -m addrtype ! --dst-type LOCAL -jMASQUERADE这样会重写从PodIP到节点IP的数据流量的原地址。内核connection tracking会确保发向节点的回复能够到达pod。注意: 需不需要IP地址伪装是视环境而定的。在一些环境下是不需要IP伪装的。例如GCE这样的环境从pod发出的数据是不允许发向Interent的但如果在同一个GCE项目里是不会有问题的。其他如果需要为你的系统安装包管理器开启自动升级。为所有的节点设置日志轮询(比如使用logrotate)。建立liveness-monitoring (比如使用monit)。建立存储插件的支持(可选)为可选的存储类型安装所需的客户端程序比如为GlusterFS安装 glusterfsclient。使用配置管理工具之前架设服务器的步骤都是使用“传统”的系统管理方式。你可以尝试使用系统配置工具来自动化架设流程。你可以参考其他入门指南比如使用Saltstack Ansible Juju和CoreOSCloud Config。引导安装集群通常情况下基本的节点服务(kubelet kube-proxy和docker)都是由传统的系统配置方式完成建立和管理的。其他的Kubernetes的相关部分都是由Kubernetes本身来完成配置和管理的配置和管理的选项在Pod spec(yaml or json)而不是/etc/init.d文件或systemd unit里定义的。他们都是由Kubernetes而不是init来负责运行的。etcd你需要运行一个或多个etcd实例。推荐方式: 运行一个etcd实例将日志保存在类似RAIDGCE PD的永久存储空间上。或者: 运行3个或者5个etcd实例。日志可以保存在 Log can be written to non-durable storage because storage isreplicated.运行一个apiserver这个apiserver连接到其中一个etc实例上。 参见clustertroubleshooting获取更多的有关集群可用性的信息。启动一个etcd实例:1.复制 cluster/saltbase/salt/etcd/etcd.manifest 2.做有必要的设置修改 3.将这个文件放到kubelet mainfest的文件夹中ApiserverController Manager和Scheduler在主节点上apiservercontroller managerscheduler会运行在各自的pod里。启动以上三个服务的步骤大同小异1. 从为pod所提供的template开始。2. 设置 HYPERKUBE_IMAGE 的值为选择安装镜像中所设置的值。3. 可参考以下的template来决定你集群所需的选项。4. 在 commands 列表里设置所需的运行选项(例如$ARGN)。5. 将完成的template放在kubelet manifest的文件夹内。6. 验证pod是否运行。Apiserver pod模版{kind: Pod,apiVersion: v1,metadata: {name: kube-apiserver},spec: {hostNetwork: true,containers: [{name: kube-apiserver,image: ${HYPERKUBE_IMAGE},command: [/hyperkube,apiserver,$ARG1,$ARG2,...$ARGN],ports: [{name: https,hostPort: 443,containerPort: 443},{name: local,hostPort: 8080,containerPort: 8080}],volumeMounts: [{name: srvkube,mountPath: /srv/kubernetes,readOnly: true},{name: etcssl,mountPath: /etc/ssl,readOnly: true}],livenessProbe: {httpGet: {path: /healthz,port: 8080},initialDelaySeconds: 15,timeoutSeconds: 15}}],volumes: [{name: srvkube,hostPath: {}},{name: etcssl,hostPath: {path: /etc/ssl}}]}}可选设置的apiserver的选项–cloud-provider 参见 cloud providers–-cloud-config 参见 cloud providers如果你想在主节点运行proxy你需要设置 —address${MASTER_IP} 或者 –bindaddress127.0.0.1 和 –address127.0.0.1 。–cluster-name$CLUSTER_NAME–service-cluster-ip-range$SERVICE_CLUSTER_IP_RANGE–etcd-servershttp://127.0.0.1:4001–tls-cert-file/srv/kubernetes/server.cert–tls-private-key-file/srv/kubernetes/server.key–admission-control$RECOMMENDED_LIST参考 admission controllers.只有当你相信你的集群用户可以使用root权限来运行pod时开启这个选项 –allowprivilegedtrue ,如果你是按照firewall-only的安全方式来配置的你需要以下设置–token-auth-file/dev/null—insecure-bind-address$MASTER_IP–advertise-address$MASTER_IP如果你是按照HTTPS的安全方式来配置的你需要以下设置–client-ca-file/srv/kubernetes/ca.crt–token-auth-file/srv/kubernetes/known_tokens.csv–basic-auth-file/srv/kubernetes/basic_auth.csv这个pod使用 hostPath 加载多个节点文件系统目录。这些加载的目录的用途是加载 /etc/ssl 目录可以允许apiserver找到SSL根证书从而验证例如云服务提供商所提供的外部服务。如果你不使用任何云服务提供商你就不需要配置这里(比如只使用物理裸机)。加载 /srv/kubernetes 目录可以允许读取存储在节点磁盘上的证书和认证信息。可选, 你也可以加在 /var/log 目录从而将日志记录在这个目录里(没有在template里举例标明)。如果你想用类似journalctl的工具从根文件系统来访问日志的话可以加载这个目录。 TODO 描述如何架设proxy-ssh。Cloud ProvidersApiserver支持多个cloud providers。–cloud-provider 选项的值可以是 aws gce mesos openshift ovirt rackspace vagrant 或者不´未设置。未设置选项可以用来设置物理裸机。在这里添加新的IaaS。一些cloud providers需要配置文件。这种情况下你需要将配置文件放置在apiserver的镜像中或者通过 hostPath 来加载。如果cloud providers需要配置文件设置 —cloud-config 这个选项。aws gce mesos openshift ovirt 和 rackspace 会使用到这个选项。你必须需要将配置文件放置在apiserver的镜像中或者通过 hostPath 来加载。云配置文件的语法Gcfg。AWS格式是用类型来定义的AWSCloudConfig。其他的云服务提供商也有类似的对应文件。比如在GCE里: 在这个文件找 gce.conf 字节。Scheduler pod template完成scheduler pod的template{kind: Pod,apiVersion: v1,metadata: {name: kube-scheduler},spec: {hostNetwork: true,containers: [{name: kube-scheduler,image: $HYBERKUBE_IMAGE,command: [/hyperkube,scheduler,--master127.0.0.1:8080,$SCHEDULER_FLAG1,...$SCHEDULER_FLAGN],livenessProbe: {httpGet: {host : 127.0.0.1,path: /healthz,port: 10251},initialDelaySeconds: 15,timeoutSeconds: 15}}]}}通常不需要额外设置scheduler。你或许想加载 /var/log 并将输出记录在这个日志目录里。Controller Manager Template完成controller manager pod的template{kind: Pod,apiVersion: v1,metadata: {name: kube-controller-manager},spec: {hostNetwork: true,containers: [{name: kube-controller-manager,image: $HYPERKUBE_IMAGE,command: [/hyperkube,controller-manager,$CNTRLMNGR_FLAG1,...$CNTRLMNGR_FLAGN],volumeMounts: [{name: srvkube,mountPath: /srv/kubernetes,readOnly: true},{name: etcssl,mountPath: /etc/ssl,readOnly: true}],livenessProbe: {httpGet: {host: 127.0.0.1,path: /healthz,port: 10252},initialDelaySeconds: 15,timeoutSeconds: 15}}],volumes: [{name: srvkube,hostPath: {path: /srv/kubernetes}},{name: etcssl,hostPath: {path: /etc/ssl}}]}}配合controller manager所使用的选项–cluster-name$CLUSTER_NAME—cluster-cidrTODO: 解释这个选项–allocate-node-cidrsTODO: 解释这个选项–cloud-provider 和 –cloud-config 在apiserver章节里解释过。–service-account-private-key-file/srv/kubernetes/server.key 这个值是serviceaccount功能所使用的。–master127.0.0.1:8080运行和验证ApiserverScheduler和Controller Manager将每个完成的pod template放置在kubelet的配置文件夹中(文件夹地址是在kubelet的 –config 选项所指向的地址 通常是 /etc/kubernetes/manifests )。没有放置顺序关系:scheduler和controller manager会一直尝试连接到apiserver直到连接成功。用 ps 或者 docker ps 来检测每一个进程是否正常运行。 比如你可以这样看apiserver的容器是否被kubelet启动了$ sudo docker ps | grep apiserver:5783290746d5 gcr.io/google_containers/kube-apiserver:e36bf367342b5a80d7467fd7611ad873........之后尝试连接apiserver:$ echo $(curl -s http://localhost:8080/healthz)ok$ curl -s http://localhost:8080/api{versions: [v1]}如果kubelets使用 –register-nodetrue 这个选项他们会开始自动注册到apiserver上。很快你就可以使用 kubectl get nodes 命令看到所有的节点。否则你需要手动注册这些节点。日志TODO 如何开启日志。监控TODO 如何开启监控。DNSTODO 如何运行DNS。故障排除运行validate-clusterTODO 解释如何运行“cluster/validate-cluster.sh”。检查pods和services你可以尝试这阅读“检查的集群”这一节例如GCE。你应该检查Service。通过“mirro pods”去检查apiserverscehduler和controller-manager以及运行的插件。例子到这里你应该能够运行一些基本的实例了例如nginx example。运行测试你可以试着运行一致性测试. 测试失败的结果可能会给你些排除故障的线索。网络节点之间必须用私有IP链接。可以通过ping或者SSH来确定节点之间的联通。
http://www.zqtcl.cn/news/125549/

相关文章:

  • seo网站优化服务网站开发电脑
  • 宿迁怎样建设网站wordpress 分类目录 标签
  • 惠州双语网站建设费用seo搜索工具栏
  • 做ppt会去什么网站找图网页制作与网站建设试题
  • 如何用ai给网站做logo宝安网站制作公司
  • sem是什么职业岗位单页式网站 seo
  • 做网站用什么版本系统国外有哪些设计网站推荐
  • dz论坛怎么做视频网站吗哪些公司是wordpress
  • 在微信怎样搞做微视频网站商城小程序模板源码完整版
  • h5跟传统网站有啥区别读取wordpress最新文章
  • 网站推广120最超值的网站建设
  • 移动网站制作公司如何开公司做网站
  • 网站建设 青海试题wordpress的特点
  • 源码如何做网站宽甸县建设局网站
  • 用dw做的网页怎么连到网站上企业网站备案资料填写单
  • 中文 网站模板企业怎么建设网站
  • 建设户外腰包网站哪个网站注册域名好
  • 六安网站建设价格小学生编程网课前十名
  • 绵阳网站建设信赖辉煌wordpress多账号权限
  • 网站外链快速建设网站维护要学多久
  • 做网站都是用ps吗郑州网站设计培训
  • wordpress 多站点教程厦门做网站维护的公司
  • 婚纱网站建设需求分析wordpress js图片
  • seo网站怎么优化有哪些企业网站平台
  • 响应式中文网站欣赏wordpress 带分页的主题
  • 什么样的网站可以做站内站房地产的设计网站建设
  • 成都住房和城乡建设局 网站首页深圳西乡建网站
  • 商城类的网站一般怎么做开发app软件的步骤
  • 招聘网站做销售怎么样做网站后台学什么专业
  • 帮别人做彩票网站餐饮网站建设需求分析