北京网站开发品牌,网页微信版登陆看不到聊天记录吗,建立劳动关系时间从何时算起,seo短视频入口引流一、安装方式介绍 1、yum 安装 目前CentOS官方已经把Kubernetes源放入到自己的默认 extras 仓库里面#xff0c;使用 yum 安装#xff0c;好处是简单#xff0c;坏处也很明显#xff0c;需要官方更新 yum 源才能获得最新版本的软件#xff0c;而所有软件的依赖又不能自己指…一、安装方式介绍 1、yum 安装 目前CentOS官方已经把Kubernetes源放入到自己的默认 extras 仓库里面使用 yum 安装好处是简单坏处也很明显需要官方更新 yum 源才能获得最新版本的软件而所有软件的依赖又不能自己指定尤其是你的操作系统版本如果低的话使用 yum 源安装的 Kubernetes 的版本也会受到限制通常会低于官方很多版本我安装的时候目前官方版本为1.12而 yum 源中的版本为1.5.2。 2、二进制安装 使用二进制文件安装好处是可以安装任意版本的 Kubernetes坏处是配置比较复杂很多软件包因为一些原因我们在大陆是访问不到的。请查看博文http://blog.51cto.com/wzlinux/2322345 3、Kubeadm 安装 kubeadm 是 Kubernetes 官方提供的用于快速安装 Kubernetes 集群的工具伴随Kubernetes每个版本的发布都会同步更新kubeadm会对集群配置方面的一些实践做调整通过实验 kubeadm 可以学习到 Kubernetes 官方在集群配置上一些新的最佳实践。 1.4 版本对于Linux主要发行版本Ubuntu Xenial和Red Hat centos7的用户可以使用熟悉的 apt-get 和 yum 来直接安装 Kubernetes。再比如1.4版本引入了 kubeadm 命令将集群启动简化为两条命令不需要再使用复杂的kube-up脚本。 Kubernetes 的官方文档更新的速度太快了我们注意到在 Kubernetes 1.9 的文档Using kubeadm to Create a Cluster中已经给出了目前1.9的 kubeadm 的主要特性已经处于beta状态了在2018年将进入GA状态说明kubeadm离可以在生产环境中使用的距离越来越近了这也是我们以后注意使用的安装方式但是为了了解其中的安装过程我们先从其他两种安装方式入手。请查看博文http://blog.51cto.com/wzlinux/2322616 这里我们选用第一种方式安装。 二、主要组件说明 1、Master组件 Master组件提供集群的管理控制中心。 Master组件可以在集群中任何节点上运行。但是为了简单起见通常在一台VM/机器上启动所有Master组件并且不会在此VM/机器上运行用户容器 kube-apiserverkube-apiserver用于暴露Kubernetes API。任何的资源请求/调用操作都是通过kube-apiserver提供的接口进行。 etcdetcd是Kubernetes提供默认的存储系统保存所有集群数据使用时需要为etcd数据提供备份计划。 kube-controller-managerkube-controller-manager运行管理控制器它们是集群中处理常规任务的后台线程。逻辑上每个控制器是一个单独的进程但为了降低复杂性它们都被编译成单个二进制文件并在单个进程中运行。 kube-schedulerkube-scheduler 监视新创建没有分配到Node的Pod为Pod选择一个Node。2、Node 组件 kubeletkubelet是主要的节点代理它会监视已分配给节点的pod具体功能 安装Pod所需的volume。下载Pod的Secrets。Pod中运行的 docker或experimentallyrkt容器。定期执行容器健康检查。Reports the status of the pod back to the rest of the system, by creating a mirror pod if necessary.Reports the status of the node back to the rest of the system. kube-proxykube-proxy通过在主机上维护网络规则并执行连接转发来实现Kubernetes服务抽象。 dockerdocker用于运行容器。 flannelFlannel 是 CoreOS 团队针对 Kubernetes 设计的一个覆盖网络Overlay Network工具需要另外下载部署。我们知道当我们启动 Docker 后会有一个用于和容器进行交互的 IP 地址如果不去管理的话可能这个 IP 地址在各个机器上是一样的并且仅限于在本机上进行通信无法访问到其他机器上的 Docker 容器。Flannel 的目的就是为集群中的所有节点重新规划 IP 地址的使用规则从而使得不同节点上的容器能够获得同属一个内网且不重复的 IP 地址并让属于不同节点上的容器能够直接通过内网 IP 通信。三、环境准备 1、节点准备 IP角色主要组件172.18.8.200masterkubernetes-masterkube-apiserverkube-apiserverkube-controller-managerkube-schedulerkubeletetcd172.18.8.201node01kubernetes-nodedockerkubeletkube-proxyflannel172.18.8.202node02kubernetes-nodedockerkubeletkube-proxyflannel节点及网络规划图如下 2、现在仓库中的版本 软件版本kubernetes-master1.5.2-0.7.git269f928.el7kubernetes-node1.5.2-0.7.git269f928.el7CentOS 7.5CentOS Linux release 7.5.1804Dockerdocker-1.13.1-75etcd3.2.22-1.el7flannel0.7.1-4.el73、环境准备 修改文件/etc/hostname。编辑文件/etc/hosts增加如下内容 172.18.8.200 master.wzlinux.com master
172.18.8.201 node01.wzlinux.com node01
172.18.8.202 node02.wzlinux.com node02 关闭防火墙。 systemctl stop firewalld.service
systemctl disable firewalld.service 关闭SELinux。 sed -i s#SELINUXenforcing#SELINUXdisabled#g /etc/selinux/config
setenforce 0 关闭swap。 swapoff -a
sed -i s/.*swap.*/#/ /etc/fstab 四、安装 master 节点 1、软件安装 安装需要的软件。 yum install kubernetes-master etcd -y 修改共用的配置文件/etc/kubernetes/config修改master节点因为我们都在一台机器上面不修改也可以。 ###
# kubernetes system config
#
# The following values are used to configure various aspects of all
# kubernetes services, including
#
# kube-apiserver.service
# kube-controller-manager.service
# kube-scheduler.service
# kubelet.service
# kube-proxy.service
# logging to stderr means we get it in the systemd journal
KUBE_LOGTOSTDERR--logtostderrtrue# journal message level, 0 is debug
KUBE_LOG_LEVEL--v0# Should this cluster be allowed to run privileged docker containers
KUBE_ALLOW_PRIV--allow-privilegedfalse# How the controller-manager, scheduler, and proxy find the apiserver
KUBE_MASTER--masterhttp://172.18.8.200:8080 2、配置 etcd 因为我们很多服务使用到etcd所以我们首先配置etcd服务。在master节点上编辑文件/etc/etcd/etcd.conf修改为如下内容主要是修改监听IP [rootmaster ~]# cat /etc/etcd/etcd.conf
#[Member]
#ETCD_CORS
ETCD_DATA_DIR/var/lib/etcd/default.etcd
#ETCD_WAL_DIR
#ETCD_LISTEN_PEER_URLShttp://localhost:2380
ETCD_LISTEN_CLIENT_URLShttp://0.0.0.0:2379
#ETCD_MAX_SNAPSHOTS5
#ETCD_MAX_WALS5
ETCD_NAMEdefault
#ETCD_SNAPSHOT_COUNT100000
#ETCD_HEARTBEAT_INTERVAL100
#ETCD_ELECTION_TIMEOUT1000
#ETCD_QUOTA_BACKEND_BYTES0
#ETCD_MAX_REQUEST_BYTES1572864
#ETCD_GRPC_KEEPALIVE_MIN_TIME5s
#ETCD_GRPC_KEEPALIVE_INTERVAL2h0m0s
#ETCD_GRPC_KEEPALIVE_TIMEOUT20s
#
#[Clustering]
#ETCD_INITIAL_ADVERTISE_PEER_URLShttp://localhost:2380
ETCD_ADVERTISE_CLIENT_URLShttp://0.0.0.0:2379
#ETCD_DISCOVERY
#ETCD_DISCOVERY_FALLBACKproxy
#ETCD_DISCOVERY_PROXY
#ETCD_DISCOVERY_SRV
#ETCD_INITIAL_CLUSTERdefaulthttp://localhost:2380
#ETCD_INITIAL_CLUSTER_TOKENetcd-cluster
#ETCD_INITIAL_CLUSTER_STATEnew
#ETCD_STRICT_RECONFIG_CHECKtrue
#ETCD_ENABLE_V2true
#
#[Proxy]
#ETCD_PROXYoff
#ETCD_PROXY_FAILURE_WAIT5000
#ETCD_PROXY_REFRESH_INTERVAL30000
#ETCD_PROXY_DIAL_TIMEOUT1000
#ETCD_PROXY_WRITE_TIMEOUT5000
#ETCD_PROXY_READ_TIMEOUT0
#
#[Security]
#ETCD_CERT_FILE
#ETCD_KEY_FILE
#ETCD_CLIENT_CERT_AUTHfalse
#ETCD_TRUSTED_CA_FILE
#ETCD_AUTO_TLSfalse
#ETCD_PEER_CERT_FILE
#ETCD_PEER_KEY_FILE
#ETCD_PEER_CLIENT_CERT_AUTHfalse
#ETCD_PEER_TRUSTED_CA_FILE
#ETCD_PEER_AUTO_TLSfalse
#
#[Logging]
#ETCD_DEBUGfalse
#ETCD_LOG_PACKAGE_LEVELS
#ETCD_LOG_OUTPUTdefault
#
#[Unsafe]
#ETCD_FORCE_NEW_CLUSTERfalse
#
#[Version]
#ETCD_VERSIONfalse
#ETCD_AUTO_COMPACTION_RETENTION0
#
#[Profiling]
#ETCD_ENABLE_PPROFfalse
#ETCD_METRICSbasic
#
#[Auth]
#ETCD_AUTH_TOKENsimple 启动服务。 systemctl start etcd
systemctl enable etcd 查看启动状态。 [rootmaster ~]# netstat -tlnp|grep etcd
tcp 0 0 127.0.0.1:2380 0.0.0.0:* LISTEN 1506/etcd
tcp6 0 0 :::2379 :::* LISTEN 1506/etcd 若要部署多节点集群也比较简单参见 https://github.com/etcd-io/etcd/blob/master/Documentation/op-guide/clustering.md[cluster]ETCD_INITIAL_ADVERTISE_PEER_URLS该成员节点在整个集群中的通信地址列表这个地址用来传输集群数据的地址。因此这个地址必须是可以连接集群中所有的成员的。ETCD_INITIAL_CLUSTER配置集群内部所有成员地址。 3、配置 apiserver 服务 编辑文件/etc/kubernetes/apiserver修改为如下注意KUBE_ADMISSION_CONTROL参数 [rootmaster ~]# cat /etc/kubernetes/apiserver
###
# kubernetes system config
#
# The following values are used to configure the kube-apiserver
## The address on the local server to listen to.
#KUBE_API_ADDRESS--insecure-bind-address127.0.0.1
KUBE_API_ADDRESS--address0.0.0.0# The port on the local server to listen on.
KUBE_API_PORT--port8080# Port minions listen on
KUBELET_PORT--kubelet-port10250# Comma separated list of nodes in the etcd cluster
KUBE_ETCD_SERVERS--etcd-servershttp://172.18.8.200:2379# Address range to use for services
KUBE_SERVICE_ADDRESSES--service-cluster-ip-range10.254.0.0/16# default admission control policies
#KUBE_ADMISSION_CONTROL--admission-controlNamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuotaKUBE_ADMISSION_CONTROL--admission-controlNamespaceLifecycle,NamespaceExists,LimitRanger,ResourceQuota# Add your own!
KUBE_API_ARGS 配置/etc/kubernetes/controller-manager和/etc/kubernetes/scheduler暂时不做修改启动服务。 systemctl start kube-apiserver
systemctl start kube-controller-manager
systemctl start kube-scheduler
systemctl enable kube-apiserver
systemctl enable kube-controller-manager
systemctl enable kube-scheduler 查看各服务的启动状态。 [rootmaster ~]# netstat -tlnp|grep kube-apiserver
tcp6 0 0 :::6443 :::* LISTEN 1622/kube-apiserver
tcp6 0 0 :::8080 :::* LISTEN 1622/kube-apiserver [rootmaster ~]# netstat -tlnp|grep kube-scheduler
tcp6 0 0 :::10251 :::* LISTEN 1646/kube-scheduler 五、配置node节点 1、安装需要的软件 yum install kubernetes-node flannel docker -y 给docker配置国内加速器。 sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json -EOF
{registry-mirrors: [https://hdi5v8p1.mirror.aliyuncs.com]
}
EOF
sudo systemctl daemon-reload 所有node节点编辑配置文件/etc/kubernetes/config修改为如下内容 ###
# kubernetes system config
#
# The following values are used to configure various aspects of all
# kubernetes services, including
#
# kube-apiserver.service
# kube-controller-manager.service
# kube-scheduler.service
# kubelet.service
# kube-proxy.service
# logging to stderr means we get it in the systemd journal
KUBE_LOGTOSTDERR--logtostderrtrue# journal message level, 0 is debug
KUBE_LOG_LEVEL--v0# Should this cluster be allowed to run privileged docker containers
KUBE_ALLOW_PRIV--allow-privilegedfalse# How the controller-manager, scheduler, and proxy find the apiserver
KUBE_MASTER--masterhttp://172.18.8.200:8080 2、配置 kubelet 服务 编辑文件/etc/kubernetes/kubelet修改内容如下 ###
# kubernetes kubelet (minion) config# The address for the info server to serve on (set to 0.0.0.0 or for all interfaces)
KUBELET_ADDRESS--address0.0.0.0# The port for the info server to serve on
#KUBELET_PORT--port10250# You may leave this blank to use the actual hostname
#KUBELET_HOSTNAME--hostname-override172.18.8.201# location of the api-server
KUBELET_API_SERVER--api-servershttp://172.18.8.200:8080# pod infrastructure container
#KUBELET_POD_INFRA_CONTAINER--pod-infra-container-imageregistry.access.redhat.com/rhel7/pod-infrastructure:latest# Add your own!
KUBELET_ARGS 启动服务。 systemctl start kubelet
systemctl start kube-proxy
systemctl enable kubelet
systemctl enable kube-proxy 3、配置 flannel 网络 编辑所有node节点/etc/sysconfig/flanneld修改内容如下 [rootnode01 ~]# cat /etc/sysconfig/flanneld
# Flanneld configuration options # etcd url location. Point this to the server where etcd runs
FLANNEL_ETCD_ENDPOINTShttp://172.18.8.200:2379# etcd config key. This is the configuration key that flannel queries
# For address range assignment
FLANNEL_ETCD_PREFIX/atomic.io/network# Any additional options that you want to pass
#FLANNEL_OPTIONS 在master节点上为 falnnel 创建分配的网络。 [rootmaster ~]# etcdctl mk /atomic.io/network/config {Network: 10.244.0.0/16} 在各node节点上启动 flannel。 systemctl start flanneld
systemctl enable flanneld 4、启动 docker 服务 因为要让pod使用flannel创建的网络所以docker的启动要在flannel后面。 systemctl restart docker
systemctl enable docker 六、检查验收 在master查看各node节点情况。 [rootmaster ~]# kubectl get nodes
NAME STATUS AGE
node01.wzlinux.com Ready 12m
node02.wzlinux.com Ready 10m 创建pod。 kubectl run nginx --imagenginx --replicas3 发现容器一直在创建。 [rootmaster ~]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE
nginx-701339712-099j9 0/1 ContainerCreating 0 3m none node01.wzlinux.com
nginx-701339712-vw0zh 0/1 ContainerCreating 0 3m none node02.wzlinux.com
nginx-701339712-wqjq1 0/1 ContainerCreating 0 3m none node02.wzlinux.com 这种情况我们可以使用kubectl describe pod POD_NAME查看Pod因为什么原因一直卡主。 因为网络的原因这个地方我们访问不到不过我们可以间接的获取这个镜像那我们通过阿里云上面的镜像来替代在所以node节点执行下面的命令。 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.0
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.0 gcr.io/google_containers/pause-amd64:3.0
docker image rm registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.0 稍等片刻我们在查看pod状态发现已经OK如果还有问题可以继续进入容器查看日志。 [rootmaster ~]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE
nginx-701339712-099j9 1/1 Running 0 11m 10.244.32.2 node01.wzlinux.com
nginx-701339712-vw0zh 1/1 Running 0 11m 10.244.53.3 node02.wzlinux.com
nginx-701339712-wqjq1 1/1 Running 0 11m 10.244.53.2 node02.wzlinux.com 但是还有问题这是因为iptables的FORWARD是默认禁止的禁用了iptables filter表中FOWARD链这样会引起Kubernetes集群中跨Node的Pod无法通信。 我们这里手动在所有node节点上面放行。 iptables -P FORWARD ACCEPT 附录版本更加新的yum仓库 目前自带的 yum 源的软件版本都比较低也可以更改仓库使用稍微较高的一个版本目前该仓库的版本为1.10。http://cbs.centos.org/repos/virt7-kubernetes-110-release/x86_64/os/Packages/ cat EOF /etc/yum.repos.d/kubernetes.repo
[kubernetes]
nameKubernetes
baseurlhttp://cbs.centos.org/repos/virt7-kubernetes-110-release/x86_64/os/
enabled1
gpgcheck0
EOF 其他的配置操作照旧如果感觉下载速度慢可以提前把rpm包下载下来安装配置好查看版本。 [rootmaster ~]# kubectl version
Client Version: version.Info{Major:1, Minor:10, GitVersion:v1.10.3, GitCommit:2bba0127d85d5a46ab4b778548be28623b32d0b0, GitTreeState:archive, BuildDate:2018-06-05T13:37:07Z, GoVersion:go1.9.4, Compiler:gc, Platform:linux/amd64}
Server Version: version.Info{Major:1, Minor:10, GitVersion:v1.10.3, GitCommit:2bba0127d85d5a46ab4b778548be28623b32d0b0, GitTreeState:archive, BuildDate:2018-06-05T13:37:07Z, GoVersion:go1.9.4, Compiler:gc, Platform:linux/amd64} 注意新的版本部分配置文件有些不一样配置的时候请注意。 到此使用yum仓库安装的版本已经完成。