做资源网站需要什么,郑州哪有做网站的公司,如何用网页制作网站,做网站怎么设置背景目录 一、docker网络管理
1、Docker 网络实现原理
2、查看容器的输出和日志信息docker logs 容器的ID/名称
3、Docker 的网络模式#xff1a;
4、网络模式详解
4.1#xff0e;host模式
4.2#xff0e;container模式
4.3. none模式
4.4#xff0e;bridge模式
4.5
4、网络模式详解
4.1host模式
4.2container模式
4.3. none模式
4.4bridge模式
4.5自定义网络
二、docker资源控制
1CPU 资源控制
1设置CPU使用率上限
2设置CPU资源占用比设置多个容器时才有效
3设置容器绑定指定的CPU
2对内存使用的限制
3对磁盘IO配额控制blkio的限制
生产扩展 一、docker网络管理
1、Docker 网络实现原理 Docker使用Linux桥接在宿主机虚拟一个Docker容器网桥(docker0)Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址称为Container-IP同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥这样容器之间就能够通过容器的 Container-IP 直接通信。
Docker网桥是宿主机虚拟出来的并不是真实存在的网络设备外部网络是无法寻址到的这也意味着外部网络无法直接通过 Container-IP 访问到容器。如果容器希望外部访问能够访问到可以通过映射容器端口到宿主主机端口映射即 docker run 创建容器时候通过 -p 或 -P 参数来启用访问容器的时候就通过[宿主机IP]:[容器端口]访问容器。
docker run -d --name test1 -P nginx #随机映射端口从32768开始
docker run -d --name test2 -p 43000:80 nginx #指定映射端口
docker ps -a CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 9d3c04f57a68 nginx /docker-entrypoint.… 4 seconds ago Up 3 seconds 0.0.0.0:43000-80/tcp test2 b04895f870e5 nginx /docker-entrypoint.… 17 seconds ago Up 15 seconds 0.0.0.0:49170-80/tcp test1
浏览器访问http://192.168.80.10:43000 、http://192.168.80.10:49170
2、查看容器的输出和日志信息 docker logs 容器的ID/名称 3、Docker 的网络模式 ●Host容器将不会虚拟出自己的网卡配置自己的IP等而是使用宿主机的IP和端口。 ●Container创建的容器不会创建自己的网卡配置自己的IP而是和一个指定的容器共享IP、端口范围。 ●None该模式关闭了容器的网络功能。 ●Bridge默认为该模式此模式会为每一个容器分配、设置IP等并将容器连接到一个docker0虚拟网桥通过docker0网桥以及iptables nat 表配置与宿主机通信。 ●自定义网络
kgc0 172.18.0.0/24 172.18.0.20
安装Docker时它会自动创建三个网络bridge创建容器默认连接到此网络、 none 、host
docker network ls 或 docker network list #查看docker网络列表 NETWORK ID NAME DRIVER SCOPE 2b4359d229c6 bridge bridge local 0fa580365d39 host host local cc13aa84a223 none null local
#使用docker run创建Docker容器时可以用 --net 或 --network 选项指定容器的网络模式 ●host模式使用 --nethost 指定。 ●none模式使用 --netnone 指定。 ●container模式使用 --netcontainer:NAME_or_ID 指定。 ●bridge模式使用 --netbridge 指定默认设置可省略。 4、网络模式详解 4.1host模式 相当于Vmware中的桥接模式与宿主机在同一个网络中但没有独立IP地址。 Docker使用了Linux的Namespaces技术来进行资源隔离如PID Namespace隔离进程Mount Namespace隔离文件系统Network Namespace隔离网络等。 一个Network Namespace提供了一份独立的网络环境包括网卡、路由、iptable规则等都与其他的Network Namespace隔离。 一个Docker容器一般会分配一个独立的Network Namespace。 但如果启动容器的时候使用host模式那么这个容器将不会获得一个独立的Network Namespace 而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡、配置自己的IP等而是使用宿主机的IP和端口。 4.2container模式 在理解了host模式后这个模式也就好理解了。这个模式指定新创建的容器和已经存在的一个容器共享一个Network Namespace而不是和宿主机共享。新创建的容器不会创建自己的网卡配置自己的IP而是和一个指定的容器共享IP、端口范围等。同样两个容器除了网络方面其他的如文件系统、进程列表等还是隔离的。两个容器的进程可以通过lo网卡设备通信。
docker run -itd --name test1 centos:7 /bin/bash #--name 选项可以给容器创建一个自定义名称
docker ps -a CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 3ed82355f811 centos:7 /bin/bash 5 days ago Up 6 hours test1
docker inspect -f {{.State.Pid}} 3ed82355f811 #查看容器进程号 25945
ls -l /proc/25495/ns #查看容器的进程、网络、文件系统等命名空间编号 lrwxrwxrwx 1 root root 0 1月 7 11:29 ipc - ipc:[4026532572] lrwxrwxrwx 1 root root 0 1月 7 11:29 mnt - mnt:[4026532569] lrwxrwxrwx 1 root root 0 1月 7 11:27 net - net:[4026532575] lrwxrwxrwx 1 root root 0 1月 7 11:29 pid - pid:[4026532573] lrwxrwxrwx 1 root root 0 1月 7 12:22 user - user:[4026531837] lrwxrwxrwx 1 root root 0 1月 7 11:29 uts - uts:[4026532570]
docker run -itd --name test2 --netcontainer:3ed82355f811 centos:7 /bin/bash docker ps -a CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES ff96bc43dd27 centos:7 /bin/bash 48 seconds ago Up 46 seconds test2 3ed82355f811 centos:7 /bin/bash 58 minutes ago Up 58 minutes test1
docker inspect -f {{.State.Pid}} ff96bc43dd27 27123
ls -l /proc/27123/ns #查看可以发现两个容器的 net namespace 编号相同 lrwxrwxrwx 1 root root 0 1月 7 12:27 ipc - ipc:[4026532692] lrwxrwxrwx 1 root root 0 1月 7 12:27 mnt - mnt:[4026532690] lrwxrwxrwx 1 root root 0 1月 7 12:27 net - net:[4026532575] lrwxrwxrwx 1 root root 0 1月 7 12:27 pid - pid:[4026532693] lrwxrwxrwx 1 root root 0 1月 7 12:27 user - user:[4026531837] lrwxrwxrwx 1 root root 0 1月 7 12:27 uts - uts:[4026532691] 4.3. none模式 使用none模式Docker容器拥有自己的Network Namespace但是并不为Docker容器进行任何网络配置。 也就是说这个Docker容器没有网卡、IP、路由等信息。这种网络模式下容器只有lo回环网络没有其他网卡。这种类型的网络没有办法联网封闭的网络能很好的保证容器的安全性。 4.4bridge模式 bridge模式是docker的默认网络模式不用--net参数就是bridge模式。
相当于Vmware中的 nat 模式容器使用独立network Namespace并连接到docker0虚拟网卡。通过docker0网桥以及iptables nat表配置与宿主机通信此模式会为每一个容器分配Network Namespace、设置IP等并将一个主机上的 Docker 容器连接到一个虚拟网桥上。
1当Docker进程启动时会在主机上创建一个名为docker0的虚拟网桥此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似这样主机上的所有容器就通过交换机连在了一个二层网络中。
2从docker0子网中分配一个IP给容器使用并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备。veth设备总是成对出现的它们组成了一个数据的通道数据从一个设备进入就会从另一个设备出来。因此veth设备常用来连接两个网络设备。
3Docker将 veth pair 设备的一端放在新创建的容器中并命名为 eth0容器的网卡另一端放在主机中 以 * 这样类似的名字命名并将这个网络设备加入到 docker0 网桥中。可以通过 brctl show 命令查看。veth
4使用 docker run -p 时docker实际是在iptables做了DNAT规则实现端口转发功能。可以使用iptables -t nat -vnL 查看。 4.5自定义网络
#直接使用bridge模式是无法支持指定IP运行docker的例如执行以下命令就会报错 docker run -itd --name test3 --network bridge --ip 172.17.0.10 centos:7 /bin/bash
//创建自定义网络 #可以先自定义网络再使用指定IP运行docker docker network create --subnet172.18.0.0/16 --opt com.docker.network.bridge.namedocker1 mynetwork ---------------------------------------------------------------------------------------------------------- #docker1 为执行 ifconfig -a 命令时显示的网卡名如果不使用 --opt 参数指定此名称那你在使用 ifconfig -a 命令查看网络信息时看到的是类似 br-110eb56a0b22 这样的名字这显然不怎么好记。 #mynetwork 为执行 docker network list 命令时显示的bridge网络模式名称。 ---------------------------------------------------------------------------------------------------------- docker run -itd --name test4 --net mynetwork --ip 172.18.0.10 centos:7 /bin/bash 二、docker资源控制 1CPU 资源控制 cgroups是一个非常强大的linux内核工具他不仅可以限制被 namespace 隔离起来的资源 还可以为资源设置权重、计算使用量、操控进程启停等等。 所以 cgroupsControl groups实现了对资源的配额和度量。
cgroups有四大功能 ●资源限制可以对任务使用的资源总额进行限制 ●优先级分配通过分配的cpu时间片数量以及磁盘IO带宽大小实际上相当于控制了任务运行优先级 ●资源统计可以统计系统的资源使用量如cpu时长内存用量等 ●任务控制cgroup可以对任务执行挂起、恢复等操作
100000 1 50000 0.5
1设置CPU使用率上限 Linux通过CFSCompletely Fair Scheduler完全公平调度器来调度各个进程对CPU的使用。CFS默认的调度周期是100ms。 我们可以设置每个容器进程的调度周期以及在这个周期内各个容器最多能使用多少 CPU 时间。
使用 --cpu-period 即可设置调度周期使用 --cpu-quota 即可设置在每个周期内容器能使用的CPU时间。两者可以配合使用。 CFS 周期的有效范围是 1ms~1s对应的 --cpu-period 的数值范围是 1000~1000000。 周期100毫秒 而容器的 CPU 配额必须不小于 1ms即 --cpu-quota 的值必须 1000。
docker run -itd --name test5 centos:7 /bin/bash
docker ps -a CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 3ed82355f811 centos:7 /bin/bash 5 days ago Up 6 hours test5
cd /sys/fs/cgroup/cpu/docker/3ed82355f81151c4568aaa6e7bc60ba6984201c119125360924bf7dfd6eaa42b/ cat cpu.cfs_quota_us -1
cat cpu.cfs_period_us 100000 --------------------------------------------------------------------------------------------------------- #cpu.cfs_period_uscpu分配的周期(微秒所以文件名中用 us 表示默认为100000。 #cpu.cfs_quota_us表示该cgroups限制占用的时间微秒默认为-1表示不限制。 如果设为50000表示占用50000/10000050%的CPU。 ---------------------------------------------------------------------------------------------------------
#进行CPU压力测试 docker exec -it 3ed82355f811 /bin/bash vim /cpu.sh #!/bin/bash i0 while true do let i done
chmod x /cpu.sh ./cpu.sh
top #可以看到这个脚本占了很多的cpu资源
#设置50%的比例分配CPU使用时间上限 docker run -itd --name test6 --cpu-quota 50000 centos:7 /bin/bash #可以重新创建一个容器并设置限额 或者 cd /sys/fs/cgroup/cpu/docker/3ed82355f81151c4568aaa6e7bc60ba6984201c119125360924bf7dfd6eaa42b/ echo 50000 cpu.cfs_quota_us docker exec -it 3ed82355f811 /bin/bash ./cpu.sh
top #可以看到cpu占用率接近50%cgroups对cpu的控制起了效果 2设置CPU资源占用比设置多个容器时才有效 Docker 通过 --cpu-shares 指定 CPU 份额默认值为1024值为1024的倍数。 #创建两个容器为 c1 和 c2若只有这两个容器设置容器的权重使得c1和c2的CPU资源占比为1/3和2/3。 docker run -itd --name c1 --cpu-shares 512 centos:7 docker run -itd --name c2 --cpu-shares 1024 centos:7
#分别进入容器进行压力测试 yum install -y epel-release yum install -y stress stress -c 4 #产生四个进程每个进程都反复不停的计算随机数的平方根
#查看容器运行状态动态更新 docker stats CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS c3ee18e65852 c2 66.50% 5.5MiB / 976.3MiB 0.56% 20.4MB / 265kB 115MB / 14.2MB 4 bb02d3b345d8 c1 32.68% 2.625MiB / 976.3MiB 0.27% 20.4MB / 325kB 191MB / 12.7MB 4 3设置容器绑定指定的CPU #先分配虚拟机4个CPU核数 docker run -itd --name test7 --cpuset-cpus 1,3 centos:7 /bin/bash
#进入容器进行压力测试 yum install -y epel-release yum install stress -y stress -c 4
#退出容器执行 top 命令再按 1 查看CPU使用情况。 2对内存使用的限制 //-m(--memory) 选项用于限制容器可以使用的最大内存 docker run -itd --name test8 -m 512m centos:7 /bin/bash
docker stats
//限制可用的 swap 大小 --memory-swap 强调一下--memory-swap 是必须要与 --memory 一起使用的。
正常情况下--memory-swap 的值包含容器可用内存和可用 swap。 所以 -m 300m --memory-swap1g 的含义为容器可以使用 300M 的物理内存并且可以使用 700M1G - 300的 swap。
如果 --memory-swap 设置为 0 或者 不设置则容器可以使用的 swap 大小为 -m 值的两倍。 如果 --memory-swap 的值和 -m 值相同则容器不能使用 swap。 如果 --memory-swap 值为 -1它表示容器程序使用的内存受限而可以使用的 swap 空间使用不受限制宿主机有多少 swap 容器就可以使用多少。 3对磁盘IO配额控制blkio的限制 --device-read-bps限制某个设备上的读速度bps数据量单位可以是kb、mb(M)或者gb。 例docker run -itd --name test9 --device-read-bps /dev/sda:1M centos:7 /bin/bash
--device-write-bps 限制某个设备上的写速度bps数据量单位可以是kb、mb(M)或者gb。 例docker run -itd --name test10 --device-write-bps /dev/sda:1mb centos:7 /bin/bash
--device-read-iops 限制读某个设备的iops次数 --device-write-iops 限制写入某个设备的iops次数
#创建容器并限制写速度 docker run -it --name test10 --device-write-bps /dev/sda:1MB centos:7 /bin/bash
#通过dd来验证写速度 dd if/dev/zero oftest.out bs1M count10 oflagdirect #添加oflag参数以规避掉文件系统cache 100 records in 100 records out 10485760 bytes (10 MB) copied, 10.0025 s, 1.0 MB/s
#清理docker占用的磁盘空间 docker system prune -a #可以用于清理磁盘删除关闭的容器、无用的数据卷和网络 生产扩展 故障由于docker容器故障导致大量日志集满会造成磁盘空间满 解决方案1、清楚日志
#!/bin/bash logs$ (find /var/lib/docker/containers/ -name *-json.log*) for log in $logs do cat /dev/null $log done
2、当日志占满之后如何处理 ###设置docker日志文件数量及每个日志大小 vim /etc/docker/daemon.json { registry-mirrors: [http://f613ce8f.m.daocloud.io] log-driver: json-file, #我的一日志格式 log-opts: { max-size : 500m, max-file : 3} 日志的参数最大500M 我最大容器中有三个日志文件 每个日志文件大小是500M }
修改完需要重新加载 systemctl daemon-reload