地图定位网站开发网站管理建设需进一步加强
- 作者: 五速梦信息网
- 时间: 2026年03月21日 11:27
当前位置: 首页 > news >正文
地图定位网站开发,网站管理建设需进一步加强,国内用wordpress建设,网页设计制作网站模板免费目录 1.新master节点的搭建 对master02进行初始化配置#xff08;192.168.88.31#xff09; 将master01的配置移植到master02 修改master02配置文件 2.负载均衡的部署 两台负载均衡器配置nginx 部署keepalived服务 所有node节点操作 总结 实验准备#xff1a; k8s…目录 1.新master节点的搭建 对master02进行初始化配置192.168.88.31 将master01的配置移植到master02 修改master02配置文件 2.负载均衡的部署 两台负载均衡器配置nginx 部署keepalived服务 所有node节点操作 总结 实验准备 k8s集群master01192.168.88.22 kube-apiserver kube-controller-manager kube-scheduler etcd k8s集群master02192.168.88.31 k8s集群node01192.168.88.40 kubelet kube-proxy docker k8s集群node02192.168.88.13etcd集群节点1192.168.88.22 etcd etcd集群节点2192.168.88.40 etcd集群节点3192.168.88.13负载均衡 192.168.88.50 nginx/haproxy 192.168.88.51 nginx/haproxy 架构说明: node节点的kubelet只能对接一个master节点的apiserver不可能同时对接多个master节点的apiserver。简而言之node节只能有一个master来领导。kubelet和kube-proxy是通过kubelet.kubeconfig和kube-proxy.kubeconfig文件中的server参数进行对接 master节点的。所以在多master节点的环境下需要有nginx负载均衡器来进行调度而且需要进行keepalived高可用的构建(主从两个节点) 防止主节点宕机导致整个k8s集群的不可用。 1.新master节点的搭建 对master02进行初始化配置192.168.88.31 #关闭防火墙 systemctl stop firewalld systemctl disable firewalld iptables -F iptables -t nat -F iptables -t mangle -F iptables -X#关闭selinux setenforce 0 sed -i s/enforcing/disabled/ /etc/selinux/config#关闭swap swapoff -a sed -ri s/.swap./#/ /etc/fstab #根据规划设置主机名 hostnamectl set-hostname master02 su #在master添加hosts(添加到整个k8s集群的主机上保证其他主机均有该映射) cat /etc/hosts EOF 192.168.88.22 master01 192.168.88.31 master02 192.168.88.40 node01 192.168.88.13 node02 EOF#调整内核参数 cat /etc/sysctl.d/k8s.conf EOF #开启网桥模式可将网桥的流量传递给iptables链 net.bridge.bridge-nf-call-ip6tables 1 net.bridge.bridge-nf-call-iptables 1 #关闭ipv6协议 net.ipv6.conf.all.disable_ipv61 net.ipv4.ip_forward1 EOFsysctl –system#时间同步 yum install ntpdate -y ntpdate ntp.aliyun.com#将时间同步的操作添加到计划性任务确保所有节点保证时间的同步 crontab -e */30 * * * * /usr/sbin/ntpdate ntp.aliyun.com crontab -l 将master01的配置移植到master02 ##———— 1、 master01节点拷贝文件到master02 ——————————-#从 master01 节点上拷贝证书文件、各master组件的配置文件和服务管理文件到 master02 节点scp -r etcd/ master02:pwdscp -r kubernetes/ master02:pwdscp /usr/lib/systemd/system/kube-* master02:/usr/lib/systemd/system/scp -r /root/.kube/ master02:/root/ 修改master02配置文件 ##———– 2、 master02节点修改配置文件并启动相关服务————————-#修改配置文件kube-apiserver中的IPvim /opt/kubernetes/cfg/kube-apiserverKUBE_APISERVER_OPTS–logtostderrtrue \ #输出日志false表示标准错误不输出到屏幕而是输出到日志中。true表示标准错误会输出到屏幕。–v4 \ #日志级别–etcd-servershttps://192.168.88.22:2379,https://192.168.88.40:2379,https://192.168.88.13:2379 \ #etcd节点的IP通信地址–bind-address192.168.88.31 \ #修改当前绑定的内网IP监听的地址–secure-port6443 \ #基于HPPTS开放端口–advertise-address192.168.88.31 \ #修改内网通告地址让其他node节点地址通信……vim kube-controller-manager vim kube-scheduler #在 master02 节点上启动各服务并设置开机自启systemctl enable –now kube-apiserver.servicesystemctl enable –now kube-controller-manager.servicesystemctl enable –now kube-scheduler.service#将可执行文件创建软链接ln -s /opt/kubernetes/bin/* /usr/local/bin/#查看node节点状态kubectl get nodeskubectl get nodes -o wide #-owide输出额外信息对于Pod将输出Pod所在的Node名#此时在master02节点查到的node节点状态仅是从etcd查询到的信息而此时node节点实际上并未与master02节点建立通信连接因此需要使用一个VIP把node节点与master节点都关联起来 2.负载均衡的部署 负载均衡 192.168.88.50 nginx/haproxy 192.168.88.51 nginx/haproxy 两台负载均衡器配置nginx #配置nginx的官方在线yum源配置本地nginx的yum源 cat /etc/yum.repos.d/nginx.repo EOF [nginx] namenginx repo baseurlhttp://nginx.org/packages/centos/7/\(basearch/ gpgcheck0 EOFyum install nginx -y#修改nginx配置文件配置四层反向代理负载均衡指定k8s群集2台master的节点ip和6443端口vim /etc/nginx/nginx.confevents {worker_connections 1024;}#添加stream {log_format main \)remote_addr \(upstream_addr - [\)time_local] \(status \)upstream_bytes_sent;access_log /var/log/nginx/k8s-access.log main;upstream k8s-apiserver {server 192.168.88.22:6443; #master01server 192.168.88.31:6443; #master02}server {listen 6443;proxy_pass k8s-apiserver;}}http {……#检查配置文件语法nginx -t #启动nginx服务查看已监听6443端口systemctl start nginxsystemctl enable nginxss -lntp|grep nginx 部署keepalived服务 #部署keepalived服务yum install keepalived -y#修改keepalived配置文件vim /etc/keepalived/keepalived.conf ! Configuration File for keepalivedglobal_defs {router_id nginx_master }vrrp_script check_nginx {script /etc/nginx/check_nginx.sh #指定检测脚本的路径并且该脚本充当心跳检测脚本 }vrrp_instance VI_1 {state MASTER #指定状态为master节点109为BACKUP备用节点interface ens33virtual_router_id 51priority 100 #108优先级为100 109为90优先级决定着主备的位置advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.88.250}track_script {check_nginx #追踪脚本的进程} } #创建nginx状态检查脚本 vim /etc/nginx/check_nginx.sh#!/bin/bash killall -0 nginx /dev/null if [ $? -ne 0 ];thensystemctl stop keepalived fichmod x /etc/nginx/check_nginx.sh #为脚本增加执行权限#两台主备调度器启动keepalived服务一定要先启动了nginx服务再启动keepalived服务systemctl start keepalivedsystemctl enable keepalivedip addr #查看主节点的VIP是否生成 所有node节点操作 //修改node节点上的bootstrap.kubeconfig,kubelet.kubeconfig配置文件为VIP cd /opt/kubernetes/cfg/ vim bootstrap.kubeconfig server: https://192.168.88.250:6443vim kubelet.kubeconfig server: https://192.168.88.250:6443vim kube-proxy.kubeconfig server: https://192.168.88.250:6443//重启kubelet和kube-proxy服务 systemctl restart kubelet.service systemctl restart kube-proxy.service//在 lb01 上查看 nginx 和 node 、 master 节点的连接状态 netstat -natp | grep nginx 总结 部署多master高可用 负责master组件相关的二进制文件、证书、私钥、启动参数配置文件、kubeconfig集群引导配置文件和etcd的证书、私钥文件修改 kube-apiserver kube-controller-manager kube-scheduler 启动参数配置文件里的监听地址和通告地址再依次重启服务进程部署 nginx/haproxy 负载均衡器和 keepalived 高可用修改 kubelet kube-proxy kubectl 的kubeconfig集群引导配置文件里的server参数都指向keepalived的VIP地址再重启 kubelet kube-proxy 服务进程修改其它master节点上的 kube-controller-manager kube-scheduler 的kubeconfig集群引导配置文件里的server参数都指向各自本机的apiserver地址再重启服务进程
- 上一篇: 地税城市维护建设税网站是什么个人网站引导页源码
- 下一篇: 地图截选做分析图的网站公司网站更换域名
相关文章
-
地税城市维护建设税网站是什么个人网站引导页源码
地税城市维护建设税网站是什么个人网站引导页源码
- 技术栈
- 2026年03月21日
-
地方性小网站的建设惠州建设工程交易网站
地方性小网站的建设惠州建设工程交易网站
- 技术栈
- 2026年03月21日
-
地方文明网站建设措施做网站排名步骤
地方文明网站建设措施做网站排名步骤
- 技术栈
- 2026年03月21日
-
地图截选做分析图的网站公司网站更换域名
地图截选做分析图的网站公司网站更换域名
- 技术栈
- 2026年03月21日
-
地图网站怎么做上传网站图片处理
地图网站怎么做上传网站图片处理
- 技术栈
- 2026年03月21日
-
地下城钓鱼网站如何做网站建设需要几个部门
地下城钓鱼网站如何做网站建设需要几个部门
- 技术栈
- 2026年03月21日






