標籤: 新北清潔

  • 【原】二進制部署 k8s 1.18.3

    【原】二進制部署 k8s 1.18.3

    二進制部署 k8s 1.18.3

    插播一條:ansible 一鍵部署:https://github.com/liyongjian5179/k8s-ansible

    1、相關前置信息

    1.1 版本信息

    kube_version: v1.18.3

    etcd_version: v3.4.9

    flannel: v0.12.0

    coredns: v1.6.7

    cni-plugins: v0.8.6

    pod 網段:10.244.0.0/16

    service 網段:10.96.0.0/12

    kubernetes 內部地址:10.96.0.1

    coredns 地址: 10.96.0.10

    apiserver 域名:lb.5179.top

    1.2 機器安排

    主機名 IP 角色及組件 k8s 相關組件
    centos7-nginx 10.10.10.127 nginx 四層代理 nginx
    centos7-a 10.10.10.128 master,node,etcd,flannel kube-apiserver kube-controller-manager kube-scheduler kubelet kube-proxy
    centos7-b 10.10.10.129 master,node,etcd,flannel kube-apiserver kube-controller-manager kube-scheduler kubelet kube-proxy
    centos7-c 10.10.10.130 master,node,etcd,flannel kube-apiserver kube-controller-manager kube-scheduler kubelet kube-proxy
    centos7-d 10.10.10.131 node,flannel kubelet kube-proxy
    centos7-e 10.10.10.132 node,flannel kubelet kube-proxy

    2、部署前環境準備

    centos7-nginx 當主控機對其他機器做免密

    2.1、 安裝ansible用於批量操作

    安裝過程略

    [root@centos7-nginx ~]# cat /etc/ansible/hosts
    [masters]
    10.10.10.128
    10.10.10.129
    10.10.10.130
    
    [nodes]
    10.10.10.131
    10.10.10.132
    
    [k8s]
    10.10.10.[128:132]
    

    推送宿主機 hosts 文件

    cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    10.10.10.127 centos7-nginx lb.5179.top
    10.10.10.128 centos7-a
    10.10.10.129 centos7-b
    10.10.10.130 centos7-c
    10.10.10.131 centos7-d
    10.10.10.132 centos7-e
    
    ansible k8s -m shell -a "mv /etc/hosts /etc/hosts.bak"
    ansible k8s -m copy -a "src=/etc/hosts dest=/etc/hosts"
    

    2.2 關閉防火牆及SELINUX

    # 關閉防火牆
    ansible k8s -m shell -a "systemctl stop firewalld &&  systemctl disable firewalld"
    # 關閉 selinux
    ansible k8s -m shell -a "setenforce  0  && sed -i "s/^SELINUX=enforcing/SELINUX=disabled/g" /etc/sysconfig/selinux && sed -i "s/^SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config "
    

    2.3 關閉 swap 分區

    ansible k8s -m shell -a "swapoff -a && sed -i 's/.*swap.*/#&/' /etc/fstab"
    

    2.4 安裝 docker及加速器

    vim ./install_docker.sh
    #!/bin/bash
    #
    yum install -y yum-utils device-mapper-persistent-data lvm2
    yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
    yum -y install docker-ce-19.03.11-19.03.11
    systemctl enable docker
    systemctl start docker
    docker version
    
    # 安裝加速器
    tee /etc/docker/daemon.json <<-'EOF'
    {
      "registry-mirrors": ["https://ajpb7tdn.mirror.aliyuncs.com"],
      "log-opts": {"max-size":"100m", "max-file":"5"}
    }
    EOF
    systemctl daemon-reload
    systemctl restart docker
    

    然後使用 ansible 批量執行

    ansible k8s -m script -a "./install_docker.sh"
    

    2.5 修改內核參數

    vim 99-k8s.conf
    #sysctls for k8s node config
    net.ipv4.ip_forward=1
    net.ipv4.tcp_slow_start_after_idle=0
    net.core.rmem_max=16777216
    fs.inotify.max_user_watches=524288
    kernel.softlockup_all_cpu_backtrace=1
    kernel.softlockup_panic=1
    fs.file-max=2097152
    fs.inotify.max_user_instances=8192
    fs.inotify.max_queued_events=16384
    vm.max_map_count=262144
    vm.swappiness=0
    vm.overcommit_memory=1
    vm.panic_on_oom=0
    fs.may_detach_mounts=1
    net.core.netdev_max_backlog=16384
    net.ipv4.tcp_wmem=4096 12582912 16777216
    net.core.wmem_max=16777216
    net.core.somaxconn=32768
    net.ipv4.ip_forward=1
    net.ipv4.tcp_max_syn_backlog=8096
    net.bridge.bridge-nf-call-iptables=1
    net.bridge.bridge-nf-call-ip6tables=1
    net.ipv4.tcp_rmem=4096 12582912 16777216
    

    拷貝至遠程

    ansible k8s -m copy -a "src=./99-k8s.conf dest=/etc/sysctl.d/"
    ansible k8s -m shell -a "cd /etc/sysctl.d/ && sysctl --system"
    

    2.6 創建對應的目錄

    master 用

    vim mkdir_k8s_master.sh
    #!/bin/bash
    mkdir /opt/etcd/{bin,data,cfg,ssl} -p
    mkdir /opt/kubernetes/{bin,cfg,ssl,logs}  -p
    mkdir /opt/kubernetes/logs/{kubelet,kube-proxy,kube-scheduler,kube-apiserver,kube-controller-manager} -p
    
    echo 'export PATH=$PATH:/opt/kubernetes/bin' >> /etc/profile
    echo 'export PATH=$PATH:/opt/etcd/bin' >> /etc/profile
    source /etc/profile
    

    node 用

    vim mkdir_k8s_node.sh
    #!/bin/bash
    mkdir /opt/kubernetes/{bin,cfg,ssl,logs}  -p
    mkdir /opt/kubernetes/logs/{kubelet,kube-proxy} -p
    
    echo 'export PATH=$PATH:/opt/kubernetes/bin' >> /etc/profile
    source /etc/profile
    

    調用 ansible 執行

    ansible masters -m script -a "./mkdir_k8s_master.sh"
    ansible nodes -m script -a "./mkdir_k8s_node.sh"
    

    2.7 準備 LB

    為三台master提供高可用,可以選用雲廠商的 slb,也可以用 兩台 nginx + keepalived 實現。

    此處,為實驗環境,用單台 nginx 坐四層代理實現

    # 安裝 nginx
    [root@centos7-nginx ~]# yum install -y nginx
    # 創建子配置文件
    [root@centos7-nginx ~]# cd /etc/nginx/conf.d/
    [root@centos7-nginx conf.d]# vim lb.tcp
    stream {
        upstream master {
            hash $remote_addr consistent;
            server 10.10.10.128:6443 max_fails=3 fail_timeout=30;
            server 10.10.10.129:6443 max_fails=3 fail_timeout=30;
            server 10.10.10.130:6443 max_fails=3 fail_timeout=30;
        }
    
        server {
            listen 6443;
            proxy_pass master;
        }
    }
    # 在主配置文件中引入該文件
    [root@centos7-nginx ~]# cd /etc/nginx/
    [root@centos7-nginx nginx]# vim nginx.conf
    ...
    include /etc/nginx/conf.d/*.tcp;
    ...
    # 加入開機自啟,並啟動 nginx
    [root@centos7-nginx nginx]# systemctl enable nginx
    Created symlink from /etc/systemd/system/multi-user.target.wants/nginx.service to /usr/lib/systemd/system/nginx.service.
    [root@centos7-nginx nginx]# systemctl start nginx
    

    3、部署

    3.1 生成證書

    執行腳本

    [root@centos7-nginx ~]# mkdir ssl && cd ssl
    [root@centos7-nginx ssl]# vim ./k8s-certificate.sh
    [root@centos7-nginx ssl]# ./k8s-certificate.sh 10.10.10.127,10.10.10.128,10.10.10.129,10.10.10.130,lb.5179.top,10.96.0.1
    

    IP 說明:

    • 10.10.10.127|lb.5179.top: nginx

    • 10.10.10.128|129|130: masters

    • 10.96.0.1: kubernetes(service 網段的第一個 IP)

    腳本內容如下

    #!/bin/bash
    # 二進制部署,生成 k8s 證書文件
    
    if [ $# -ne 1 ];then
        echo "please user in: `basename $0` MASTERS[10.10.10.127,10.10.10.128,10.10.10.129,10.10.10.130,lb.5179.top,10.96.0.1]"
        exit 1
    fi
    MASTERS=$1
    
    KUBERNETES_HOSTNAMES=kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.svc.cluster.local
    
    
    
    for i in `echo $MASTERS | tr ',' ' '`;do
       if [ -z $IPS ];then
            IPS=\"$i\",
       else
            IPS=$IPS\"$i\",
       fi
    done
    
    
    command_exists() {
        command -v "$@" > /dev/null 2>&1
    }
    
    if command_exists cfssl; then
        echo "命令已存在"
    else
        # 下載生成證書命令
        wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64
        wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64
        wget https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64
    
        # 添加執行權限
        chmod +x cfssl_linux-amd64 cfssljson_linux-amd64 cfssl-certinfo_linux-amd64
    
        # 移動到 /usr/local/bin 目錄下
        mv cfssl_linux-amd64 /usr/local/bin/cfssl
        mv cfssljson_linux-amd64 /usr/local/bin/cfssljson
        mv cfssl-certinfo_linux-amd64 /usr/bin/cfssl-certinfo
    fi
    
    
    # 默認簽 10 年
    cat > ca-config.json <<EOF
    {
      "signing": {
        "default": {
          "expiry": "87600h"
        },
        "profiles": {
          "kubernetes": {
             "expiry": "87600h",
             "usages": [
                "signing",
                "key encipherment",
                "server auth",
                "client auth"
            ]
          }
        }
      }
    }
    EOF
    
    cat > ca-csr.json <<EOF
    {
        "CN": "kubernetes",
        "key": {
            "algo": "rsa",
            "size": 2048
        },
        "names": [
            {
                "C": "CN",
                "L": "Beijing",
                "ST": "Beijing",
                "O": "k8s",
                "OU": "System"
            }
        ]
    }
    EOF
    
    cfssl gencert -initca ca-csr.json | cfssljson -bare ca -
    
    #-----------------------
    
    cat > server-csr.json <<EOF
    {
        "CN": "kubernetes",
        "hosts": [
          ${IPS}
          "127.0.0.1",
          "kubernetes",
          "kubernetes.default",
          "kubernetes.default.svc",
          "kubernetes.default.svc.cluster",
          "kubernetes.default.svc.cluster.local"
        ],
        "key": {
            "algo": "rsa",
            "size": 2048
        },
        "names": [
            {
                "C": "CN",
                "L": "BeiJing",
                "ST": "BeiJing",
                "O": "k8s",
                "OU": "System"
            }
        ]
    }
    EOF
    
    cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes server-csr.json | cfssljson -bare server
    
    # 或者
    
    #cat > server-csr.json <<EOF
    #{
    #    "CN": "kubernetes",
    #    "key": {
    #        "algo": "rsa",
    #        "size": 2048
    #    },
    #    "names": [
    #        {
    #            "C": "CN",
    #            "L": "BeiJing",
    #            "ST": "BeiJing",
    #            "O": "k8s",
    #            "OU": "System"
    #        }
    #    ]
    #}
    #EOF
    #
    #cfssl gencert \
    #  -ca=ca.pem \
    #  -ca-key=ca-key.pem \
    #  -config=ca-config.json \
    #  -hostname=${MASTERS},127.0.0.1,${KUBERNETES_HOSTNAMES} \
    #  -profile=kubernetes \
    #  server-csr.json | cfssljson -bare server
    
    
    
    
    #-----------------------
    
    cat > admin-csr.json <<EOF
    {
      "CN": "admin",
      "hosts": [],
      "key": {
        "algo": "rsa",
        "size": 2048
      },
      "names": [
        {
          "C": "CN",
          "L": "BeiJing",
          "ST": "BeiJing",
          "O": "system:masters",
          "OU": "System"
        }
      ]
    }
    EOF
    
    cfssl gencert \
      -ca=ca.pem \
      -ca-key=ca-key.pem \
      -config=ca-config.json \
      -profile=kubernetes \
      admin-csr.json | cfssljson -bare admin
    
    #-----------------------
    
    cat > kube-proxy-csr.json <<EOF
    {
      "CN": "system:kube-proxy",
      "hosts": [],
      "key": {
        "algo": "rsa",
        "size": 2048
      },
      "names": [
        {
          "C": "CN",
          "L": "BeiJing",
          "ST": "BeiJing",
          "O": "k8s",
          "OU": "System"
        }
      ]
    }
    EOF
    
    cfssl gencert \
      -ca=ca.pem \
      -ca-key=ca-key.pem \
      -config=ca-config.json \
      -profile=kubernetes \
      kube-proxy-csr.json | cfssljson -bare kube-proxy
    
    
    # 注意: "CN": "system:metrics-server" 一定是這個,因為後面授權時用到這個名稱,否則會報禁止匿名訪問
    cat > metrics-server-csr.json <<EOF
    {
      "CN": "system:metrics-server",
      "hosts": [],
      "key": {
        "algo": "rsa",
        "size": 2048
      },
      "names": [
        {
          "C": "CN",
          "ST": "BeiJing",
          "L": "BeiJing",
          "O": "k8s",
          "OU": "system"
        }
      ]
    }
    EOF
    
    cfssl gencert \
      -ca=ca.pem \
      -ca-key=ca-key.pem \
      -config=ca-config.json \
      -profile=kubernetes \
      metrics-server-csr.json | cfssljson -bare metrics-server
    
    
    for item in $(ls *.pem |grep -v key) ;do echo ======================$item===================;openssl x509 -in $item -text -noout| grep Not;done
    
    #[root@aliyun k8s]# for item in $(ls *.pem |grep -v key) ;do echo ======================$item===================;openssl x509 -in $item -text -noout| grep Not;done
    #======================admin.pem====================
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 16 14:32:00 2030 GMT
    #======================ca.pem=======================
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 17 14:32:00 2025 GMT
    #======================kube-proxy.pem===============
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 16 14:32:00 2030 GMT
    #======================metrics-server.pem===========
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 16 14:32:00 2030 GMT
    #======================server.pem===================
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 16 14:32:00 2030 GMT
    

    注意:cfssl產生的ca證書固定5年有效期

    https://github.com/cloudflare/cfssl/blob/793fa93522ffd9a66d743ce4fa0958b6662ac619/initca/initca.go#L224

    // CAPolicy contains the CA issuing policy as default policy.
    var CAPolicy = func() *config.Signing {
    	return &config.Signing{
    		Default: &config.SigningProfile{
    			Usage:        []string{"cert sign", "crl sign"},
    			ExpiryString: "43800h",
    			Expiry:       5 * helpers.OneYear,
    			CAConstraint: config.CAConstraint{IsCA: true},
    		},
    	}
    }
    

    可以通過修改源碼方式重新編譯更改 ca 過期時間,或者在ca-csr.json添加如下

    "ca": {
          "expiry": "438000h"   #---> 50年
        }
    

    3.2 拷貝證書

    3.2.1 拷貝 etcd 集群使用的證書

    [root@centos7-nginx ~]# cd ssl
    [root@centos7-nginx ssl]#
    [root@centos7-nginx ssl]# ansible masters -m copy -a "src=./ca.pem dest=/opt/etcd/ssl"
    [root@centos7-nginx ssl]# ansible masters -m copy -a "src=./server.pem dest=/opt/etcd/ssl"
    [root@centos7-nginx ssl]# ansible masters -m copy -a "src=./server-key.pem dest=/opt/etcd/ssl"
    

    3.2.2 拷貝 k8s 集群使用的證書

    [root@centos7-nginx ~]# cd ssl
    [root@centos7-nginx ssl]#
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.128:/opt/kubernetes/ssl/
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.129:/opt/kubernetes/ssl/
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.130:/opt/kubernetes/ssl/
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.131:/opt/kubernetes/ssl/
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.132:/opt/kubernetes/ssl/
    

    3.3 安裝 ETCD 集群

    下載二進制etcd包,並把執行文件推到各 master節點的 /opt/etcd/bin/ 目錄下

    [root@centos7-nginx ~]# mkdir ./etcd && cd ./etcd
    [root@centos7-nginx etcd]# wget https://github.com/etcd-io/etcd/releases/download/v3.4.9/etcd-v3.4.9-linux-amd64.tar.gz
    [root@centos7-nginx etcd]# tar zxvf etcd-v3.3.12-linux-amd64.tar.gz
    [root@centos7-nginx etcd]# cd etcd-v3.4.9-linux-amd64
    [root@centos7-nginx etcd-v3.4.9-linux-amd64]# ll
    總用量 40540
    drwxr-xr-x. 14 630384594 600260513     4096 5月  22 03:54 Documentation
    -rwxr-xr-x.  1 630384594 600260513 23827424 5月  22 03:54 etcd
    -rwxr-xr-x.  1 630384594 600260513 17612384 5月  22 03:54 etcdctl
    -rw-r--r--.  1 630384594 600260513    43094 5月  22 03:54 README-etcdctl.md
    -rw-r--r--.  1 630384594 600260513     8431 5月  22 03:54 README.md
    -rw-r--r--.  1 630384594 600260513     7855 5月  22 03:54 READMEv2-etcdctl.md
    
    [root@centos7-nginx etcd-v3.4.9-linux-amd64]# ansible masters -m copy -a "src=./etcd dest=/opt/etcd/bin mode=755"
    [root@centos7-nginx etcd-v3.4.9-linux-amd64]# ansible masters -m copy -a "src=./etcdctl dest=/opt/etcd/bin mode=755"
    

    編寫 etcd 配置文件腳本

    #!/bin/bash
    # 使用說明
    #./etcd.sh etcd01 10.10.10.128 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    #./etcd.sh etcd02 10.10.10.129 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    #./etcd.sh etcd03 10.10.10.130 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    
    ETCD_NAME=${1:-"etcd01"}
    ETCD_IP=${2:-"127.0.0.1"}
    ETCD_CLUSTER=${3:-"etcd01=https://127.0.0.1:2379"}
    
    # ETCD 版本選擇[3.3,3.4]
    # 要用 3.3.14 以上版本:https://kubernetes.io/zh/docs/tasks/administer-cluster/configure-upgrade-etcd/#%E5%B7%B2%E7%9F%A5%E9%97%AE%E9%A2%98-%E5%85%B7%E6%9C%89%E5%AE%89%E5%85%A8%E7%AB%AF%E7%82%B9%E7%9A%84-etcd-%E5%AE%A2%E6%88%B7%E7%AB%AF%E5%9D%87%E8%A1%A1%E5%99%A8
    
    ETCD_VERSION=3.4.9
    
    if [ ${ETCD_VERSION%.*} == "3.4" ] ;then
    
    cat <<EOF >/opt/etcd/cfg/etcd.yml
    #etcd ${ETCD_VERSION}
    name: ${ETCD_NAME}
    data-dir: /opt/etcd/data
    listen-peer-urls: https://${ETCD_IP}:2380
    listen-client-urls: https://${ETCD_IP}:2379,https://127.0.0.1:2379
    
    advertise-client-urls: https://${ETCD_IP}:2379
    initial-advertise-peer-urls: https://${ETCD_IP}:2380
    initial-cluster: ${ETCD_CLUSTER}
    initial-cluster-token: etcd-cluster
    initial-cluster-state: new
    enable-v2: true
    
    client-transport-security:
      cert-file: /opt/etcd/ssl/server.pem
      key-file: /opt/etcd/ssl/server-key.pem
      client-cert-auth: false
      trusted-ca-file: /opt/etcd/ssl/ca.pem
      auto-tls: false
    
    peer-transport-security:
      cert-file: /opt/etcd/ssl/server.pem
      key-file: /opt/etcd/ssl/server-key.pem
      client-cert-auth: false
      trusted-ca-file: /opt/etcd/ssl/ca.pem
      auto-tls: false
    
    debug: false
    logger: zap
    log-outputs: [stderr]
    EOF
    
    else
    cat <<EOF >/opt/etcd/cfg/etcd.yml
    #etcd ${ETCD_VERSION}
    name: ${ETCD_NAME}
    data-dir: /opt/etcd/data
    listen-peer-urls: https://${ETCD_IP}:2380
    listen-client-urls: https://${ETCD_IP}:2379,https://127.0.0.1:2379
    
    advertise-client-urls: https://${ETCD_IP}:2379
    initial-advertise-peer-urls: https://${ETCD_IP}:2380
    initial-cluster: ${ETCD_CLUSTER}
    initial-cluster-token: etcd-cluster
    initial-cluster-state: new
    
    client-transport-security:
      cert-file: /opt/etcd/ssl/server.pem
      key-file: /opt/etcd/ssl/server-key.pem
      client-cert-auth: false
      trusted-ca-file: /opt/etcd/ssl/ca.pem
      auto-tls: false
    
    peer-transport-security:
      cert-file: /opt/etcd/ssl/server.pem
      key-file: /opt/etcd/ssl/server-key.pem
      peer-client-cert-auth: false
      trusted-ca-file: /opt/etcd/ssl/ca.pem
      auto-tls: false
    
    debug: false
    log-package-levels: etcdmain=CRITICAL,etcdserver=DEBUG
    log-outputs: default
    EOF
    
    fi
    
    cat <<EOF >/usr/lib/systemd/system/etcd.service
    [Unit]
    Description=Etcd Server
    Documentation=https://github.com/etcd-io/etcd
    Conflicts=etcd.service
    After=network.target
    After=network-online.target
    Wants=network-online.target
    
    [Service]
    Type=notify
    LimitNOFILE=65536
    Restart=on-failure
    RestartSec=5s
    TimeoutStartSec=0
    ExecStart=/opt/etcd/bin/etcd --config-file=/opt/etcd/cfg/etcd.yml
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable etcd
    systemctl restart etcd
    

    推送到 masters 機器上

    ansible masters -m copy -a "src=./etcd.sh dest=/opt/etcd/bin mode=755"
    

    分別登陸到三台機器上執行腳本文件

    [root@centos7-a bin]# ./etcd.sh etcd01 10.10.10.128 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    [root@centos7-b bin]# ./etcd.sh etcd02 10.10.10.129 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    [root@centos7-c bin]# ./etcd.sh etcd03 10.10.10.130 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    

    驗證集群是否是健康的

    ### 3.4.9
    [root@centos7-a ~]# ETCDCTL_API=3 etcdctl --write-out="table" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints=https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379 endpoint health
    +---------------------------+--------+-------------+-------+
    |         ENDPOINT          | HEALTH |    TOOK     | ERROR |
    +---------------------------+--------+-------------+-------+
    | https://10.10.10.128:2379 |   true | 31.126223ms |       |
    | https://10.10.10.129:2379 |   true | 28.698669ms |       |
    | https://10.10.10.130:2379 |   true | 32.508681ms |       |
    +---------------------------+--------+-------------+-------+
    

    查看集群成員

    [root@centos7-a ~]# ETCDCTL_API=3 etcdctl --write-out="table" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints=https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379 member list
    +------------------+---------+--------+---------------------------+---------------------------+------------+
    |        ID        | STATUS  |  NAME  |        PEER ADDRS         |       CLIENT ADDRS        | IS LEARNER |
    +------------------+---------+--------+---------------------------+---------------------------+------------+
    | 2cec243d35ad0881 | started | etcd02 | https://10.10.10.129:2380 | https://10.10.10.129:2379 |      false |
    | c6e694d272df93e8 | started | etcd03 | https://10.10.10.130:2380 | https://10.10.10.130:2379 |      false |
    | e9b57a5a8276394a | started | etcd01 | https://10.10.10.128:2380 | https://10.10.10.128:2379 |      false |
    +------------------+---------+--------+---------------------------+---------------------------+------------+
    

    etcdctl創建別名,三台機器分別執行

    vim .bashrc
    alias etcdctl2="ETCDCTL_API=2 etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints=https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379"
    alias etcdctl3="ETCDCTL_API=3 etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints=https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379"
    
    source .bashrc
    

    3.3 安裝 k8s 相關組件

    3.3.1 下載二進制安裝包

    [root@centos7-nginx ~]# mkdir k8s-1.18.3 && cd k8s-1.18.3/
    [root@centos7-nginx k8s-1.18.3]# wget https://dl.k8s.io/v1.18.3/kubernetes-server-linux-amd64.tar.gz
    [root@centos7-nginx k8s-1.18.3]# tar xf kubernetes-server-linux-amd64.tar.gz
    [root@centos7-nginx k8s-1.18.3]# cd kubernetes
    [root@centos7-nginx kubernetes]# ll
    總用量 33092
    drwxr-xr-x. 2 root root        6 5月  20 21:32 addons
    -rw-r--r--. 1 root root 32587733 5月  20 21:32 kubernetes-src.tar.gz
    -rw-r--r--. 1 root root  1297746 5月  20 21:32 LICENSES
    drwxr-xr-x. 3 root root       17 5月  20 21:27 server
    [root@centos7-nginx kubernetes]# cd server/bin/
    [root@centos7-nginx bin]# ll
    總用量 1087376
    -rwxr-xr-x. 1 root root  48128000 5月  20 21:32 apiextensions-apiserver
    -rwxr-xr-x. 1 root root  39813120 5月  20 21:32 kubeadm
    -rwxr-xr-x. 1 root root 120668160 5月  20 21:32 kube-apiserver
    -rw-r--r--. 1 root root         8 5月  20 21:27 kube-apiserver.docker_tag
    -rw-------. 1 root root 174558720 5月  20 21:27 kube-apiserver.tar
    -rwxr-xr-x. 1 root root 110059520 5月  20 21:32 kube-controller-manager
    -rw-r--r--. 1 root root         8 5月  20 21:27 kube-controller-manager.docker_tag
    -rw-------. 1 root root 163950080 5月  20 21:27 kube-controller-manager.tar
    -rwxr-xr-x. 1 root root  44032000 5月  20 21:32 kubectl
    -rwxr-xr-x. 1 root root 113283800 5月  20 21:32 kubelet
    -rwxr-xr-x. 1 root root  38379520 5月  20 21:32 kube-proxy
    -rw-r--r--. 1 root root         8 5月  20 21:28 kube-proxy.docker_tag
    -rw-------. 1 root root 119099392 5月  20 21:28 kube-proxy.tar
    -rwxr-xr-x. 1 root root  42950656 5月  20 21:32 kube-scheduler
    -rw-r--r--. 1 root root         8 5月  20 21:27 kube-scheduler.docker_tag
    -rw-------. 1 root root  96841216 5月  20 21:27 kube-scheduler.tar
    -rwxr-xr-x. 1 root root   1687552 5月  20 21:32 mounter
    

    將對應文件拷貝到目標機器上

    # masters
    [root@centos7-nginx bin]# scp kube-apiserver kube-controller-manager kube-scheduler kubectl kubelet kube-proxy root@10.10.10.128:/opt/kubernetes/bin/
    [root@centos7-nginx bin]# scp kube-apiserver kube-controller-manager kube-scheduler kubectl kubelet kube-proxy root@10.10.10.129:/opt/kubernetes/bin/
    [root@centos7-nginx bin]# scp kube-apiserver kube-controller-manager kube-scheduler kubectl kubelet kube-proxy root@10.10.10.130:/opt/kubernetes/bin/
    
    # nodes
    [root@centos7-nginx bin]# scp kubelet kube-proxy root@10.10.10.131:/opt/kubernetes/bin/
    [root@centos7-nginx bin]# scp kubelet kube-proxy root@10.10.10.131:/opt/kubernetes/bin/
    
    # 本機
    [root@centos7-nginx bin]# cp kubectl /usr/local/bin/
    

    3.3.2 創建Node節點kubeconfig文件

    • 創建TLS Bootstrapping Token
    • 創建kubelet kubeconfig
    • 創建kube-proxy kubeconfig
    • 創建admin kubeconfig
    [root@centos7-nginx ~]# cd ~/ssl/
    [root@centos7-nginx ssl]# vim kubeconfig.sh # 修改第10行 KUBE_APISERVER 地址
    [root@centos7-nginx ssl]# bash ./kubeconfig.sh
    Cluster "kubernetes" set.
    User "kubelet-bootstrap" set.
    Context "default" created.
    Switched to context "default".
    Cluster "kubernetes" set.
    User "kube-proxy" set.
    Context "default" created.
    Switched to context "default".
    Cluster "kubernetes" set.
    User "admin" set.
    Context "default" created.
    Switched to context "default".
    

    腳本內容如下:

    # 創建 TLS Bootstrapping Token
    export BOOTSTRAP_TOKEN=$(head -c 16 /dev/urandom | od -An -t x | tr -d ' ')
    cat > token.csv <<EOF
    ${BOOTSTRAP_TOKEN},kubelet-bootstrap,10001,"system:kubelet-bootstrap"
    EOF
    
    #----------------------
    
    # 創建kubelet bootstrapping kubeconfig
    export KUBE_APISERVER="https://lb.5179.top:6443"
    
    # 設置集群參數
    kubectl config set-cluster kubernetes \
      --certificate-authority=./ca.pem \
      --embed-certs=true \
      --server=${KUBE_APISERVER} \
      --kubeconfig=bootstrap.kubeconfig
    
    # 設置客戶端認證參數
    kubectl config set-credentials kubelet-bootstrap \
      --token=${BOOTSTRAP_TOKEN} \
      --kubeconfig=bootstrap.kubeconfig
    
    # 設置上下文參數
    kubectl config set-context default \
      --cluster=kubernetes \
      --user=kubelet-bootstrap \
      --kubeconfig=bootstrap.kubeconfig
    
    # 設置默認上下文
    kubectl config use-context default --kubeconfig=bootstrap.kubeconfig
    
    #----------------------
    
    # 創建kube-proxy kubeconfig文件
    
    kubectl config set-cluster kubernetes \
      --certificate-authority=./ca.pem \
      --embed-certs=true \
      --server=${KUBE_APISERVER} \
      --kubeconfig=kube-proxy.kubeconfig
    
    kubectl config set-credentials kube-proxy \
      --client-certificate=./kube-proxy.pem \
      --client-key=./kube-proxy-key.pem \
      --embed-certs=true \
      --kubeconfig=kube-proxy.kubeconfig
    
    kubectl config set-context default \
      --cluster=kubernetes \
      --user=kube-proxy \
      --kubeconfig=kube-proxy.kubeconfig
    
    kubectl config use-context default --kubeconfig=kube-proxy.kubeconfig
    
    #----------------------
    
    # 創建 admin kubeconfig文件
    
      kubectl config set-cluster kubernetes \
        --certificate-authority=./ca.pem \
        --embed-certs=true \
        --server=${KUBE_APISERVER} \
        --kubeconfig=admin.kubeconfig
    
      kubectl config set-credentials admin \
        --client-certificate=./admin.pem \
        --client-key=./admin-key.pem \
        --embed-certs=true \
        --kubeconfig=admin.kubeconfig
    
      kubectl config set-context default \
        --cluster=kubernetes \
        --user=admin \
        --kubeconfig=admin.kubeconfig
    
      kubectl config use-context default --kubeconfig=admin.kubeconfig
    
    

    將文件拷貝至對應位置

    ansible k8s -m copy -a "src=./bootstrap.kubeconfig dest=/opt/kubernetes/cfg"
    ansible k8s -m copy -a "src=./kube-proxy.kubeconfig dest=/opt/kubernetes/cfg"
    ansible k8s -m copy -a "src=./token.csv dest=/opt/kubernetes/cfg"
    

    3.4 安裝 kube-apiserver

    Masters 節點安裝

    此處可以使用 tmux 打開三個終端窗口進行,并行輸入

    也可以在三台機器上分開執行

    [root@centos7-a ~]# mkdir k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-apiserver.sh
    [root@centos7-a k8s-scripts]# IP=`ip addr | grep ens33 | grep inet | awk '{ print $2; }' | sed 's/\/.*$//'|head -1` && echo $IP
    10.10.10.128
    [root@centos7-a k8s-scripts]# bash install-apiserver.sh $IP https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379
    

    腳本內容如下:

    #!/bin/bash
    # MASTER_ADDRESS 寫本機
    MASTER_ADDRESS=${1:-"10.10.10.128"}
    ETCD_SERVERS=${2:-"http://127.0.0.1:2379"}
    
    cat <<EOF >/opt/kubernetes/cfg/kube-apiserver
    KUBE_APISERVER_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kube-apiserver \\
    --etcd-servers=${ETCD_SERVERS} \\
    --bind-address=0.0.0.0 \\
    --secure-port=6443 \\
    --advertise-address=${MASTER_ADDRESS} \\
    --allow-privileged=true \\
    --service-cluster-ip-range=10.96.0.0/12 \\
    --enable-admission-plugins=NamespaceLifecycle,LimitRanger,ServiceAccount,DefaultStorageClass,DefaultTolerationSeconds,MutatingAdmissionWebhook,ValidatingAdmissionWebhook,ResourceQuota,NodeRestriction \\
    --authorization-mode=RBAC,Node \\
    --kubelet-https=true \\
    --enable-bootstrap-token-auth=true \\
    --token-auth-file=/opt/kubernetes/cfg/token.csv \\
    --service-node-port-range=30000-50000 \\
    --kubelet-client-certificate=/opt/kubernetes/ssl/server.pem \\
    --kubelet-client-key=/opt/kubernetes/ssl/server-key.pem \\
    --tls-cert-file=/opt/kubernetes/ssl/server.pem  \\
    --tls-private-key-file=/opt/kubernetes/ssl/server-key.pem \\
    --client-ca-file=/opt/kubernetes/ssl/ca.pem \\
    --service-account-key-file=/opt/kubernetes/ssl/ca-key.pem \\
    --etcd-cafile=/opt/kubernetes/ssl/ca.pem \\
    --etcd-certfile=/opt/kubernetes/ssl/server.pem \\
    --etcd-keyfile=/opt/kubernetes/ssl/server-key.pem \\
    --requestheader-client-ca-file=/opt/kubernetes/ssl/ca.pem \\
    --requestheader-extra-headers-prefix=X-Remote-Extra- \\
    --requestheader-group-headers=X-Remote-Group \\
    --requestheader-username-headers=X-Remote-User \\
    --proxy-client-cert-file=/opt/kubernetes/ssl/metrics-server.pem \\
    --proxy-client-key-file=/opt/kubernetes/ssl/metrics-server-key.pem \\
    --runtime-config=api/all=true \\
    --audit-log-maxage=30 \\
    --audit-log-maxbackup=3 \\
    --audit-log-maxsize=100 \\
    --audit-log-truncate-enabled=true \\
    --audit-log-path=/opt/kubernetes/logs/k8s-audit.log"
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kube-apiserver.service
    [Unit]
    Description=Kubernetes API Server
    Documentation=https://github.com/kubernetes/kubernetes
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kube-apiserver
    ExecStart=/opt/kubernetes/bin/kube-apiserver \$KUBE_APISERVER_OPTS
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kube-apiserver
    systemctl restart kube-apiserver
    

    3.5 安裝 kube-scheduler

    Masters 節點安裝

    此處可以使用 tmux 打開三個終端窗口進行,并行輸入,也可以在三台機器上分開執行

    [root@centos7-a ~]# cd k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-scheduler.sh
    [root@centos7-a k8s-scripts]# bash install-scheduler.sh 127.0.0.1
    

    腳本內容如下

    #!/bin/bash
    
    MASTER_ADDRESS=${1:-"127.0.0.1"}
    
    cat <<EOF >/opt/kubernetes/cfg/kube-scheduler
    KUBE_SCHEDULER_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kube-scheduler \\
    --master=${MASTER_ADDRESS}:8080 \\
    --address=0.0.0.0 \\
    --leader-elect"
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kube-scheduler.service
    [Unit]
    Description=Kubernetes Scheduler
    Documentation=https://github.com/kubernetes/kubernetes
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kube-scheduler
    ExecStart=/opt/kubernetes/bin/kube-scheduler \$KUBE_SCHEDULER_OPTS
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kube-scheduler
    systemctl restart kube-scheduler
    

    3.6 安裝 kube-controller-manager

    Masters 節點安裝

    此處可以使用 tmux 打開三個終端窗口進行,并行輸入,也可以在三台機器上分開執行

    [root@centos7-a ~]# cd k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-controller-manager.sh
    [root@centos7-a k8s-scripts]# bash install-controller-manager.sh 127.0.0.1
    

    腳本內容如下

    #!/bin/bash
    
    MASTER_ADDRESS=${1:-"127.0.0.1"}
    
    cat <<EOF >/opt/kubernetes/cfg/kube-controller-manager
    KUBE_CONTROLLER_MANAGER_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kube-controller-manager \\
    --master=${MASTER_ADDRESS}:8080 \\
    --leader-elect=true \\
    --bind-address=0.0.0.0 \\
    --service-cluster-ip-range=10.96.0.0/12 \\
    --cluster-name=kubernetes \\
    --cluster-signing-cert-file=/opt/kubernetes/ssl/ca.pem \\
    --cluster-signing-key-file=/opt/kubernetes/ssl/ca-key.pem  \\
    --service-account-private-key-file=/opt/kubernetes/ssl/ca-key.pem \\
    --experimental-cluster-signing-duration=87600h0m0s \\
    --feature-gates=RotateKubeletServerCertificate=true \\
    --feature-gates=RotateKubeletClientCertificate=true \\
    --allocate-node-cidrs=true \\
    --cluster-cidr=10.244.0.0/16 \\
    --root-ca-file=/opt/kubernetes/ssl/ca.pem"
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kube-controller-manager.service
    [Unit]
    Description=Kubernetes Controller Manager
    Documentation=https://github.com/kubernetes/kubernetes
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kube-controller-manager
    ExecStart=/opt/kubernetes/bin/kube-controller-manager \$KUBE_CONTROLLER_MANAGER_OPTS
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kube-controller-manager
    systemctl restart kube-controller-manager
    

    3.7 查看組件狀態

    在三台機器上任意一台執行kubectl get cs

    [root@centos7-a k8s-scripts]# kubectl get cs
    NAME                 STATUS    MESSAGE             ERROR
    etcd-1               Healthy   {"health":"true"}
    etcd-2               Healthy   {"health":"true"}
    etcd-0               Healthy   {"health":"true"}
    controller-manager   Healthy   ok
    scheduler            Healthy   ok
    

    3.8 配置kubelet證書自動申請 CSR、審核及自動續期

    3.8.1 節點自動創建 CSR 請求

    節點 kubelet 啟動時自動創建 CSR 請求,將kubelet-bootstrap用戶綁定到系統集群角色 ,這個是為了頒發證書用的權限

    # Bind kubelet-bootstrap user to system cluster roles.
    kubectl create clusterrolebinding kubelet-bootstrap \
      --clusterrole=system:node-bootstrapper \
      --user=kubelet-bootstrap
    
    

    3.8.2 證書審批及自動續期

    1)手動審批腳本(啟動 node 節點 kubelet 之後操作)

    vim k8s-csr-approve.sh
    #!/bin/bash
    CSRS=$(kubectl get csr | awk '{if(NR>1) print $1}')
    for csr in $CSRS; do
    	kubectl certificate approve $csr;
    done
    
    1. 自動審批及續期

    創建自動批准相關 CSR 請求的 ClusterRole

    [root@centos7-a ~]# mkdir yaml
    [root@centos7-a ~]# cd yaml/
    [root@centos7-a yaml]# vim tls-instructs-csr.yaml
    kind: ClusterRole
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: system:certificates.k8s.io:certificatesigningrequests:selfnodeserver
    rules:
    - apiGroups: ["certificates.k8s.io"]
      resources: ["certificatesigningrequests/selfnodeserver"]
      verbs: ["create"]
    
    [root@centos7-a yaml]# kubectl apply -f tls-instructs-csr.yaml
    

    自動批准 kubelet-bootstrap 用戶 TLS bootstrapping 首次申請證書的 CSR 請求

    kubectl create clusterrolebinding node-client-auto-approve-csr --clusterrole=system:certificates.k8s.io:certificatesigningrequests:nodeclient --user=kubelet-bootstrap
    

    自動批准 system:nodes 組用戶更新 kubelet 自身與 apiserver 通訊證書的 CSR 請求

    kubectl create clusterrolebinding node-client-auto-renew-crt --clusterrole=system:certificates.k8s.io:certificatesigningrequests:selfnodeclient --group=system:nodes
    

    自動批准 system:nodes 組用戶更新 kubelet 10250 api 端口證書的 CSR 請求

    kubectl create clusterrolebinding node-server-auto-renew-crt --clusterrole=system:certificates.k8s.io:certificatesigningrequests:selfnodeserver --group=system:nodes
    

    自動獲簽后的狀態如下:

    [root@centos7-a kubelet]# kubectl get csr
    NAME        AGE     SIGNERNAME                                    REQUESTOR           CONDITION
    csr-44lt8   4m10s   kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    csr-45njg   0s      kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    csr-nsbc9   4m9s    kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    csr-vk64f   4m9s    kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    csr-wftvq   59s     kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    

    3.9 安裝 kube-proxy

    拷貝對應包至所有節點

    [root@centos7-nginx ~]# cd k8s-1.18.3/kubernetes/server/bin/
    [root@centos7-nginx bin]# ansible k8s -m copy -a "src=./kube-proxy dest=/opt/kubernetes/bin mode=755"
    

    此處可以使用 tmux 打開五個終端窗口進行,并行輸入,也可以在五台機器上分開執行

    [root@centos7-a ~]# cd k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-proxy.sh
    [root@centos7-a k8s-scripts]# bash install-proxy.sh ${HOSTNAME}
    

    腳本內容如下

    #!/bin/bash
    
    HOSTNAME=${1:-"`hostname`"}
    
    cat <<EOF >/opt/kubernetes/cfg/kube-proxy.conf
    KUBE_PROXY_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kube-proxy \\
    --config=/opt/kubernetes/cfg/kube-proxy-config.yml"
    EOF
    
    cat <<EOF >/opt/kubernetes/cfg/kube-proxy-config.yml
    kind: KubeProxyConfiguration
    apiVersion: kubeproxy.config.k8s.io/v1alpha1
    address: 0.0.0.0 # 監聽地址
    metricsBindAddress: 0.0.0.0:10249 # 監控指標地址,監控獲取相關信息 就從這裏獲取
    clientConnection:
      kubeconfig: /opt/kubernetes/cfg/kube-proxy.kubeconfig # 讀取配置文件
    hostnameOverride: ${HOSTNAME} # 註冊到k8s的節點名稱唯一
    clusterCIDR: 10.244.0.0/16
    mode: iptables # 使用iptables模式
    
    # 使用 ipvs 模式
    #mode: ipvs # ipvs 模式
    #ipvs:
    #  scheduler: "rr"
    #iptables:
    #  masqueradeAll: true
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kube-proxy.service
    [Unit]
    Description=Kubernetes Proxy
    After=network.target
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kube-proxy.conf
    ExecStart=/opt/kubernetes/bin/kube-proxy \$KUBE_PROXY_OPTS
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kube-proxy
    systemctl restart kube-proxy
    

    3.10 安裝 kubelet

    拷貝對應包至所有節點

    [root@centos7-nginx ~]# cd k8s-1.18.3/kubernetes/server/bin/
    [root@centos7-nginx bin]# ansible k8s -m copy -a "src=./kubelet dest=/opt/kubernetes/bin mode=755"
    

    此處可以使用 tmux 打開五個終端窗口進行,并行輸入,也可以在五台機器上分開執行

    [root@centos7-a ~]# cd k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-kubelet.sh
    [root@centos7-a k8s-scripts]# bash install-kubelet.sh 10.96.0.10 ${HOSTNAME} cluster.local
    

    腳本內容如下

    #!/bin/bash
    
    DNS_SERVER_IP=${1:-"10.96.0.10"}
    HOSTNAME=${2:-"`hostname`"}
    CLUETERDOMAIN=${3:-"cluster.local"}
    
    cat <<EOF >/opt/kubernetes/cfg/kubelet.conf
    KUBELET_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kubelet \\
    --hostname-override=${HOSTNAME} \\
    --kubeconfig=/opt/kubernetes/cfg/kubelet.kubeconfig \\
    --bootstrap-kubeconfig=/opt/kubernetes/cfg/bootstrap.kubeconfig \\
    --config=/opt/kubernetes/cfg/kubelet-config.yml \\
    --cert-dir=/opt/kubernetes/ssl \\
    --network-plugin=cni \\
    --cni-conf-dir=/etc/cni/net.d \\
    --cni-bin-dir=/opt/cni/bin \\
    --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google-containers/pause-amd64:3.0 \\
    --system-reserved=memory=300Mi \\
    --kube-reserved=memory=400Mi"
    EOF
    
    cat <<EOF >/opt/kubernetes/cfg/kubelet-config.yml
    kind: KubeletConfiguration # 使用對象
    apiVersion: kubelet.config.k8s.io/v1beta1 # api版本
    address: 0.0.0.0 # 監聽地址
    port: 10250 # 當前kubelet的端口
    readOnlyPort: 10255 # kubelet暴露的端口
    cgroupDriver: cgroupfs # 驅動,要與docker info显示的驅動一致
    clusterDNS:
      - ${DNS_SERVER_IP}
    clusterDomain: ${CLUETERDOMAIN}  # 集群域
    failSwapOn: false # 關閉swap
    
    # 身份驗證
    authentication:
      anonymous:
        enabled: false
      webhook:
        cacheTTL: 2m0s
        enabled: true
      x509:
        clientCAFile: /opt/kubernetes/ssl/ca.pem
    
    # 授權
    authorization:
      mode: Webhook
      webhook:
        cacheAuthorizedTTL: 5m0s
        cacheUnauthorizedTTL: 30s
    
    # Node 資源保留
    evictionHard:
      imagefs.available: 15%
      memory.available: 300Mi
      nodefs.available: 10%
      nodefs.inodesFree: 5%
    evictionPressureTransitionPeriod: 5m0s
    
    # 鏡像刪除策略
    imageGCHighThresholdPercent: 85
    imageGCLowThresholdPercent: 80
    imageMinimumGCAge: 2m0s
    
    # 旋轉證書
    rotateCertificates: true # 旋轉kubelet client 證書
    featureGates:
      RotateKubeletServerCertificate: true
      RotateKubeletClientCertificate: true
    
    maxOpenFiles: 1000000
    maxPods: 110
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kubelet.service
    [Unit]
    Description=Kubernetes Kubelet
    After=docker.service
    Requires=docker.service
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kubelet.conf
    ExecStart=/opt/kubernetes/bin/kubelet \$KUBELET_OPTS
    Restart=on-failure
    KillMode=process
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kubelet
    systemctl restart kubelet
    

    3.11 查看節點個數

    等待一段時間后出現

    [root@centos7-a ~]# kubectl get nodes
    NAME        STATUS   ROLES    AGE     VERSION
    centos7-a   NotReady    <none>   7m   v1.18.3
    centos7-b   NotReady    <none>   6m   v1.18.3
    centos7-c   NotReady    <none>   6m   v1.18.3
    centos7-d   NotReady    <none>   6m   v1.18.3
    centos7-e   NotReady    <none>   5m   v1.18.3
    

    3.12 安裝網絡插件

    3.12.1 安裝 flannel

    [root@centos7-nginx ~]# mkdir flannel
    [root@centos7-nginx flannel]# wget https://github.com/coreos/flannel/releases/download/v0.12.0/flannel-v0.12.0-linux-amd64.tar.gz
    [root@centos7-nginx flannel]# tar xf flannel-v0.12.0-linux-amd64.tar.gz
    [root@centos7-nginx flannel]# ll
    總用量 43792
    -rwxr-xr-x. 1 lyj  lyj  35253112 3月  13 08:01 flanneld
    -rw-r--r--. 1 root root  9565406 6月  16 19:41 flannel-v0.12.0-linux-amd64.tar.gz
    -rwxr-xr-x. 1 lyj  lyj      2139 5月  29 2019 mk-docker-opts.sh
    -rw-r--r--. 1 lyj  lyj      4300 5月  29 2019 README.md
    [root@centos7-nginx flannel]# vim remove-docker0.sh
    #!/bin/bash
    
    # Copyright 2014 The Kubernetes Authors All rights reserved.
    #
    # Licensed under the Apache License, Version 2.0 (the "License");
    # you may not use this file except in compliance with the License.
    # You may obtain a copy of the License at
    #
    #     http://www.apache.org/licenses/LICENSE-2.0
    #
    # Unless required by applicable law or agreed to in writing, software
    # distributed under the License is distributed on an "AS IS" BASIS,
    # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
    # See the License for the specific language governing permissions and
    # limitations under the License.
    
    # Delete default docker bridge, so that docker can start with flannel network.
    
    # exit on any error
    set -e
    
    rc=0
    ip link show docker0 >/dev/null 2>&1 || rc="$?"
    if [[ "$rc" -eq "0" ]]; then
      ip link set dev docker0 down
      ip link delete docker0
    fi
    

    將包拷貝至所有主機對應位置

    [root@centos7-nginx flannel]# ansible k8s -m copy -a "src=./flanneld dest=/opt/kubernetes/bin mode=755"
    [root@centos7-nginx flannel]# ansible k8s -m copy -a "src=./mk-docker-opts.sh dest=/opt/kubernetes/bin mode=755"
    [root@centos7-nginx flannel]# ansible k8s -m copy -a "src=./remove-docker0.sh dest=/opt/kubernetes/bin mode=755"
    

    準備啟動腳本

    [root@centos7-nginx scripts]# vim install-flannel.sh
    [root@centos7-nginx scripts]# bash install-flannel.sh 
    [root@centos7-nginx scripts]# ansible k8s -m script -a "./install-flannel.sh https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379"
    

    腳本內容如下:

    #!/bin/bash
    ETCD_ENDPOINTS=${1:-'https://127.0.0.1:2379'}
    
    cat >/opt/kubernetes/cfg/flanneld <<EOF
    FLANNEL_OPTIONS="--etcd-endpoints=${ETCD_ENDPOINTS} \
    -etcd-cafile=/opt/kubernetes/ssl/ca.pem \
    -etcd-certfile=/opt/kubernetes/ssl/server.pem \
    -etcd-keyfile=/opt/kubernetes/ssl/server-key.pem"
    EOF
    
    cat >/usr/lib/systemd/system/flanneld.service <<EOF
    [Unit]
    Description=Flanneld Overlay address etcd agent
    After=network-online.target network.target
    Before=docker.service
    
    [Service]
    Type=notify
    EnvironmentFile=/opt/kubernetes/cfg/flanneld
    #ExecStartPre=/opt/kubernetes/bin/remove-docker0.sh
    ExecStart=/opt/kubernetes/bin/flanneld --ip-masq \$FLANNEL_OPTIONS
    #ExecStartPost=/opt/kubernetes/bin/mk-docker-opts.sh -k DOCKER_NETWORK_OPTIONS -d /run/flannel/subnet.env
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable flanneld
    systemctl restart flanneld
    

    將 pod 網段信息寫入 etcd 中

    登陸到任意一台 master 節點上

    [root@centos7-a ~]# cd k8s-scripts/
    [root@centos7-a k8s-scripts]# vim install-flannel-to-etcd.sh
    [root@centos7-a k8s-scripts]# bash install-flannel-to-etcd.sh https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379 10.244.0.0/16 vxlan
    

    腳本內容如下

    #!/bin/bash
    # bash install-flannel-to-etcd.sh https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379 10.244.0.0/16 vxlan
    
    ETCD_ENDPOINTS=${1:-'https://127.0.0.1:2379'}
    NETWORK=${2:-'10.244.0.0/16'}
    NETWORK_MODE=${3:-'vxlan'}
    
    ETCDCTL_API=2 etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints=${ETCD_ENDPOINTS} set /coreos.com/network/config   '{"Network": '\"$NETWORK\"', "Backend": {"Type": '\"${NETWORK_MODE}\"'}}'
    
    #ETCDCTL_API=3 etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints=${ETCD_ENDPOINTS} put /coreos.com/network/config -- '{"Network": "10.244.0.0/16", "Backend": {"Type": "vxlan"}}'
    

    由於flannel 使用的是v2版本的 etcd,所以此處 etcdctl 使用 v2 的 API

    3.12.2 安裝 cni-plugin

    下載 cni 插件

    [root@centos7-nginx ~]# mkdir cni
    [root@centos7-nginx ~]# cd cni
    [root@centos7-nginx cni]# wget https://github.com/containernetworking/plugins/releases/download/v0.8.6/cni-plugins-linux-amd64-v0.8.6.tgz
    [root@centos7-nginx cni]# tar xf cni-plugins-linux-amd64-v0.8.6.tgz
    [root@centos7-nginx cni]# ll
    總用量 106512
    -rwxr-xr-x. 1 root root  4159518 5月  14 03:50 bandwidth
    -rwxr-xr-x. 1 root root  4671647 5月  14 03:50 bridge
    -rw-r--r--. 1 root root 36878412 6月  17 20:07 cni-plugins-linux-amd64-v0.8.6.tgz
    -rwxr-xr-x. 1 root root 12124326 5月  14 03:50 dhcp
    -rwxr-xr-x. 1 root root  5945760 5月  14 03:50 firewall
    -rwxr-xr-x. 1 root root  3069556 5月  14 03:50 flannel
    -rwxr-xr-x. 1 root root  4174394 5月  14 03:50 host-device
    -rwxr-xr-x. 1 root root  3614480 5月  14 03:50 host-local
    -rwxr-xr-x. 1 root root  4314598 5月  14 03:50 ipvlan
    -rwxr-xr-x. 1 root root  3209463 5月  14 03:50 loopback
    -rwxr-xr-x. 1 root root  4389622 5月  14 03:50 macvlan
    -rwxr-xr-x. 1 root root  3939867 5月  14 03:50 portmap
    -rwxr-xr-x. 1 root root  4590277 5月  14 03:50 ptp
    -rwxr-xr-x. 1 root root  3392826 5月  14 03:50 sbr
    -rwxr-xr-x. 1 root root  2885430 5月  14 03:50 static
    -rwxr-xr-x. 1 root root  3356587 5月  14 03:50 tuning
    -rwxr-xr-x. 1 root root  4314446 5月  14 03:50 vlan
    [root@centos7-nginx cni]# cd ..
    [root@centos7-nginx ~]# ansible k8s -m copy -a "src=./cni/ dest=/opt/cni/bin mode=755"
    

    創建 cni 配置文件

    [root@centos7-nginx scripts]# vim install-cni.sh
    [root@centos7-nginx scripts]# ansible k8s -m script -a "./install-cni.sh"
    

    腳本內容如下:

    #!/bin/bash
    mkdir /etc/cni/net.d/ -pv
    cat <<EOF > /etc/cni/net.d/10-flannel.conflist
    {
      "name": "cbr0",
      "cniVersion": "0.3.1",
      "plugins": [
        {
          "type": "flannel",
          "delegate": {
            "hairpinMode": true,
            "isDefaultGateway": true
          }
        },
        {
          "type": "portmap",
          "capabilities": {
            "portMappings": true
          }
        }
      ]
    }
    EOF
    

    3.13 查看 node 狀態

    [root@centos7-c cfg]# kubectl get nodes
    NAME           STATUS   ROLES    AGE   VERSION
    10.10.10.128   Ready    <none>   1h   v1.18.3
    10.10.10.129   Ready    <none>   1h   v1.18.3
    10.10.10.130   Ready    <none>   1h   v1.18.3
    10.10.10.131   Ready    <none>   1h   v1.18.3
    10.10.10.132   Ready    <none>   1h   v1.18.3
    

    3.14 安裝 coredns

    注意:k8s 與 coredns 的版本對應關係

    https://github.com/coredns/deployment/blob/master/kubernetes/CoreDNS-k8s_version.md

    安裝 dns 插件

    kubectl apply -f coredns.yaml
    

    文件內容如下

    cat coredns.yaml # 注意修改clusterIP 和 鏡像版本1.6.7

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: coredns
      namespace: kube-system
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      labels:
        kubernetes.io/bootstrapping: rbac-defaults
      name: system:coredns
    rules:
    - apiGroups:
      - ""
      resources:
      - endpoints
      - services
      - pods
      - namespaces
      verbs:
      - list
      - watch
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      annotations:
        rbac.authorization.kubernetes.io/autoupdate: "true"
      labels:
        kubernetes.io/bootstrapping: rbac-defaults
      name: system:coredns
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: system:coredns
    subjects:
    - kind: ServiceAccount
      name: coredns
      namespace: kube-system
    ---
    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: coredns
      namespace: kube-system
    data:
      Corefile: |
        .:53 {
            errors
            health {
              lameduck 5s
            }
            ready
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: coredns
      namespace: kube-system
      labels:
        k8s-app: kube-dns
        kubernetes.io/name: "CoreDNS"
    spec:
      # replicas: not specified here:
      # 1. Default is 1.
      # 2. Will be tuned in real time if DNS horizontal auto-scaling is turned on.
      replicas: 2
      strategy:
        type: RollingUpdate
        rollingUpdate:
          maxUnavailable: 1
      selector:
        matchLabels:
          k8s-app: kube-dns
      template:
        metadata:
          labels:
            k8s-app: kube-dns
        spec:
          priorityClassName: system-cluster-critical
          serviceAccountName: coredns
          tolerations:
            - key: "CriticalAddonsOnly"
              operator: "Exists"
          nodeSelector:
            kubernetes.io/os: linux
          affinity:
             podAntiAffinity:
               preferredDuringSchedulingIgnoredDuringExecution:
               - weight: 100
                 podAffinityTerm:
                   labelSelector:
                     matchExpressions:
                       - key: k8s-app
                         operator: In
                         values: ["kube-dns"]
                   topologyKey: kubernetes.io/hostname
          containers:
          - name: coredns
            image: coredns/coredns:1.6.7
            imagePullPolicy: IfNotPresent
            resources:
              limits:
                memory: 170Mi
              requests:
                cpu: 100m
                memory: 70Mi
            args: [ "-conf", "/etc/coredns/Corefile" ]
            volumeMounts:
            - name: config-volume
              mountPath: /etc/coredns
              readOnly: true
            ports:
            - containerPort: 53
              name: dns
              protocol: UDP
            - containerPort: 53
              name: dns-tcp
              protocol: TCP
            - containerPort: 9153
              name: metrics
              protocol: TCP
            securityContext:
              allowPrivilegeEscalation: false
              capabilities:
                add:
                - NET_BIND_SERVICE
                drop:
                - all
              readOnlyRootFilesystem: true
            livenessProbe:
              httpGet:
                path: /health
                port: 8080
                scheme: HTTP
              initialDelaySeconds: 60
              timeoutSeconds: 5
              successThreshold: 1
              failureThreshold: 5
            readinessProbe:
              httpGet:
                path: /ready
                port: 8181
                scheme: HTTP
          dnsPolicy: Default
          volumes:
            - name: config-volume
              configMap:
                name: coredns
                items:
                - key: Corefile
                  path: Corefile
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: kube-dns
      namespace: kube-system
      annotations:
        prometheus.io/port: "9153"
        prometheus.io/scrape: "true"
      labels:
        k8s-app: kube-dns
        kubernetes.io/cluster-service: "true"
        kubernetes.io/name: "CoreDNS"
    spec:
      selector:
        k8s-app: kube-dns
      clusterIP: 10.96.0.10
      ports:
      - name: dns
        port: 53
        protocol: UDP
      - name: dns-tcp
        port: 53
        protocol: TCP
      - name: metrics
        port: 9153
        protocol: TCP
    

    驗證是否可以正常運行

    # 先創建一個 busybox 容器作為客戶端
    [root@centos7-nginx ~]# kubectl create -f https://k8s.io/examples/admin/dns/busybox.yaml
    # 解析 kubernetes
    [root@centos7-nginx ~]# kubectl exec -it busybox -- nslookup kubernetes
    Server:    10.96.0.10
    Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local
    
    Name:      kubernetes
    Address 1: 10.96.0.1 kubernetes.default.svc.cluster.local
    [root@centos7-nginx ~]#
    

    3.15 安裝 metrics-server

    項目地址:https://github.com/kubernetes-sigs/metrics-server

    按照說明執行如下命令即可,需要根據自身集群狀態進行修改,比如,鏡像地址、資源限制…

    kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/download/v0.3.6/components.yaml
    

    將文件下載到本地

    [root@centos7-nginx scripts]# wget https://github.com/kubernetes-sigs/metrics-server/releases/download/v0.3.6/components.yaml
    

    修改內容:修改鏡像地址,添加資源限制和相關命令

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: metrics-server
    spec:
      template:
        spec:
          containers:
          - name: metrics-server
            image: registry.cn-beijing.aliyuncs.com/liyongjian5179/metrics-server-amd64:v0.3.6
            imagePullPolicy: IfNotPresent
            resources:
              limits:
                cpu: 400m
                memory: 512Mi
              requests:
                cpu: 50m
                memory: 50Mi
            command:
            - /metrics-server
            - --kubelet-insecure-tls
            - --kubelet-preferred-address-types=InternalIP
    

    根據您的群集設置,您可能還需要更改傳遞給Metrics Server容器的標誌。最有用的標誌:

    • --kubelet-preferred-address-types -確定連接到特定節點的地址時使用的節點地址類型的優先級(default [Hostname,InternalDNS,InternalIP,ExternalDNS,ExternalIP])
    • --kubelet-insecure-tls-不要驗證Kubelets提供的服務證書的CA。僅用於測試目的。
    • --requestheader-client-ca-file -指定根證書捆綁包,以驗證傳入請求上的客戶端證書。

    執行該文件

    [root@centos7-nginx scripts]# kubectl apply -f components.yaml
    clusterrole.rbac.authorization.k8s.io/system:aggregated-metrics-reader created
    clusterrolebinding.rbac.authorization.k8s.io/metrics-server:system:auth-delegator created
    rolebinding.rbac.authorization.k8s.io/metrics-server-auth-reader created
    apiservice.apiregistration.k8s.io/v1beta1.metrics.k8s.io created
    serviceaccount/metrics-server created
    deployment.apps/metrics-server created
    service/metrics-server created
    clusterrole.rbac.authorization.k8s.io/system:metrics-server created
    clusterrolebinding.rbac.authorization.k8s.io/system:metrics-server created
    

    等待一段時間即可查看效果

    [root@centos7-nginx scripts]# kubectl top nodes
    NAME        CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
    centos7-a   159m         15%    1069Mi          62%
    centos7-b   158m         15%    1101Mi          64%
    centos7-c   168m         16%    1153Mi          67%
    centos7-d   48m          4%     657Mi           38%
    centos7-e   45m          4%     440Mi           50%
    [root@centos7-nginx scripts]# kubectl top pods -A
    NAMESPACE     NAME                              CPU(cores)   MEMORY(bytes)
    kube-system   coredns-6fdfb45d56-79jhl          5m           12Mi
    kube-system   coredns-6fdfb45d56-pvnzt          3m           13Mi
    kube-system   metrics-server-5f8fdf59b9-8chz8   1m           11Mi
    kube-system   tiller-deploy-6b75d7dccd-r6sz2    2m           6Mi
    

    完整文件內容如下

    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: system:aggregated-metrics-reader
      labels:
        rbac.authorization.k8s.io/aggregate-to-view: "true"
        rbac.authorization.k8s.io/aggregate-to-edit: "true"
        rbac.authorization.k8s.io/aggregate-to-admin: "true"
    rules:
    - apiGroups: ["metrics.k8s.io"]
      resources: ["pods", "nodes"]
      verbs: ["get", "list", "watch"]
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: metrics-server:system:auth-delegator
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: system:auth-delegator
    subjects:
    - kind: ServiceAccount
      name: metrics-server
      namespace: kube-system
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: RoleBinding
    metadata:
      name: metrics-server-auth-reader
      namespace: kube-system
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: Role
      name: extension-apiserver-authentication-reader
    subjects:
    - kind: ServiceAccount
      name: metrics-server
      namespace: kube-system
    ---
    apiVersion: apiregistration.k8s.io/v1beta1
    kind: APIService
    metadata:
      name: v1beta1.metrics.k8s.io
    spec:
      service:
        name: metrics-server
        namespace: kube-system
      group: metrics.k8s.io
      version: v1beta1
      insecureSkipTLSVerify: true
      groupPriorityMinimum: 100
      versionPriority: 100
    ---
    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: metrics-server
      namespace: kube-system
    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: metrics-server
      namespace: kube-system
      labels:
        k8s-app: metrics-server
    spec:
      selector:
        matchLabels:
          k8s-app: metrics-server
      template:
        metadata:
          name: metrics-server
          labels:
            k8s-app: metrics-server
        spec:
          serviceAccountName: metrics-server
          volumes:
          # mount in tmp so we can safely use from-scratch images and/or read-only containers
          - name: tmp-dir
            emptyDir: {}
          containers:
          - name: metrics-server
            image: registry.cn-beijing.aliyuncs.com/liyongjian5179/metrics-server-amd64:v0.3.6
            imagePullPolicy: IfNotPresent
            resources:
              limits:
                cpu: 400m
                memory: 512Mi
              requests:
                cpu: 50m
                memory: 50Mi
            command:
            - /metrics-server
            - --kubelet-insecure-tls
            - --kubelet-preferred-address-types=InternalIP
            args:
              - --cert-dir=/tmp
              - --secure-port=4443
            ports:
            - name: main-port
              containerPort: 4443
              protocol: TCP
            securityContext:
              readOnlyRootFilesystem: true
              runAsNonRoot: true
              runAsUser: 1000
            volumeMounts:
            - name: tmp-dir
              mountPath: /tmp
          nodeSelector:
            kubernetes.io/os: linux
            kubernetes.io/arch: "amd64"
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: metrics-server
      namespace: kube-system
      labels:
        kubernetes.io/name: "Metrics-server"
        kubernetes.io/cluster-service: "true"
    spec:
      selector:
        k8s-app: metrics-server
      ports:
      - port: 443
        protocol: TCP
        targetPort: main-port
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: system:metrics-server
    rules:
    - apiGroups:
      - ""
      resources:
      - pods
      - nodes
      - nodes/stats
      - namespaces
      - configmaps
      verbs:
      - get
      - list
      - watch
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: system:metrics-server
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: system:metrics-server
    subjects:
    - kind: ServiceAccount
      name: metrics-server
      namespace: kube-system
    

    3.16 安裝 ingress

    3.16.1 LB 方案

    採用裸金屬服務器的方案:https://kubernetes.github.io/ingress-nginx/deploy/#bare-metal

    可選NodePort或者LoadBalancer,默認是 NodePort 的方案

    在雲上的環境可以使用現成的 LB的方案:

    比如阿里雲Internal load balancer示例,可以通過註解的方式

    [...]
    metadata:
      annotations:  
        service.beta.kubernetes.io/alibaba-cloud-loadbalancer-address-type: "intranet"
    [...]
    

    裸金屬服務器上可選方案:

    1)純軟件解決方案:MetalLB(https://metallb.universe.tf/)

    該項目發佈於 2017 年底,當前處於 Beta 階段。

    MetalLB支持兩種聲明模式:

    • Layer 2模式:ARP/NDP
    • BGP模式

    Layer 2 模式

    Layer 2模式下,每個service會有集群中的一個node來負責。當服務客戶端發起ARP解析的時候,對應的node會響應該ARP請求,之後,該service的流量都會指向該node(看上去該node上有多個地址)。

    Layer 2模式並不是真正的負載均衡,因為流量都會先經過1個node后,再通過kube-proxy轉給多個end points。如果該node故障,MetalLB會遷移 IP到另一個node,並重新發送免費ARP告知客戶端遷移。現代操作系統基本都能正確處理免費ARP,因此failover不會產生太大問題。

    Layer 2模式更為通用,不需要用戶有額外的設備;但由於Layer 2模式使用ARP/ND,地址池分配需要跟客戶端在同一子網,地址分配略為繁瑣。

    BGP模式

    BGP模式下,集群中所有node都會跟上聯路由器建立BGP連接,並且會告知路由器應該如何轉發service的流量。

    BGP模式是真正的LoadBalancer。

    2)通過NodePort

    使用`NodePort`有一些局限性
    
    • Source IP address

    默認情況下,NodePort類型的服務執行源地址轉換。這意味着HTTP請求的源IP始終是從NGINX側接收到該請求的Kubernetes節點的IP地址。

    建議在NodePort設置中保留源IP的方法是將ingress-nginxServicespecexternalTrafficPolicy字段的值設置為Local,如下面的例子:

    kind: Service
    apiVersion: v1
    metadata:
      name: ingress-nginx
      namespace: ingress-nginx
      labels:
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/part-of: ingress-nginx
      annotations:
        # by default the type is elb (classic load balancer).
        service.beta.kubernetes.io/aws-load-balancer-type: nlb
    spec:
      # this setting is t make sure the source IP address is preserved.
      externalTrafficPolicy: Local
      type: LoadBalancer
      selector:
        app.kubernetes.io/name: ingress-nginx
      ports:
      - name: http
        port: 80
        targetPort: http
      - name: https
        port: 443
        targetPort: https
    

    注意:此設置有效地丟棄了發送到未運行NGINX Ingress控制器任何實例的Kubernetes節點的數據包。考慮將NGINX Pod分配給特定節點,以控制應調度或不調度NGINX Ingress控制器的節點,可以通過nodeSelector實現。如果有三台機器,但是只有兩個 nginx 的 replica,分別部署在 node-2和 node-3,那麼當請求到 node-1 時,會因為在這台機器上沒有運行 nginx 的 replica 而被丟棄。

    給對應節點打標籤

    [root@centos7-nginx ~]# kubectl label nodes centos7-d lb-type=nginx
    node/centos7-d labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-e lb-type=nginx
    node/centos7-e labeled
    

    3.16.2 安裝

    本次實驗採用默認的方式:

    kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/static/provider/baremetal/deploy.yaml
    

    如果需要進行修改,先下載到本地

    [root@centos7-nginx yaml]# wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/static/provider/baremetal/deploy.yaml
    [root@centos7-nginx yaml]# vim deploy.yaml
    [root@centos7-nginx yaml]# kubectl apply -f deploy.yaml
    namespace/ingress-nginx created
    serviceaccount/ingress-nginx created
    configmap/ingress-nginx-controller created
    clusterrole.rbac.authorization.k8s.io/ingress-nginx created
    clusterrolebinding.rbac.authorization.k8s.io/ingress-nginx created
    role.rbac.authorization.k8s.io/ingress-nginx created
    rolebinding.rbac.authorization.k8s.io/ingress-nginx created
    service/ingress-nginx-controller-admission created
    service/ingress-nginx-controller created
    deployment.apps/ingress-nginx-controller created
    validatingwebhookconfiguration.admissionregistration.k8s.io/ingress-nginx-admission created
    clusterrole.rbac.authorization.k8s.io/ingress-nginx-admission created
    clusterrolebinding.rbac.authorization.k8s.io/ingress-nginx-admission created
    job.batch/ingress-nginx-admission-create created
    job.batch/ingress-nginx-admission-patch created
    role.rbac.authorization.k8s.io/ingress-nginx-admission created
    rolebinding.rbac.authorization.k8s.io/ingress-nginx-admission created
    serviceaccount/ingress-nginx-admission created
    

    也可以先跑起來,在修改

    [root@centos7-nginx ~]# kubectl edit deploy ingress-nginx-controller -n ingress-nginx
    ...
    spec:
      progressDeadlineSeconds: 600
      replicas: 2  #----> 修改為 2 實現高可用
    ...
      template:
    ...
        spec:
          nodeSelector:  #----> 增加節點選擇器
            lb-type: nginx #----> 匹配標籤
    

    或者使用

    [root@centos7-nginx yaml]# kubectl -n ingress-nginx patch deployment ingress-nginx-controller -p '{"spec": {"template": {"spec": {"nodeSelector": {"lb-type": "nginx"}}}}}'
    deployment.apps/ingress-nginx-controller patched
    
    [root@centos7-nginx yaml]# kubectl -n ingress-nginx scale --replicas=2 deployment/ingress-nginx-controller
    deployment.apps/ingress-nginx-controller scaled
    

    查看 svc 狀態可以看到端口已經分配

    [root@centos7-nginx ~]# kubectl get svc -n ingress-nginx
    NAME                                 TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)                      AGE
    ingress-nginx-controller             NodePort    10.101.121.120   <none>        80:36459/TCP,443:33171/TCP   43m
    ingress-nginx-controller-admission   ClusterIP   10.111.108.89    <none>        443/TCP                      43m
    

    所有機器上的端口也已經開啟,為了防止請求被丟棄,建議將代理后的節點 ip 固定在已經打了lb-type=nginx的節點

    [root@centos7-a ~]# netstat -ntpl |grep proxy
    tcp        0      0 0.0.0.0:36459           0.0.0.0:*               LISTEN      69169/kube-proxy
    tcp        0      0 0.0.0.0:33171           0.0.0.0:*               LISTEN      69169/kube-proxy
    ...
    [root@centos7-d ~]# netstat -ntpl |grep proxy
    tcp        0      0 0.0.0.0:36459           0.0.0.0:*               LISTEN      84181/kube-proxy
    tcp        0      0 0.0.0.0:33171           0.0.0.0:*               LISTEN      84181/kube-proxy
    [root@centos7-e ~]# netstat -ntpl |grep proxy
    tcp        0      0 0.0.0.0:36459           0.0.0.0:*               LISTEN      74881/kube-proxy
    tcp        0      0 0.0.0.0:33171           0.0.0.0:*               LISTEN      74881/kube-proxy
    

    3.16.3 驗證

    # 創建一個應用
    [root@centos7-nginx ~]# kubectl create deployment nginx-dns --image=nginx
    deployment.apps/nginx-dns created
    # 創建 svc
    [root@centos7-nginx ~]# kubectl expose deployment nginx-dns --port=80
    service/nginx-dns exposed
    [root@centos7-nginx ~]# kubectl get pods
    NAME                         READY   STATUS    RESTARTS   AGE
    busybox                      1/1     Running   29         29h
    nginx-dns-5c6b6b99df-qvnjh   1/1     Running   0          13s
    [root@centos7-nginx ~]# kubectl get svc
    NAME         TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)   AGE
    kubernetes   ClusterIP   10.96.0.1      <none>        443/TCP   3d5h
    nginx-dns    ClusterIP   10.108.88.75   <none>        80/TCP    10s
    # 創建 ingress 文件並執行
    [root@centos7-nginx yaml]# vim ingress.yaml
    [root@centos7-nginx yaml]# cat ingress.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-nginx-dns
      namespace: default
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: ng.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: nginx-dns
              servicePort: 80
    [root@centos7-nginx yaml]# kubectl apply -f ingress.yaml
    ingress.extensions/ingress-nginx-dns created
    [root@centos7-nginx yaml]# kubectl get ingress
    NAME                CLASS    HOSTS         ADDRESS   PORTS   AGE
    ingress-nginx-dns   <none>   ng.5179.top             80      9s
    

    先將日誌刷起來

    [root@centos7-nginx yaml]# kubectl get pods
    NAME                         READY   STATUS    RESTARTS   AGE
    busybox                      1/1     Running   30         30h
    nginx-dns-5c6b6b99df-qvnjh   1/1     Running   0          28m
    [root@centos7-nginx yaml]# kubectl logs -f nginx-dns-5c6b6b99df-qvnjh
    /docker-entrypoint.sh: /docker-entrypoint.d/ is not empty, will attempt to perform configuration
    /docker-entrypoint.sh: Looking for shell scripts in /docker-entrypoint.d/
    /docker-entrypoint.sh: Launching /docker-entrypoint.d/10-listen-on-ipv6-by-default.sh
    10-listen-on-ipv6-by-default.sh: Getting the checksum of /etc/nginx/conf.d/default.conf
    10-listen-on-ipv6-by-default.sh: Enabled listen on IPv6 in /etc/nginx/conf.d/default.conf
    /docker-entrypoint.sh: Launching /docker-entrypoint.d/20-envsubst-on-templates.sh
    /docker-entrypoint.sh: Configuration complete; ready for start up
    10.244.3.123 - - [20/Jun/2020:12:58:20 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "10.244.4.0"
    

    後端 Pod 中 nginx 的日誌格式為

        log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                          '$status $body_bytes_sent "$http_referer" '
                          '"$http_user_agent" "$http_x_forwarded_for"';
    

    另起一個終端進行訪問

    [root@centos7-a ~]# curl -H 'Host:ng.5179.top' http://10.10.10.132:36459 -I
    HTTP/1.1 200 OK
    Server: nginx/1.19.0
    Date: Sat, 20 Jun 2020 12:58:27 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    

    可以看到日誌10.244.3.123 - - [20/Jun/2020:12:58:20 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "10.244.4.0"

    然後我們可以配置前端的 LB

    [root@centos7-nginx conf.d]# vim ng.conf
    [root@centos7-nginx conf.d]# cat ng.conf
    upstream nginx-dns{
            ip_hash;
            server 10.10.10.131:36459 ;
            server 10.10.10.132:36459;
       }
    
    server {
        listen       80;
        server_name  ng.5179.top;
    
        #access_log  logs/host.access.log  main;
    
        location / {
            root   html;
            proxy_pass http://nginx-dns;
    	    proxy_set_header Host $host;
    	    proxy_set_header X-Forwarded-For $remote_addr;
            index  index.html index.htm;
        }
    }
    # 添加內部解析
    [root@centos7-nginx conf.d]# vim /etc/hosts
    [root@centos7-nginx conf.d]# cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    10.10.10.127 centos7-nginx lb.5179.top ng.5179.top
    10.10.10.128 centos7-a
    10.10.10.129 centos7-b
    10.10.10.130 centos7-c
    10.10.10.131 centos7-d
    10.10.10.132 centos7-e
    # 重啟 nginx
    [root@centos7-nginx conf.d]# nginx -t
    nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
    nginx: configuration file /etc/nginx/nginx.conf test is successful
    [root@centos7-nginx conf.d]# nginx -s reload
    

    訪問該域名

    [root@centos7-nginx conf.d]# curl http://ng.5179.top -I
    HTTP/1.1 200 OK
    Server: nginx/1.16.1
    Date: Sat, 20 Jun 2020 13:07:38 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    

    後端也能正常收到日誌

    10.244.4.17 - - [20/Jun/2020:13:22:11 +0000] "HEAD / HTTP/1.1" 200 0 "-" "curl/7.29.0" "10.244.4.1

    $remote_addr —> 10.244.4.17:為某一台 ingress-nginx 的 nginx_IP

    $http_x_forwarded_for —> 10.244.4.1:為節點上的 cni0 網卡 IP

    [root@centos7-nginx conf.d]# kubectl get pods -n ingress-nginx -o wide
    NAME                                        READY   STATUS      RESTARTS   AGE    IP             NODE        NOMINATED NODE   READINESS GATES
    ingress-nginx-admission-create-tqp5w        0/1     Completed   0          112m   10.244.3.119   centos7-d   <none>           <none>
    ingress-nginx-admission-patch-78jmf         0/1     Completed   0          112m   10.244.3.120   centos7-d   <none>           <none>
    ingress-nginx-controller-5946fd499c-6cx4x   1/1     Running     0          11m    10.244.3.125   centos7-d   <none>           <none>
    ingress-nginx-controller-5946fd499c-khjdn   1/1     Running     0          11m    10.244.4.17    centos7-e   <none>           <none>
    

    修改 ingress-nginx-controller 的 svc

    [root@centos7-nginx conf.d]# kubectl get svc -n ingress-nginx
    NAME                                 TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)                      AGE
    ingress-nginx-controller             NodePort    10.101.121.120   <none>        80:36459/TCP,443:33171/TCP   97m
    ingress-nginx-controller-admission   ClusterIP   10.111.108.89    <none>        443/TCP                      97m
    [root@centos7-nginx conf.d]# kubectl edit svc ingress-nginx-controller -n ingress-nginx
    ...
    spec:
      clusterIP: 10.101.121.120
      externalTrafficPolicy: Cluster  #---> 修改為 Local
    ...  
      service/ingress-nginx-controller edited
    
    
    

    再次訪問

    [root@centos7-nginx conf.d]# curl http://ng.5179.top -I
    HTTP/1.1 200 OK
    Server: nginx/1.16.1
    Date: Sat, 20 Jun 2020 13:28:05 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    # 查看本機網卡 IP
    [root@centos7-nginx conf.d]# ip addr show ens33
    2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
        link/ether 00:0c:29:38:d4:e3 brd ff:ff:ff:ff:ff:ff
        inet 10.10.10.127/24 brd 10.10.10.255 scope global ens33
           valid_lft forever preferred_lft forever
        inet6 fe80::20c:29ff:fe38:d4e3/64 scope link
           valid_lft forever preferred_lft forever
    

    nginx的日誌($http_x_forwarded_for)已經記錄了客戶端的真實IP

    10.244.4.17 - - [20/Jun/2020:13:28:05 +0000] "HEAD / HTTP/1.1" 200 0 "-" "curl/7.29.0" "10.10.10.127"
    

    3.16.4 運行多個 ingress

    注意:如果要運行多個 ingress ,一個服務於公共流量,一個服務於“內部”流量。為此,必須將選項–ingress-class更改為控制器定義內群集的唯一值。

    spec:
      template:
         spec:
           containers:
             - name: nginx-ingress-internal-controller
               args:
                 - /nginx-ingress-controller
                 - '--election-id=ingress-controller-leader-internal'
                 - '--ingress-class=nginx-internal'
                 - '--configmap=ingress/nginx-ingress-internal-controller'
    

    需要創建單獨的ConfigmapServiceDeployment的文件,其他與默認安裝的 ingress 共用即可

    ---
    # Source: ingress-nginx/templates/controller-configmap.yaml
    apiVersion: v1
    kind: ConfigMap
    metadata:
      labels:
        helm.sh/chart: ingress-nginx-2.4.0
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/instance: ingress-nginx
        app.kubernetes.io/version: 0.33.0
        app.kubernetes.io/managed-by: Helm
        app.kubernetes.io/component: controller
      name: ingress-nginx-internal-controller   # 修改名字
      namespace: ingress-nginx
    data:
    ---
    # Source: ingress-nginx/templates/controller-service.yaml
    apiVersion: v1
    kind: Service
    metadata:
      labels:
        helm.sh/chart: ingress-nginx-2.4.0
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/instance: ingress-nginx
        app.kubernetes.io/version: 0.33.0
        app.kubernetes.io/managed-by: Helm
        app.kubernetes.io/component: controller
      name: ingress-nginx-internal-controller   # 修改名字
      namespace: ingress-nginx
    spec:
      type: NodePort
      ports:
        - name: http
          port: 80
          protocol: TCP
          targetPort: http
        - name: https
          port: 443
          protocol: TCP
          targetPort: https
      selector:
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/instance: ingress-nginx
        app.kubernetes.io/component: controller
    ---
    # Source: ingress-nginx/templates/controller-deployment.yaml
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      labels:
        helm.sh/chart: ingress-nginx-2.4.0
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/instance: ingress-nginx
        app.kubernetes.io/version: 0.33.0
        app.kubernetes.io/managed-by: Helm
        app.kubernetes.io/component: controller
      name: ingress-nginx-internal-controller      # 修改名字
      namespace: ingress-nginx
    spec:
      selector:
        matchLabels:
          app.kubernetes.io/name: ingress-nginx
          app.kubernetes.io/instance: ingress-nginx
          app.kubernetes.io/component: controller
      revisionHistoryLimit: 10
      minReadySeconds: 0
      template:
        metadata:
          labels:
            app.kubernetes.io/name: ingress-nginx
            app.kubernetes.io/instance: ingress-nginx
            app.kubernetes.io/component: controller
        spec:
          dnsPolicy: ClusterFirst
          containers:
            - name: controller
              #image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.33.0
              image: registry.cn-beijing.aliyuncs.com/liyongjian5179/nginx-ingress-controller:0.33.0
              imagePullPolicy: IfNotPresent
              lifecycle:
                preStop:
                  exec:
                    command:
                      - /wait-shutdown
              args:
                - /nginx-ingress-controller
                - --election-id=ingress-controller-leader-internal    
                - --ingress-class=nginx-internal
                - --configmap=ingress-nginx/ingress-nginx-internal-controller
                - --validating-webhook=:8443
                - --validating-webhook-certificate=/usr/local/certificates/cert
                - --validating-webhook-key=/usr/local/certificates/key
              securityContext:
                capabilities:
                  drop:
                    - ALL
                  add:
                    - NET_BIND_SERVICE
                runAsUser: 101
                allowPrivilegeEscalation: true
              env:
                - name: POD_NAME
                  valueFrom:
                    fieldRef:
                      fieldPath: metadata.name
                - name: POD_NAMESPACE
                  valueFrom:
                    fieldRef:
                      fieldPath: metadata.namespace
              livenessProbe:
                httpGet:
                  path: /healthz
                  port: 10254
                  scheme: HTTP
                initialDelaySeconds: 10
                periodSeconds: 10
                timeoutSeconds: 1
                successThreshold: 1
                failureThreshold: 3
              readinessProbe:
                httpGet:
                  path: /healthz
                  port: 10254
                  scheme: HTTP
                initialDelaySeconds: 10
                periodSeconds: 10
                timeoutSeconds: 1
                successThreshold: 1
                failureThreshold: 3
              ports:
                - name: http
                  containerPort: 80
                  protocol: TCP
                - name: https
                  containerPort: 443
                  protocol: TCP
                - name: webhook
                  containerPort: 8443
                  protocol: TCP
              volumeMounts:
                - name: webhook-cert
                  mountPath: /usr/local/certificates/
                  readOnly: true
              resources:
                requests:
                  cpu: 100m
                  memory: 90Mi
          serviceAccountName: ingress-nginx
          terminationGracePeriodSeconds: 300
          volumes:
            - name: webhook-cert
              secret:
                secretName: ingress-nginx-admission
    

    然後執行即可,然後還需要在原配置文件中的 Role中添加一行信息

    # Source: ingress-nginx/templates/controller-role.yaml
    apiVersion: rbac.authorization.k8s.io/v1
    kind: Role
    metadata:
    ...
      name: ingress-nginx
      namespace: ingress-nginx
    rules:
    ...
      - apiGroups:
          - ''
        resources:
          - configmaps
        resourceNames:
          # Defaults to "<election-id>-<ingress-class>"
          # Here: "<ingress-controller-leader>-<nginx>"
          # This has to be adapted if you change either parameter
          # when launching the nginx-ingress-controller.
          - ingress-controller-leader-nginx
          - ingress-controller-leader-internal-nginx-internal #此處要增加一行,如果不加,會出現下面的報錯
        verbs:
          - get
          - update
    

    上述所說,如果不添加,ingress-controller 的 nginx 會出現這個報錯信息

    E0621 08:25:07.531202       6 leaderelection.go:356] Failed to update lock: configmaps "ingress-controller-leader-internal-nginx-internal" is forbidden: User "system:serviceaccount:ingress-nginx:ingress-nginx" cannot update resource "configmaps" in API group "" in the namespace "ingress-nginx"
    

    然後修改 ingress 文件

    
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: nginx
      annotations:
        # 注意這裏要設置為您前面配置的 INGRESS_CLASS,比如:nginx-internal
        kubernetes.io/ingress.class: "<YOUR_INGRESS_CLASS>"
    

    示例:

    [root@centos7-nginx yaml]# kubectl apply -f ingress-internal.yaml
    ingress.extensions/ingress-nginx-dns-internal created
    [root@centos7-nginx yaml]# cat ingress-internal.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-nginx-dns-internal
    #  namespace: default
      annotations:
        kubernetes.io/ingress.class: "nginx-internal"
    spec:
      rules:
      - host: ng-inter.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: nginx-dns
              servicePort: 80
    [root@centos7-nginx yaml]# kubectl get ingress
    NAME                         CLASS    HOSTS               ADDRESS                     PORTS   AGE
    ingress-nginx-dns            <none>   ng.5179.top         10.10.10.131                80      47m
    ingress-nginx-dns-internal   <none>   ng-inter.5179.top   10.10.10.131,10.10.10.132   80      32s
    

    在 nginx 的配置文件中增加

    [root@centos7-nginx yaml]# cat /etc/nginx/conf.d/ng.conf
    upstream nginx-dns{
            ip_hash;
            server 10.10.10.131:31511;
            server 10.10.10.132:31511;
       }
    upstream nginx-dns-inter{
            ip_hash;
            server 10.10.10.131:40377;
            server 10.10.10.132:40377;
       }
    
    server {
        listen       80;
        server_name  ng.5179.top;
    
        #access_log  logs/host.access.log  main;
    
        location / {
            root   html;
            proxy_pass http://nginx-dns;
    	proxy_set_header Host $host;
    	proxy_set_header X-Forwarded-For $remote_addr;
            index  index.html index.htm;
        }
    }
    server {
        listen       80;
        server_name  ng-inter.5179.top;
    
        #access_log  logs/host.access.log  main;
    
        location / {
            root   html;
            proxy_pass http://nginx-dns-inter/;
            proxy_set_header Host $host;
            proxy_set_header X-Forwarded-For $remote_addr;
            index  index.html index.htm;
        }
    }
    

    重啟后添加本地解析,然後訪問即可

    [root@centos7-nginx yaml]# curl http://ng-inter.5179.top -I
    HTTP/1.1 200 OK
    Server: nginx/1.16.1
    Date: Sun, 21 Jun 2020 09:07:12 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    
    [root@centos7-nginx yaml]# curl http://ng.5179.top -I
    HTTP/1.1 200 OK
    Server: nginx/1.16.1
    Date: Sun, 21 Jun 2020 09:07:17 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    

    3.17 安裝 prometheus-operator

    3.17.1 下載安裝

    使用 prometheus-operator 進行安裝.

    地址如下https://github.com/coreos/kube-prometheus

    根據 Readme.md 進行版本的選擇,本次 k8s 安裝的是 1.18 ,所以 prometheus 選的分支為 release-0.5

    git clone https://github.com/coreos/kube-prometheus.git -b release-0.5
    cd kube-prometheus
    # Create the namespace and CRDs, and then wait for them to be availble before creating the remaining resources
    kubectl create -f manifests/setup
    until kubectl get servicemonitors --all-namespaces ; do date; sleep 1; echo ""; done
    kubectl create -f manifests/
    

    為了遠程訪問方便,創建了 ingress

    [root@centos7-a ingress]# cat ingress-grafana.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-grafana
      namespace: monitoring
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: grafana.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: grafana
              servicePort: 3000
              
    [root@centos7-a ingress]# cat ingress-prometheus.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-prometheus
      namespace: monitoring
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: prometheus.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: prometheus-k8s
              servicePort: 9090
    
    [root@centos7-a ingress]# cat ingress-alertmanager.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-alertmanager
      namespace: monitoring
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: alertmanager.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: alertmanager-main
              servicePort: 9093
    

    查看 ingress

    [root@centos7-a ingress]# kubectl get ingress -A
    NAMESPACE    NAME                   CLASS    HOSTS                   ADDRESS         PORTS   AGE
    monitoring   ingress-alertmanager   <none>   alertmanager.5179.top   10.10.10.129   80      3m6s
    monitoring   ingress-grafana        <none>   grafana.5179.top        10.10.10.129   80      3m6s
    monitoring   ingress-prometheus     <none>   prometheus.5179.top     10.10.10.129   80      3m6s
    

    3.17.2 遇到的坑

    1) kube-schedulerkube-controller-manager 的target 為 0/0

    二進制部署k8s管理組件和新版本 kubeadm 部署的都會發現在prometheus status 下的 target 頁面上發現kube-controller-managerkube-scheduler的 target 為0/0。因為 serviceMonitor是根據 label 去選取 svc的,可以查看對應的serviceMonitor是選取的ns範圍是kube-system

    解決辦法:

    查看endpoint 兩者的endpoint為 none

    [root@centos7-a kube-prometheus]# kubectl get endpoints -n kube-system
    NAME                      ENDPOINTS                                                               AGE
    kube-controller-manager   <none>                                                                  7m35s
    kube-dns                  10.244.43.2:53,10.244.62.2:53,10.244.43.2:9153 + 3 more...              4m10s
    kube-scheduler            <none>                                                                  7m31s
    kubelet                   10.10.10.129:4194,10.10.10.132:4194,10.10.10.128:4194 + 12 more...   22s
    

    查看兩者的端口

    [root@centos7-a kube-prometheus]# ss -tnlp| grep scheduler
    LISTEN     0      32768       :::10251                   :::*                   users:(("kube-scheduler",pid=60128,fd=5))
    LISTEN     0      32768       :::10259                   :::*                   users:(("kube-scheduler",pid=60128,fd=7))
    [root@centos7-a kube-prometheus]# ss -tnlp| grep contro
    LISTEN     0      32768       :::10252                   :::*                   users:(("kube-controller",pid=59695,fd=6))
    LISTEN     0      32768       :::10257                   :::*                   users:(("kube-controller",pid=59695,fd=7))
    

    創建文件並執行

    [root@centos7-a yaml]# cat schedulerandcontroller-ep-svc.yaml
    # cat kube-scheduer-service.yaml
    apiVersion: v1
    kind: Service
    metadata:
      labels:
        k8s-app: kube-scheduler
      name: kube-scheduler
      namespace: kube-system
    spec:
      clusterIP: None
      ports:
      - name: https-metrics
        port: 10259
        protocol: TCP
        targetPort: 10259
      - name: http-metrics
        port: 10251
        protocol: TCP
        targetPort: 10251
      type: ClusterIP
    
    ---
    # cat kube-controller-manager-service.yaml
    apiVersion: v1
    kind: Service
    metadata:
      labels:
        k8s-app: kube-controller-manager
      name: kube-controller-manager
      namespace: kube-system
    spec:
      clusterIP: None
      ports:
      - name: https-metrics
        port: 10257
        protocol: TCP
        targetPort: 10257
      - name: http-metrics
        port: 10252
        protocol: TCP
        targetPort: 10252
      type: ClusterIP
    
    ---
    # cat ep-controller-manager.yaml
    apiVersion: v1
    kind: Endpoints
    metadata:
      labels:
        k8s-app: kube-controller-manager
      name: kube-controller-manager
      namespace: kube-system
      annotations:
        prometheus.io/scrape: 'true'
    subsets:
    - addresses:
      - ip: 10.10.10.128
        targetRef:
          kind: Node
          name: 10.10.10.128
      - ip: 10.10.10.129
        targetRef:
          kind: Node
          name: 10.10.10.129
      - ip: 10.10.10.130
        targetRef:
          kind: Node
          name: 10.10.10.130
      ports:
      - name: http-metrics
        port: 10252
        protocol: TCP
      - name: https-metrics
        port: 10257
        protocol: TCP
    ---
    # cat ep-scheduler.yaml
    apiVersion: v1
    kind: Endpoints
    metadata:
      labels:
        k8s-app: kube-scheduler
      name: kube-scheduler
      namespace: kube-system
      annotations:
        prometheus.io/scrape: 'true'
    subsets:
    - addresses:
      - ip: 10.10.10.128
        targetRef:
          kind: Node
          name: 10.10.10.128
      - ip: 10.10.10.129
        targetRef:
          kind: Node
          name: 10.10.10.129
      - ip: 10.10.10.130
        targetRef:
          kind: Node
          name: 10.10.10.130
      ports:
      - name: http-metrics
        port: 10251
        protocol: TCP
      - name: https-metrics
        port: 10259
        protocol: TCP
    
    2) node-exporter的 target 显示(3/5)

    有兩個有問題的 Node,同時查看 kubectl top node 也發現問題,節點數據看不到

    [root@centos7--a kube-prometheus]# kubectl top nodes
    NAME            CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
    10.10.10.129   110m         5%     1360Mi          36%
    10.10.10.128   114m         5%     1569Mi          42%
    10.10.10.130   101m         5%     1342Mi          36%
    10.10.10.132   <unknown>                           <unknown>               <unknown>               <unknown>
    10.10.10.131    <unknown>                           <unknown>               <unknown>               <unknown>
    

    解決辦法:

    查看問題節點所對應的 Pod

    [root@centos7--a kube-prometheus]# kubectl get pods  -o custom-columns='NAME:metadata.name,NODE:spec.nodeName'  -n monitoring |grep node
    node-exporter-2fqt5                    10.10.10.130
    node-exporter-fxqxb                    10.10.10.129
    node-exporter-pbq28                    10.10.10.132
    node-exporter-tvw5j                    10.10.10.128
    node-exporter-znp6k                    10.10.10.131
    

    查看日誌

    [root@centos7--a kube-prometheus]# kubectl logs -f node-exporter-znp6k -n monitoring -c kube-rbac-proxy
    I0627 02:58:01.947861   53400 main.go:213] Generating self signed cert as no cert is provided
    I0627 02:58:44.246733   53400 main.go:243] Starting TCP socket on [10.10.10.131]:9100
    I0627 02:58:44.346251   53400 main.go:250] Listening securely on [10.10.10.131]:9100
    E0627 02:59:27.246742   53400 webhook.go:106] Failed to make webhook authenticator request: Post https://10.96.0.1:443/apis/authentication.k8s.io/v1beta1/tokenreviews: dial tcp 10.96.0.1:443: i/o timeout
    E0627 02:59:27.247585   53400 proxy.go:67] Unable to authenticate the request due to an error: Post https://10.96.0.1:443/apis/authentication.k8s.io/v1beta1/tokenreviews: dial tcp 10.96.0.1:443: i/o timeout
    E0627 02:59:42.160199   53400 webhook.go:106] Failed to make webhook authenticator request: Post https://10.96.0.1:443/apis/authentication.k8s.io/v1beta1/tokenreviews: dial tcp 10.96.0.1:443: i/o timeout
    

    一直在報連接 10.96.0.1:443 超時,像是 kubernetes 在回包的時候,無法建立連接,

    兩種解決辦法:

    1. 在問題節點加入一條防火牆命令(不推薦)
    iptables -t nat -I POSTROUTING -s  10.96.0.0/12 -j MASQUERADE
    
    1. 修改 kube-proxy 配置文件,改成正確的 cluster-CIDR (推薦)

    再次查看已經正常了

    [root@centos7--a kube-prometheus]# kubectl top nodes
    NAME            CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
    10.10.10.129   109m         5%     1362Mi          36%
    10.10.10.132   65m          3%     1118Mi          30%
    10.10.10.128   175m         8%     1581Mi          42%
    10.10.10.130   118m         5%     1344Mi          36%
    10.10.10.131    60m          3%     829Mi           22%
    

    實際排查后發現,是 kube-proxy 的 clusterCIDR寫成了 service 的網段。

    clusterCIDR: kube-proxy 根據 –cluster-cidr 判斷集群內部和外部流量,指定 –cluster-cidr 或 –masquerade-all選項后 kube-proxy 才會對訪問 Service IP 的請求做 SNAT;

    3.17.3 監控 etcd

    除了 Kubernetes 集群中的一些資源對象、節點以及組件需要監控,有的時候我們可能還需要根據實際的業務需求去添加自定義的監控項,添加一個自定義監控的步驟如下:

    • 第一步建立一個 ServiceMonitor 對象,用於 Prometheus 添加監控項
    • 第二步為 ServiceMonitor 對象關聯 metrics 數據接口的一個 Service 對象
    • 第三步確保 Service 對象可以正確獲取到 metrics 數據

    對於 etcd 集群一般情況下,為了安全都會開啟 https 證書認證的方式,所以要想讓 Prometheus 訪問到 etcd 集群的監控數據,就需要提供相應的證書校驗。

    首先我們將需要使用到的證書通過 secret 對象保存到集群中去:(在 etcd 運行的節點)

    [root@centos7--a ssl]# pwd
    /opt/etcd/ssl
    [root@centos7--a ssl]# kubectl -n monitoring create secret generic etcd-certs --from-file=/opt/kubernetes/ssl/server.pem --from-file=/opt/kubernetes/ssl/server-key.pem --from-file=/opt/kubernetes/ssl/ca.pem
    secret/etcd-certs created
    

    Prometheus配置文件,將上面創建的 etcd-certs 對象配置到 prometheus 資源對象中

    [root@centos7--a manifests]# pwd
    /root/kube-prometheus/manifests
    [root@centos7--a manifests]# vim prometheus-prometheus.yaml
      replicas: 2
      secrets:
        - etcd-certs
    [root@centos7--a manifests]# kubectl apply -f prometheus-prometheus.yaml
    prometheus.monitoring.coreos.com/k8s configured
    

    進入 pod 內查看證書是否存在

    #等到pod重啟后,進入pod查看是否可以看到證書
    [root@centos7--a kube-prometheus]# kubectl exec -it prometheus-k8s-0  -n monitoring  -- sh
    Defaulting container name to prometheus.
    Use 'kubectl describe pod/prometheus-k8s-0 -n monitoring' to see all of the containers in this pod.
    /prometheus $ ls /etc/prometheus/secrets/
    etcd-certs
    /prometheus $ ls /etc/prometheus/secrets/ -l
    total 0
    drwxrwsrwt    3 root     2000           140 Jun 27 04:59 etcd-certs
    /prometheus $ ls /etc/prometheus/secrets/etcd-certs/ -l
    total 0
    lrwxrwxrwx    1 root     root            13 Jun 27 04:59 ca.pem -> ..data/ca.pem
    lrwxrwxrwx    1 root     root            21 Jun 27 04:59 server-key.pem -> ..data/server-key.pem
    lrwxrwxrwx    1 root     root            17 Jun 27 04:59 server.pem -> ..data/server.pem
    

    創建 ServiceMonitor

    現在 Prometheus 訪問 etcd 集群的證書已經準備好了,接下來創建 ServiceMonitor 對象即可(prometheus-serviceMonitorEtcd.yaml)

    $ vim prometheus-serviceMonitorEtcd.yaml
    apiVersion: monitoring.coreos.com/v1
    kind: ServiceMonitor
    metadata:
      name: etcd-k8s
      namespace: monitoring
      labels:
        k8s-app: etcd-k8s
    spec:
      jobLabel: k8s-app
      endpoints:
      - port: port
        interval: 30s
        scheme: https
        tlsConfig:
          caFile: /etc/prometheus/secrets/etcd-certs/ca.pem
          certFile: /etc/prometheus/secrets/etcd-certs/server.pem
          keyFile: /etc/prometheus/secrets/etcd-certs/server-key.pem
          insecureSkipVerify: true
      selector:
        matchLabels:
          k8s-app: etcd
      namespaceSelector:
        matchNames:
        - kube-system
    
    $ kubectl apply -f prometheus-serviceMonitorEtcd.yaml    
    
    

    上面我們在 monitoring 命名空間下面創建了名為 etcd-k8s 的 ServiceMonitor
    對象,匹配 kube-system 這個命名空間下面的具有 k8s-app=etcd 這個 label 標籤的
    Service,jobLabel 表示用於檢索 job 任務名稱的標籤,和前面不太一樣的地方是 endpoints 屬性的寫法,配置上訪問
    etcd 的相關證書,endpoints 屬性下面可以配置很多抓取的參數,比如 relabel、proxyUrl,tlsConfig
    表示用於配置抓取監控數據端點的 tls 認證,由於證書 serverName 和 etcd 中籤發的可能不匹配,所以加上了
    insecureSkipVerify=true

    創建 Service

    ServiceMonitor 創建完成了,但是現在還沒有關聯的對應的 Service 對象,所以需要我們去手動創建一個 Service 對象(prometheus-etcdService.yaml):

    $ vim prometheus-etcdService.yaml
    apiVersion: v1
    kind: Service
    metadata:
      name: etcd-k8s
      namespace: kube-system
      labels:
        k8s-app: etcd
    spec:
      type: ClusterIP
      clusterIP: None
      ports:
      - name: port
        port: 2379
        protocol: TCP
    
    ---
    apiVersion: v1
    kind: Endpoints
    metadata:
      name: etcd-k8s
      namespace: kube-system
      labels:
        k8s-app: etcd
    subsets:
    - addresses:
      - ip: 10.10.10.128
      - ip: 10.10.10.129
      - ip: 10.10.10.130    
      ports:
      - name: port
        port: 2379
        protocol: TCP
    
    $ kubectl apply -f prometheus-etcdService.yaml
    
    

    等待一會兒就可以看到 target 已經包含了

    數據採集到后,可以在 grafana 中導入編號為3070的 dashboard,獲取到 etcd 的監控圖表。

    3.18 為遠端 kubectl 準備管理員證書

    [root@centos7-nginx scripts]# cd ssl/
    [root@centos7-nginx ssl]# cat admin.kubeconfig > ~/.kube/config
    [root@centos7-nginx ssl]# vim ~/.kube/config
    [root@centos7-nginx ssl]# kubectl get cs
    NAME                 STATUS    MESSAGE             ERROR
    scheduler            Healthy   ok
    controller-manager   Healthy   ok
    etcd-2               Healthy   {"health":"true"}
    etcd-0               Healthy   {"health":"true"}
    etcd-1               Healthy   {"health":"true"}
    

    3.19 給節點打上角色標籤

    默認裝完在角色這列显示 <none>

    [root@centos7-nginx ~]# kubectl get nodes
    NAME        STATUS   ROLES    AGE   VERSION
    centos7-a   Ready    <none>   32h   v1.18.3
    centos7-b   Ready    <none>   32h   v1.18.3
    centos7-c   Ready    <none>   32h   v1.18.3
    centos7-d   Ready    <none>   21m   v1.18.3
    centos7-e   Ready    <none>   20m   v1.18.3
    

    執行如下命令即可:

    [root@centos7-nginx ~]# kubectl label nodes centos7-a node-role.kubernetes.io/master=
    node/centos7-a labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-b node-role.kubernetes.io/master=
    node/centos7-b labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-c node-role.kubernetes.io/master=
    node/centos7-c labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-d node-role.kubernetes.io/node=
    node/centos7-d labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-e node-role.kubernetes.io/node=
    node/centos7-e labeled
    

    再次查看

    [root@centos7-nginx ~]# kubectl get nodes
    NAME        STATUS   ROLES    AGE   VERSION
    centos7-a   Ready    master   32h   v1.18.3
    centos7-b   Ready    master   32h   v1.18.3
    centos7-c   Ready    master   32h   v1.18.3
    centos7-d   Ready    node     23m   v1.18.3
    centos7-e   Ready    node     22m   v1.18.3
    

    3.20 測試在節點上執行維護工作

    驅逐並使節點不可調度

    [root@centos7-nginx scripts]# kubectl drain centos7-d --ignore-daemonsets=true --delete-local-data=true --force=true
    node/centos7-d cordoned
    evicting pod kube-system/coredns-6fdfb45d56-pvnzt
    pod/coredns-6fdfb45d56-pvnzt evicted
    node/centos7-d evicted
    [root@centos7-nginx scripts]# kubectl get nodes
    NAME        STATUS                     ROLES    AGE   VERSION
    centos7-a   Ready                      master   47h   v1.18.3
    centos7-b   Ready                      master   47h   v1.18.3
    centos7-c   Ready                      master   47h   v1.18.3
    centos7-d   Ready,SchedulingDisabled   node     15h   v1.18.3
    centos7-e   Ready                      node     15h   v1.18.3
    

    重新使節點可調度:

    [root@centos7-nginx scripts]# kubectl uncordon centos7-d
    node/centos7-d uncordoned
    [root@centos7-nginx scripts]# kubectl get nodes
    NAME        STATUS   ROLES    AGE   VERSION
    centos7-a   Ready    master   47h   v1.18.3
    centos7-b   Ready    master   47h   v1.18.3
    centos7-c   Ready    master   47h   v1.18.3
    centos7-d   Ready    node     15h   v1.18.3
    centos7-e   Ready    node     15h   v1.18.3
    

    3.21 使 master 節點不運行pod

    master節點最好是不要作為node使用,也不推薦做node節點,

    在該集群中需要打下標籤node-role.kubernetes.io/master=:NoSchedule才能實現

    [root@centos7-nginx scripts]# kubectl taint nodes centos7-a  node-role.kubernetes.io/master=:NoSchedule
    node/centos7-a tainted
    [root@centos7-nginx scripts]# kubectl taint nodes centos7-b  node-role.kubernetes.io/master=:NoSchedule
    node/centos7-b tainted
    [root@centos7-nginx scripts]# kubectl taint nodes centos7-c  node-role.kubernetes.io/master=:NoSchedule
    node/centos7-c tainted
    

    部署一個 nginx 的 deploy 進行驗證

    # 創建一個 deployment
    [root@centos7-nginx scripts]# kubectl create deployment nginx-dns --image=nginx
    deployment.apps/nginx-dns created
    # 修改副本數為 3
    [root@centos7-nginx scripts]# kubectl patch deployment nginx-dns -p '{"spec":{"replicas":3}}'
    deployment.apps/nginx-dns patched
    # 查看位置分佈
    [root@centos7-nginx scripts]# kubectl get pods -o wide
    NAME                         READY   STATUS              RESTARTS   AGE    IP             NODE        NOMINATED NODE   READINESS GATES
    busybox                      1/1     Running             0          14m    10.244.3.113   centos7-d   <none>           <none>
    nginx-dns-5c6b6b99df-6k4qv   1/1     Running             0          2m8s   10.244.3.116   centos7-d   <none>           <none>
    nginx-dns-5c6b6b99df-88lcr   0/1     ContainerCreating   0          6s     <none>         centos7-d   <none>           <none>
    nginx-dns-5c6b6b99df-c2nnc   0/1     ContainerCreating   0          6s     <none>         centos7-e   <none>           <none>
    

    如果需要把master當node:

    kubectl taint nodes centos7-a node-role.kubernetes.io/master-
    

    4 FAQ

    4.1 解決無法查詢pods日誌問題

    [root@centos7-b cfg]# kubectl exec -it nginx -- bash
    error: unable to upgrade connection: Forbidden (user=kubernetes, verb=create, resource=nodes, subresource=proxy)
    [root@centos7-b cfg]# kubectl logs -f nginx
    Error from server (Forbidden): Forbidden (user=kubernetes, verb=get, resource=nodes, subresource=proxy) ( pods/log nginx)
    
    $ vim ~/yaml/apiserver-to-kubelet-rbac.yml
    
    kind: ClusterRoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: kubelet-api-admin
    subjects:
    - kind: User
      name: kubernetes
      apiGroup: rbac.authorization.k8s.io
    roleRef:
      kind: ClusterRole
      name: system:kubelet-api-admin
      apiGroup: rbac.authorization.k8s.io
    
    # 應用
    $ kubectl apply -f ~/yaml/apiserver-to-kubelet-rbac.yml
    
    [root@centos7-a ~]# kubectl logs -f nginx
    /docker-entrypoint.sh: /docker-entrypoint.d/ is not empty, will attempt to perform configuration
    /docker-entrypoint.sh: Looking for shell scripts in /docker-entrypoint.d/
    /docker-entrypoint.sh: Launching /docker-entrypoint.d/10-listen-on-ipv6-by-default.sh
    10-listen-on-ipv6-by-default.sh: Getting the checksum of /etc/nginx/conf.d/default.conf
    10-listen-on-ipv6-by-default.sh: Enabled listen on IPv6 in /etc/nginx/conf.d/default.conf
    /docker-entrypoint.sh: Launching /docker-entrypoint.d/20-envsubst-on-templates.sh
    /docker-entrypoint.sh: Configuration complete; ready for start up
    10.244.2.1 - - [17/Jun/2020:02:45:59 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-"
    10.244.2.1 - - [17/Jun/2020:02:46:09 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-"
    10.244.2.1 - - [17/Jun/2020:02:46:12 +0000] "HEAD / HTTP/1.1" 200 0 "-" "curl/7.29.0" "-"
    10.244.2.1 - - [17/Jun/2020:02:46:13 +0000] "HEAD / HTTP/1.1" 200 0 "-" "curl/7.29.0" "-"
    

    5 參考

    Prometheus Operator 監控 etcd 集群: https://www.qikqiak.com/post/prometheus-operator-monitor-etcd/

    Kubernetes v1.18.2 二進制高可用部署: https://www.yp14.cn/2020/05/19/Kubernetes-v1-18-2-二進制高可用部署/

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※想知道最厲害的網頁設計公司"嚨底家"!

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※別再煩惱如何寫文案,掌握八大原則!

  • 空污太嚴重 印度最高法院諭令禁焚農作物殘梗

    摘錄自2019年11月5日中央社外電報導

    有鑑於空汙嚴重,印度最高法院今天(5 日)下令首都新德里周邊地區全面停止焚燒農作物殘梗。法院指出,新德里居民持續因為空汙喪失寶貴生命歲月,「這根本不該發生在文明國家」。倘若禁令未貫徹執行,整個行政和警察體系都會被追究責任。

    儘管焚燒農作物殘梗已屬非法,許多經濟困窘農民表示,他們別無其他選擇。印度政府曾試圖杜絕農民這個習慣,例如補助購買排除焚燒農作物殘梗必要性的設備,但效果不彰。此外,農民也可將殘梗轉化為生質能源團塊等較具實用價值物品,但成本偏高。

    氣候政策研究員、「印度大霧霾」」(The Great Smog of India,暫譯)一書作者辛赫(Siddharth Singh)表示,政府應採取作為,賦予農作殘餘物價值,例如出資採購並以乾淨方式焚燒。

    不過,印度智庫「政策研究中心」(Centre for Policy Research)研究員哈里希(Santosh Harish)認為,焚燒農作物對空汙的「貢獻」被高估了。

    哈里希指出:「過去幾週,殘梗焚燒確實(對空汙形成)扮演重要角色,占比約40%,但我認為新德里市長高估農民能耐,對新德里境內空汙來源卻輕描淡寫…若新德里全面推卸責任,他們就搞錯重點了。」

    根據哈里希的說法,新德里空汙危機的主要成因是交通運輸工具、工業設施和發電廠所排放廢氣,另外還有施工粉塵。此外,嚴重空汙範圍已超越首都區,涵蓋印度北部多數地區。

    根據環保組織「綠色和平」(Greenpeace)3月發布的報告,全球汙染程度最高的30座城市中,印度就包辦其中22座。新德里市長克里瓦爾(Arvind Kejriwal)上週表示,新德里已成「毒氣室」,罪魁禍首就是「焚燒農作物產生的煙霧」。

    新德里的空汙情形在3日急遽惡化,細懸浮微粒(PM2.5)濃度達近3年新高,接近每立方公尺1000微克,而世界衛生組織(WHO)建議的每日最高安全上限為每立方公尺25微克。空汙嚴重甚至導致飛機航班被迫延誤或改變起降地點,各級學校也關閉;經濟條件佳的居民多選擇待在有空氣清淨機運轉的住家裡。

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※為什麼 USB CONNECTOR 是電子產業重要的元件?

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※台北網頁設計公司全省服務真心推薦

    ※想知道最厲害的網頁設計公司"嚨底家"!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※推薦評價好的iphone維修中心

  • 在 Spring Boot 中使用 HikariCP 連接池

    在 Spring Boot 中使用 HikariCP 連接池

    上次幫小王解決了如何在 Spring Boot 中使用 JDBC 連接 MySQL 后,我就一直在等,等他問我第三個問題,比如說如何在 Spring Boot 中使用 HikariCP 連接池。但我等了四天也沒有等到任何音訊,似乎他從我的世界里消失了,而我卻仍然沉醉在他拍我馬屁的美妙感覺里。

    突然感覺,沒有小王的日子里,好空虛。怎麼辦呢?想來想去還是寫文章度日吧,积極創作的過程中,也許能夠擺脫對小王的苦苦思念。寫什麼好呢?

    想來想去,就寫如何在 Spring Boot 中使用 HikariCP 連接池吧。畢竟實戰項目當中,肯定不能使用 JDBC,連接池是必須的。而 HikariCP 據說非常的快,快到 Spring Boot 2 默認的數據庫連接池也從 Tomcat 切換到了 HikariCP(喜新厭舊的臭毛病能不能改改)。

    HikariCP 的 GitHub 地址如下:

    https://github.com/brettwooldridge/HikariCP

    目前星標 12K,被使用次數更是達到了 43.1K。再來看看它的自我介紹。

    牛逼的不能行啊,原來 Hikari 來源於日語,“光”的意思,這意味着快得像光速一樣嗎?講真,看簡介的感覺就好像在和我的女神“湯唯”握手一樣刺激和震撼。

    既然 Spring Boot 2 已經默認使用了 HikariCP,那麼使用起來也相當的輕鬆愜意,只需要簡單幾個步驟。

    01、初始化 MySQL 數據庫

    既然要連接 MySQL,那麼就需要先在電腦上安裝 MySQL 服務(本文暫且跳過),並且創建數據庫和表。

    CREATE DATABASE `springbootdemo`;
    DROP TABLE IF EXISTS `mysql_datasource`;
    CREATE TABLE `mysql_datasource` (
      `id` varchar(64NOT NULL,
      PRIMARY KEY (`id`)
    ENGINE=InnoDB DEFAULT CHARSET=utf8;

    02、使用 Spring Initlallzr 創建 Spring Boot 項目

    創建一個 Spring Boot 項目非常簡單,通過 Spring Initlallzr(https://start.spring.io/)就可以了。

    勾選 Web、JDBC、MySQL Driver 等三個依賴。

    1)Web 表明該項目是一個 Web 項目,便於我們直接通過 URL 來實操。

    3)MySQL Driver:連接 MySQL 服務器的驅動器。

    5)JDBC:Spring Boot 2 默認使用了 HikariCP,所以 HikariCP 會默認在 spring-boot-starter-jdbc 中附加依賴,因此不需要主動添加 HikariCP 的依賴。

    PS:怎麼證明這一點呢?項目導入成功后,在 pom.xml 文件中,按住鼠標左鍵 + Ctrl 鍵訪問 spring-boot-starter-jdbc 依賴節點,可在 spring-boot-starter-jdbc.pom 文件中查看到 HikariCP 的依賴信息。

    選項選擇完后,就可以點擊【Generate】按鈕生成一個初始化的 Spring Boot 項目了。生成的是一個壓縮包,導入到 IDE 的時候需要先解壓。

    03、編輯 application.properties 文件

    項目導入成功后,等待 Maven 下載依賴,完成后編輯 application.properties 文件,配置 MySQL 數據源信息。

    spring.datasource.url=jdbc:mysql://127.0.0.1:3306/springbootdemo?useUnicode=true&characterEncoding=UTF-8&serverTimezone=UTC
    spring.datasource.username=root
    spring.datasource.password=123456

    是不是有一種似曾相識的感覺(和[上一篇]()中的數據源配置一模一樣)?為什麼呢?答案已經告訴過大家了——默認、默認、默認,重要的事情說三遍,Spring Boot 2 默認使用了 HikariCP 連接池。

    04、編輯 Spring Boot 項目

    為了便於我們查看 HikariCP 的連接信息,我們對 SpringBootMysqlApplication 類進行編輯,增加以下內容。

    @SpringBootApplication
    public class HikariCpDemoApplication implements CommandLineRunner {
        @Autowired
        private DataSource dataSource;

        public static void main(String[] args) {
            SpringApplication.run(HikariCpDemoApplication.class, args);
        }

        @Override
        public void run(String... args) throws Exception {
            Connection conn = dataSource.getConnection();
            conn.close();
        }
    }

    HikariCpDemoApplication 實現了 CommandLineRunner 接口,該接口允許我們在項目啟動的時候加載一些數據或者做一些事情,比如說我們嘗試通過 DataSource 對象與數據源建立連接,這樣就可以在日誌信息中看到 HikariCP 的連接信息。CommandLineRunner 接口有一個方法需要實現,就是我們看到的 run() 方法。

    通過 debug 的方式,我們可以看到,在項目運行的過程中,dataSource 這個 Bean 的類型為 HikariDataSource。

    05、運行 Spring Boot 項目

    接下來,我們直接運行 HikariCpDemoApplication 類,這樣一個 Spring Boot 項目就啟動成功了。

    HikariDataSource 對象的連接信息會被打印出來。也就是說,HikariCP 連接池的配置啟用了。快給自己點個贊。

    06、為什麼 Spring Boot 2.0 選擇 HikariCP 作為默認數據庫連接池

    有幾種基準測試結果可用來比較HikariCP和其他連接池框架(例如c3p0dbcp2tomcatvibur)的性能。例如,HikariCP團隊發布了以下基準(可在此處獲得原始結果):

    HikariCP 團隊為了證明自己性能最佳,特意找了幾個背景對比了下。不幸充當背景的有 c3p0、dbcp2、tomcat 等傳統的連接池。

    從上圖中,我們能感受出背景的尷尬,HikariCP 鶴立雞群了。HikariCP 製作以如此優秀,原因大致有下面這些:

    1)字節碼級別上的優化:要求編譯后的字節碼最少,這樣 CPU 緩存就可以加載更多的程序代碼。

    HikariCP 優化前的代碼片段:

    public final PreparedStatement prepareStatement(String sql, String[] columnNames) throws SQLException
    {
        return PROXY_FACTORY.getProxyPreparedStatement(this, delegate.prepareStatement(sql, columnNames));
    }

    HikariCP 優化后的代碼片段:

    public final PreparedStatement prepareStatement(String sql, String[] columnNames) throws SQLException
    {
        return ProxyFactory.getProxyPreparedStatement(this, delegate.prepareStatement(sql, columnNames));
    }

    以上兩段代碼的差別只有一處,就是 ProxyFactory 替代了 PROXY_FACTORY,這個改動后的字節碼比優化前減少了 3 行指令。具體的分析參照 HikariCP 的 Wiki 文檔。

    2)使用自定義的列表(FastStatementList)代替 ArrayList,可以避免 get() 的時候進行範圍檢查,remove() 的時候從頭到尾的掃描。

    07、鳴謝

    好了,各位讀者朋友們,答應小王的文章終於寫完了。能看到這裏的都是最優秀的程序員,升職加薪就是你了。如果覺得不過癮,還想看到更多,可以 star 二哥的 GitHub【itwanger.github.io】,本文已收錄。

    PS:本文配套的源碼已上傳至 GitHub 【SpringBootDemo.SpringBootMysql】。

    原創不易,如果覺得有點用的話,請不要吝嗇你手中點贊的權力;如果想要第一時間看到二哥更新的文章,請掃描下方的二維碼,關注沉默王二公眾號。我們下篇文章見!

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

  • STM32內存受限情況下攝像頭驅動方式與圖像裁剪的選擇

    STM32內存受限情況下攝像頭驅動方式與圖像裁剪的選擇

    1、STM32圖像接收接口

    使用stm32芯片,128kB RAM,512kB Rom,資源有限,接攝像頭採集圖像,這種情況下,內存利用制約程序設計。

    STM32使用DCMI接口讀取攝像頭,協議如下。行同步信號指示了一行數據完成,場同步信號指示了一幀圖像傳輸完成。所以出現了兩種典型的數據接收方式,按照行信號一行一行處理,按照場信號一次接收一副圖像。

     

    2、按行讀取

    以網絡上流行的野火的demo為例,使用行中斷,用DMA來讀取一行數據。

    //記錄傳輸了多少行
    static uint16_t line_num =0;
    //DMA傳輸完成中斷服務函數
    void DMA2_Stream1_IRQHandler(void)
    {
      if ( DMA_GetITStatus(DMA2_Stream1,DMA_IT_TCIF1) == SET )
      {
       /*行計數*/
      line_num++;
      if (line_num==img_height)
      {
      /*傳輸完一幀,計數複位*/
      line_num=0;
      }
      /*DMA 一行一行傳輸*/
      OV2640_DMA_Config(FSMC_LCD_ADDRESS+(lcd_width*2*(lcd_height-line_num-1)),img_width*2/4);
      DMA_ClearITPendingBit(DMA2_Stream1,DMA_IT_TCIF1);
      }
    }
    
     //幀中斷服務函數,使用幀中斷重置line_num,可防止有時掉數據的時候DMA傳送行數出現偏移
    void DCMI_IRQHandler(void)
    {
      if ( DCMI_GetITStatus (DCMI_IT_FRAME) == SET )
      {
      /*傳輸完一幀,計數複位*/
      line_num=0;
      DCMI_ClearITPendingBit(DCMI_IT_FRAME);
      }
    }

    DMA中斷服務函數中主要是使用了一個靜態變量line_num來記錄已傳輸了多少行數據,每進一次DMA中斷時自加1,由於進入一次中斷就代表傳輸完一行數據,所以line_num的值等於lcd_height時(攝像頭輸出的數據行數),表示傳輸完一幀圖像,line_num複位為0,開始另一幀數據的傳輸。line_num計數完畢后利用前面定義的OV2640_DMA_Config函數配置新的一行DMA數據傳輸,它利用line_num變量計算顯存地址的行偏移,控制DCMI數據被傳送到正確的位置,每次傳輸的都是一行像素的數據量。

    當DCMI接口檢測到攝像頭傳輸的幀同步信號時,會進入DCMI_IRQHandler中斷服務函數,在這個函數中不管line_num原來的值是什麼,它都把line_num直接複位為0,這樣下次再進入DMA中斷服務函數的時候,它會開始新一幀數據的傳輸。這樣可以利用DCMI的硬件同步信號,而不只是依靠DMA自己的傳輸計數,這樣可以避免有時STM32內部DMA傳輸受到阻塞而跟不上外部攝像頭信號導致的數據錯誤。

    圖像按幀讀取比按行讀取效率更高,那麼為什麼要按行讀取呢?上面的例子是把圖像送到LCD,如果是送到內存,按幀讀取就需要芯片有很大的內存空間。以752*480的分辨率為例,需要360kB的RAM空間,遠遠超出了芯片RAM的大小。部分應用不需要攝像頭全尺寸的圖像,只需要中心區域,比如為了避免畸變影響一般只用圖像中間的部分,那麼按行讀取就有一個好處,讀到一行后,可以把不需要的丟棄,只保留中間部分的圖像像素。

    那麼問題來了?為什麼不直接配置攝像頭的屬性,來實現只讀取圖像的中間部分呢,全部讀取出來然後在arm的內存中裁剪丟棄不要的像素,第一浪費了讀取時間,第二浪費了讀取的空間。更優的做法是直接配置攝像頭sensor,使用sensor的裁剪功能輸出需要的像素區域。

     

    3、圖像裁剪–使用STM32 crop功能裁剪

    STM32F4系列的DCMI接口支持裁剪功能,對攝像頭輸出的像素點進行截取,不需要的像素部分不被DCMI傳入內存,從硬件接口一側就丟棄了。

    HAL_DCMI_EnableCrop(&hdcmi);
    HAL_DCMI_ConfigCrop(&hdcmi, CAM_ROW_OFFSET, CAM_COL_OFFSET, IMG_ROW-1, IMG_COL-1);

    裁剪的本質如下所述,從接收到的數據里選擇需要的矩形區域。所以STM32 DCMI裁剪功能可以完成節約內存,只選取需要的圖像存入內存的作用。

    此方法相比於一次讀一行,然後丟棄首尾部分后把需要的區域圖像像素存入buffer后再讀下一行,避免了時序錯誤,代碼簡潔了,DCMI硬件計數丟掉不要的像素,也提高了程序可靠性、可讀性。

    成也蕭何敗也蕭何,如上面所述,STM32的crop完成了選取特定區域圖像的功能,那麼也要付出代價,它是從接收到的圖像數據里進行選擇的,這意味着那些不需要的數據依然會傳輸到MCU一側,只不過MCU的DCMI對數據進行計數是忽略了它而已,那麼問題就來了,哪些不需要的數據的傳輸會帶來什麼問題呢?

    有圖為證,下圖是使用了STM32 crop裁剪的時序圖,通道1啟動採集IO置高,frame中斷里拉低,由於使用dma傳輸,那麼被crop裁剪后dma計數的數據量變少,所以DCMI frame中斷能在行數據傳輸完成前到達,通道1高電平部分就代表一有效分辨率的幀的採集時間。通道2 曝光信號管腳,通道3是行掃描信號。其中通道1下降沿到通道3下降沿4.5ms。代表單片機已經收到crop指定尺寸的圖像,採集有效區域(crop區域)的圖像完成,但是line信號沒有結束還有很多行沒傳輸,即CMOS和DCMI接口要傳輸752*480圖像還沒完成。

     舉例說明,如果使用752*480分辨率採集圖像,你只取中間的360*360視野,有效分辨率是360*360,但是總線上的數據依然是752*480,所以幀率無法提高,多餘的數據按說就不應該傳輸出來,如何破解,問題追到這裏,STM32芯片已經無能為力了,接下來需要在CMOS一側發力了。

     

    4、圖像裁剪–配置CMOS寄存器裁剪

    下圖是MT9V034 攝像頭芯片的寄存器手冊,Reg1–4配置CMOS的行列起點和寬度高度。

    修改寄存器后,攝像頭CMOS就不再向外傳輸多餘的數據,被裁剪丟棄的數據也不會反應在接口上,所以STM32 DCMI接收到的數據都是需要保留的有效區數據,極大地減少了數據輸出,提高了傳輸效率。本人也在STM324芯片上,實現了220*220分辨率120幀的連續採集。

    下面是序圖,通道1高電平代表開始採集和一幀結束,不同於使用STM32 的crop裁剪,使用CMOS寄存器裁剪有效窗口,使得幀結束時行信號也同時結束,後續沒有任何需要傳輸的行數據。

     

    5、一幀數據一次性傳輸

    一幀數據一次全部讀入到MCU的方式,其實是最簡單的驅動編寫方式,缺點就是太占內存,但是對於沒有壓縮功能的cmos芯片來說,一般都無力實現。對部分有jpg壓縮功能的cmos芯片而言,比如OV2640可以使用這種方式,一次性讀出一幀圖像。

    __align(4) u32 jpeg_buf[jpeg_buf_size];    //JPEG buffer
    //JPEG 格式
    const u16 jpeg_img_size_tbl[][2]=
    {
        176,144,    //QCIF
        160,120,    //QQVGA
        352,288,    //CIF
        320,240,    //QVGA
        640,480,    //VGA
        800,600,    //SVGA
        1024,768,    //XGA
        1280,1024,    //SXGA
        1600,1200,    //UXGA
    }; 

    //DCMI 接收數據
    void DCMI_IRQHandler(void)
    {
      if(DCMI_GetITStatus(DCMI_IT_FRAME)==SET)// 一幀數據
      {
        jpeg_data_process();  
        DCMI_ClearITPendingBit(DCMI_IT_FRAME); 
      }
    }

     

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※想知道最厲害的網頁設計公司"嚨底家"!

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※別再煩惱如何寫文案,掌握八大原則!

  • 程序員必備基礎:Git 命令全方位學習

    程序員必備基礎:Git 命令全方位學習

    前言

    掌握Git命令是每位程序員必備的基礎,之前一直是用smartGit工具,直到看到大佬們都是在用Git命令操作的,回想一下,發現有些Git命令我都忘記了,於是寫了這篇博文,複習一下~

    https://github.com/whx123/JavaHome

    公眾號:撿田螺的小男孩

    文章目錄

    • Git是什麼?
    • Git的相關理論基礎
    • 日常開發中,Git的基本常用命令
    • Git進階之分支處理
    • Git進階之處理衝突
    • Git進階之撤銷與回退
    • Git進階之標籤tag
    • Git其他一些經典命令

    Git是什麼

    在回憶Git是什麼的話,我們先來複習這幾個概念哈~

    什麼是版本控制?

    百度百科定義是醬紫的~

    版本控制是指對軟件開發過程中各種程序代碼、配置文件及說明文檔等文件變更的管理,是軟件配置管理的核心思想之一。

    那些年,我們的畢業論文,其實就是版本變更的真實寫照…腦洞一下,版本控制就是這些論文變更的管理~

    什麼是集中化的版本控制系統?

    那麼,集中化的版本控制系統又是什麼呢,說白了,就是有一個集中管理的中央服務器,保存着所有文件的修改歷史版本,而協同開發者通過客戶端連接到這台服務器,從服務器上同步更新或上傳自己的修改。

    什麼是分佈式版本控制系統?

    分佈式版本控制系統,就是遠程倉庫同步所有版本信息到本地的每個用戶。嘻嘻,這裏分三點闡述吧:

    • 用戶在本地就可以查看所有的歷史版本信息,但是偶爾要從遠程更新一下,因為可能別的用戶有文件修改提交到遠程哦。
    • 用戶即使離線也可以本地提交,push推送到遠程服務器才需要聯網。
    • 每個用戶都保存了歷史版本,所以只要有一個用戶設備沒問題,就可以恢複數據啦~

    什麼是Git?

    Git是免費、開源的分佈式版本控制系統,可以有效、高速地處理從很小到非常大的項目版本管理。

    Git的相關理論基礎

    • Git的四大工作區域
    • Git的工作流程
    • Git文件的四種狀態
    • 一張圖解釋Git的工作原理

    Git的四大工作區域

    先複習Git的幾個工作區域哈:

    • Workspace:你電腦本地看到的文件和目錄,在Git的版本控制下,構成了工作區。
    • Index/Stage:暫存區,一般存放在 .git目錄下,即.git/index,它又叫待提交更新區,用於臨時存放你未提交的改動。比如,你執行git add,這些改動就添加到這個區域啦。
    • Repository:本地倉庫,你執行git clone 地址,就是把遠程倉庫克隆到本地倉庫。它是一個存放在本地的版本庫,其中HEAD指向最新放入倉庫的版本。當你執行git commit,文件改動就到本地倉庫來了~
    • Remote:遠程倉庫,就是類似github,碼雲等網站所提供的倉庫,可以理解為遠程數據交換的倉庫~

    Git的工作流程

    上一小節介紹完Git的四大工作區域,這一小節呢,介紹Git的工作流程咯,把git的操作命令和幾個工作區域結合起來,個人覺得更容易理解一些吧,哈哈,看圖:

    git 的正向工作流程一般就這樣:

    • 從遠程倉庫拉取文件代碼回來;
    • 在工作目錄,增刪改查文件;
    • 把改動的文件放入暫存區;
    • 將暫存區的文件提交本地倉庫;
    • 將本地倉庫的文件推送到遠程倉庫;

    Git文件的四種狀態

    根據一個文件是否已加入版本控制,可以把文件狀態分為:Tracked(已跟蹤)和Untracked(未跟蹤),而tracked(已跟蹤)又包括三種工作狀態:Unmodified,Modified,Staged

    • Untracked: 文件還沒有加入到git庫,還沒參与版本控制,即未跟蹤狀態。這時候的文件,通過git add 狀態,可以變為Staged狀態
    • Unmodified:文件已經加入git庫, 但是呢,還沒修改, 就是說版本庫中的文件快照內容與文件夾中還完全一致。 Unmodified的文件如果被修改, 就會變為Modified. 如果使用git remove移出版本庫, 則成為Untracked文件。
    • Modified:文件被修改了,就進入modified狀態啦,文件這個狀態通過stage命令可以進入staged狀態
    • staged:暫存狀態. 執行git commit則將修改同步到庫中, 這時庫中的文件和本地文件又變為一致, 文件為Unmodified狀態.

    一張圖解釋Git的工作原理

    日常開發中,Git的基本常用命令

    • git clone
    • git checkout -b dev
    • git add
    • git commit
    • git log
    • git diff
    • git status
    • git pull/git fetch
    • git push

    這個圖只是模擬一下git基本命令使用的大概流程哈~

    git clone

    當我們要進行開發,第一步就是克隆遠程版本庫到本地呢

    git clone url  克隆遠程版本庫
    

    git checkout -b dev

    克隆完之後呢,開發新需求的話,我們需要新建一個開發分支,比如新建開發分支dev

    創建分支:

    git checkout -b dev   創建開發分支dev,並切換到該分支下
    

    git add

    git add的使用格式:

    git add .	添加當前目錄的所有文件到暫存區
    git add [dir]	添加指定目錄到暫存區,包括子目錄
    git add [file1]	添加指定文件到暫存區
    

    有了開發分支dev之後,我們就可以開始開發啦,假設我們開發完HelloWorld.java,可以把它加到暫存區,命令如下

    git add Hello.java  把HelloWorld.java文件添加到暫存區去
    

    git commit

    git commit的使用格式:

    git commit -m [message] 提交暫存區到倉庫區,message為說明信息
    git commit [file1] -m [message] 提交暫存區的指定文件到本地倉庫
    git commit --amend -m [message] 使用一次新的commit,替代上一次提交
    

    把HelloWorld.java文件加到暫存區后,我們接着可以提交到本地倉庫啦~

    git commit -m 'helloworld開發'
    

    git status

    git status,表示查看工作區狀態,使用命令格式:

    git status  查看當前工作區暫存區變動
    git status -s  查看當前工作區暫存區變動,概要信息
    git status  --show-stash 查詢工作區中是否有stash(暫存的文件)
    

    當你忘記是否已把代碼文件添加到暫存區或者是否提交到本地倉庫,都可以用git status看看哦~

    git log

    git log,這個命令用得應該比較多,表示查看提交歷史/提交日誌~

    git log  查看提交歷史
    git log --oneline 以精簡模式显示查看提交歷史
    git log -p <file> 查看指定文件的提交歷史
    git blame <file> 一列表方式查看指定文件的提交歷史
    

    嘻嘻,看看dev分支上的提交歷史吧要回滾代碼就經常用它喵喵提交歷史

    git diff

    git diff 显示暫存區和工作區的差異
    git diff filepath   filepath路徑文件中,工作區與暫存區的比較差異
    git diff HEAD filepath 工作區與HEAD ( 當前工作分支)的比較差異
    git diff branchName filepath 當前分支的文件與branchName分支的文件的比較差異
    git diff commitId filepath 與某一次提交的比較差異
    

    如果你想對比一下你改了哪些內容,可以用git diff對比一下文件修改差異哦

    git pull/git fetch

    git pull  拉取遠程倉庫所有分支更新併合併到本地分支。
    git pull origin master 將遠程master分支合併到當前本地master分支
    git pull origin master:master 將遠程master分支合併到當前本地master分支,冒號後面表示本地分支
    
    git fetch --all  拉取所有遠端的最新代碼
    git fetch origin master 拉取遠程最新master分支代碼
    

    我們一般都會用git pull拉取最新代碼看看的,解決一下衝突,再推送代碼到遠程倉庫的。

    有些夥伴可能對使用git pull還是git fetch有點疑惑,其實
    git pull = git fetch+ git merge。pull的話,拉取遠程分支並與本地分支合併,fetch只是拉遠程分支,怎麼合併,可以自己再做選擇。

    git push

    git push 可以推送本地分支、標籤到遠程倉庫,也可以刪除遠程分支哦。

    git push origin master 將本地分支的更新全部推送到遠程倉庫master分支。
    git push origin -d <branchname>   刪除遠程branchname分支
    git push --tags 推送所有標籤
    

    如果我們在dev開發完,或者就想把文件推送到遠程倉庫,給別的夥伴看看,就可以使用git push origin dev~

    Git進階之分支處理

    Git一般都是存在多個分支的,開發分支,回歸測試分支以及主幹分支等,所以Git分支處理的命令也需要很熟悉的呀~

    • git branch
    • git checkout
    • git merge

    git branch

    git branch用處多多呢,比如新建分支、查看分支、刪除分支等等

    新建分支:

    git checkout -b dev2  新建一個分支,並且切換到新的分支dev2
    git branch dev2 新建一個分支,但是仍停留在原來分支
    

    查看分支:

    git branch    查看本地所有的分支
    git branch -r  查看所有遠程的分支
    git branch -a  查看所有遠程分支和本地分支
    

    刪除分支:

    git branch -D <branchname>  刪除本地branchname分支
    

    git checkout

    切換分支:

    git checkout master 切換到master分支
    

    git merge

    我們在開發分支dev開發、測試完成在發布之前,我們一般需要把開發分支dev代碼合併到master,所以git merge也是程序員必備的一個命令。

    git merge master  在當前分支上合併master分支過來
    git merge --no-ff origin/dev  在當前分支上合併遠程分支dev
    git merge --abort 終止本次merge,並回到merge前的狀態
    

    比如,你開發完需求后,發版全需要把代碼合到主幹master分支,如下:

    Git進階之處理衝突

    Git版本控制,還是多個人一起搞的,多個分支並存的,這就難免會有衝突出現~

    Git合併分支,衝突出現

    同一個文件,在合併分支的時候,如果同一行被多個分支或者不同人都修改了,合併的時候就會出現衝突。

    舉個粟子吧,我們現在在dev分支,修改HelloWorld.java文件,假設修改了第三行,並且commit提交到本地倉庫,修改內容如下:

    public class HelloWorld {
        public static void main(String[] args) {
            System.out.println("Hello,撿田螺的小男孩!");
        }
    }
    

    我們切回到master分支,也修改HelloWorld.java同一位置內容,如下:

    public class HelloWorld {
        public static void main(String[] args) {
            System.out.println("Hello,jay!!");
        }
    }
    

    再然後呢,我們提交一下master分支的這個改動,並把dev分支合併過下,就出現衝突啦,如圖所示:

    Git解決衝突

    Git 解決衝突步驟如下:

    • 查看衝突文件內容
    • 確定衝突內容保留哪些部分,修改文件
    • 重新提交,done

    1.查看衝突文件內容

    git merge提示衝突后,我們切換到對應文件,看看衝突內容哈,,如下:

    2.確定衝突內容保留哪些部分,修改文件

    • Git用<<<<<<<,=======,>>>>>>>標記出不同分支的內容,
    • <<<<<<<HEAD是指主分支修改的內容,>>>>>>> dev是指dev分支上修改的內容

    所以呢,我們確定到底保留哪個分支內容,還是兩個分支內容都保留呢,然後再去修改文件衝突內容~

    3.修改完衝突文件內容,我們重新提交,衝突done

    Git進階之撤銷與回退

    Git的撤銷與回退,在日常工作中使用的比較頻繁。比如我們想將某個修改后的文件撤銷到上一個版本,或者想撤銷某次多餘的提交,都要用到git的撤銷和回退操作。

    代碼在Git的每個工作區域都是用哪些命令撤銷或者回退的呢,如下圖所示:

    有關於Git的撤銷與回退,一般就以下幾個核心命令

    • git checkout
    • git reset
    • git revert

    git checkout

    如果文件還在工作區,還沒添加到暫存區,可以使用git checkout撤銷

    git checkout [file]  丟棄某個文件file
    git checkout .  丟棄所有文件
    

    以下demo,使用git checkout — test.txt 撤銷了暫存區test.txt的修改

    git reset

    git reset的理解

    git reset的作用是修改HEAD的位置,即將HEAD指向的位置改變為之前存在的某個版本.

    為了更好地理解git reset,我們來回顧一下,Git的版本管理及HEAD的理解

    Git的所有提交,會連成一條時間軸線,這就是分支。如果當前分支是master,HEAD指針一般指向當前分支,如下:

    假設執行git reset,回退到版本二之後,版本三不見了哦,如下:

    git reset的使用

    Git Reset的幾種使用模式

    git reset HEAD --file
    回退暫存區里的某個文件,回退到當前版本工作區狀態
    git reset –-soft 目標版本號 可以把版本庫上的提交回退到暫存區,修改記錄保留
    git reset –-mixed 目標版本號 可以把版本庫上的提交回退到工作區,修改記錄保留
    git reset –-hard  可以把版本庫上的提交徹底回退,修改的記錄全部revert。
    

    先看一個粟子demo吧,代碼git add到暫存區,並未commit提交,就以下醬紫回退,如下:

    git reset HEAD file 取消暫存
    git checkout file 撤銷修改
    

    再看另外一個粟子吧,代碼已經git commit了,但是還沒有push:

    git log  獲取到想要回退的commit_id
    git reset --hard commit_id  想回到過去,回到過去的commit_id
    

    如果代碼已經push到遠程倉庫了呢,也可以使用reset回滾哦(這裏大家可以自己操作實踐一下哦)~

    git log
    git reset --hard commit_id
    git push origin HEAD --force
    

    git revert

    與git reset不同的是,revert複製了那個想要回退到的歷史版本,將它加在當前分支的最前端。

    revert之前:

    revert 之後:

    當然,如果代碼已經推送到遠程的話,還可以考慮revert回滾呢

    git log  得到你需要回退一次提交的commit id
    git revert -n <commit_id>  撤銷指定的版本,撤銷也會作為一次提交進行保存
    

    Git進階之標籤tag

    打tag就是對發布的版本標註一個版本號,如果版本發布有問題,就把該版本拉取出來,修復bug,再合回去。

    git tag  列出所有tag
    git tag [tag] 新建一個tag在當前commit
    git tag [tag] [commit] 新建一個tag在指定commit
    git tag -d [tag] 刪除本地tag
    git push origin [tag] 推送tag到遠程
    git show [tag] 查看tag
    git checkout -b [branch] [tag] 新建一個分支,指向某個tag
    

    Git其他一些經典命令

    git rebase

    rebase又稱為衍合,是合併的另外一種選擇。

    假設有兩個分支master和test

          D---E test
          /
     A---B---C---F--- master
    

    執行 git merge test得到的結果

           D--------E
          /          \
     A---B---C---F----G---   test, master
    

    執行git rebase test,得到的結果

    A---B---D---E---C‘---F‘---   test, master
    

    rebase好處是: 獲得更優雅的提交樹,可以線性的看到每一次提交,並且沒有增加提交節點。所以很多時候,看到有些夥伴都是這個命令拉代碼:git pull –rebase

    git stash

    stash命令可用於臨時保存和恢復修改

    git stash  把當前的工作隱藏起來 等以後恢復現場後繼續工作
    git stash list 显示保存的工作進度列表
    git stash pop stash@{num} 恢復工作進度到工作區
    git stash show :显示做了哪些改動
    git stash drop stash@{num} :刪除一條保存的工作進度
    git stash clear 刪除所有緩存的stash。
    

    git reflog

    显示當前分支的最近幾次提交

    git blame filepath

    git blame 記錄了某個文件的更改歷史和更改人,可以查看背鍋人,哈哈

    git remote

    git remote   查看關聯的遠程倉庫的名稱
    git remote add url   添加一個遠程倉庫
    git remote show [remote] 显示某個遠程倉庫的信息
    

    參考與感謝

    感謝各位前輩的文章:

    • 一個小時學會Git
    • 【Git】(1)—工作區、暫存區、版本庫、遠程倉庫
    • Git Reset 三種模式
    • Git恢復之前版本的兩種方法reset、revert(圖文詳解)
    • Git撤銷&回滾操作(git reset 和 get revert)
    • 為什麼要使用git pull –rebase?

    公眾號

    • 歡迎關注我個人公眾號,交個朋友,一起學習哈~
    • 如果文章有錯誤,歡迎指出哈,感激不盡~

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※為什麼 USB CONNECTOR 是電子產業重要的元件?

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※台北網頁設計公司全省服務真心推薦

    ※想知道最厲害的網頁設計公司"嚨底家"!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※推薦評價好的iphone維修中心

  • 利用Tu Share獲取股票交易信息,c#實現

    利用Tu Share獲取股票交易信息,c#實現

     一、什麼是Tu Share

    Tushare是一個免費、開源的python財經數據接口包。主要實現對股票等金融數據從數據採集清洗加工 到 數據存儲的過程,用戶可以免費(部分數據的下載有積分限制)的通過它提供的財經接口獲取股票交易、期貨等財經信息,功能非常強大。該接口和直接到各財經網站爬數據相比,最大的優勢就是快,去傳統財經網站爬數據,好多關鍵性的股票信息只能一隻股一隻股爬,而Tu Share的API,一個調用可以獲得一天的全部數據,速度差了好幾個數量級。另外一方面各財經網站的接口的API沒有對外文檔化,隨時可能變化,而Tu Share的API有正式的文檔化相對比較穩定。

    二、如何註冊

    該網站使用積分制來控制數據的訪問權限,如果想要訪問數據,先要到下面這個網址完成註冊,https://tushare.pro/register。註冊完成后,可以需要到個人主頁中拷貝Token,這個Token會在以後的訪問中用到,步驟如下

    1、登錄成功后,點擊右上角->個人主頁

    2、 在“用戶中心”中點擊“接口TOKEN”

     

    3、 可以點擊右側複製按鈕複製token

    三、Http API說明

    Tushare HTTP數據獲取的方式,採用了post的機制,通過提交JSON body參數,就可以獲得您想要的數據。具體參數說明如下:

    輸入參數

    api_name:接口名稱,比如stock_basic

    token :用戶唯一標識,可通過登錄pro網站獲取

    params:接口參數,如daily接口中start_date和end_date

    fields:字段列表,用於接口獲取指定的字段,以逗號分隔,如”open,high,low,close”

    輸出參數

    code: 接口返回碼,2002表示權限問題。

    msg:錯誤信息,比如“系統內部錯誤”,“沒有權限”等

    data:數據,data里包含fields和items字段,分別為字段和數據內容

    四、c#(.net core)實現

    1、在Visual Studio中安裝下面幾個包:Microsoft.Extensions.Http、Newtonsoft.Json

    2、封裝方法,實現對REST web service的調用

    public interface IHttpClientUtility
    {
         string HttpClientPost(string url, object datajson);
    }
    public class HttpClientUtility : IHttpClientUtility
        {
            
    
            public HttpClientUtility()
            {
                
            }
            public  string HttpClientPost(string url, object datajson)
            {
                using (HttpClient httpClient = new HttpClient()) //http對象
                {
                    httpClient.DefaultRequestHeaders.Accept.Clear();
                    httpClient.DefaultRequestHeaders.Accept.Add(new MediaTypeWithQualityHeaderValue("application/json"));
                    httpClient.Timeout = new TimeSpan(0, 0, 5);
                    //轉為鏈接需要的格式
                    HttpContent httpContent = new JsonContent(datajson);
                    //請求
                    HttpResponseMessage response = httpClient.PostAsync(url, httpContent).Result;
                    if (response.IsSuccessStatusCode)
                    {
                        Task<string> t = response.Content.ReadAsStringAsync();
                        return t.Result;
                    }
                    throw new Exception("調用失敗");
                }
                                                                           
            }
        }

     

        public class JsonContent : StringContent
        {
            public JsonContent(object value)
                : base(JsonConvert.SerializeObject(value), Encoding.UTF8,
                    "application/json")
            {
            }
    
            public JsonContent(object value, string mediaType)
                : base(JsonConvert.SerializeObject(value), Encoding.UTF8, mediaType)
            {
            }
        }

    3、封裝對Tu Share API的調用

    public  class TuShareUtility 
        {
            private IHttpClientUtility _httpClientUtility;
            private string _url = "http://api.waditu.com/";
            
            public TuShareUtility(IHttpClientUtility httpClientUtility)
            {
                _httpClientUtility = httpClientUtility;
            }
    
            /// <summary>
            /// 調用TuShare API
            /// </summary>
            /// <param name="apiName"></param>
            /// <param name="parmaMap"></param>
            /// <param name="fields"></param>
            /// <returns></returns>
            public  DataTable GetData(string apiName,Dictionary<string,string> parmaMap,params string[] fields)
            {
                var tuShareParamObj=new TuShareParamObj(){ ApiName = apiName ,Params = parmaMap,Fields = string.Join(",",fields)};
                //做Http調用
                var result=_httpClientUtility.HttpClientPost(_url, tuShareParamObj);
                //將返回結果序列化成對象
                var desResult=JsonConvert.DeserializeObject<TuShareResult>(result);
                //如果調用失敗,拋出異常
                if(!string.IsNullOrEmpty(desResult.Msg))
                    throw new Exception(desResult.Msg);
                //返回結果分成兩部分,一部分是列頭信息,另一部分是數據本身,用這兩部分數據可以構建DataTable
                DataTable dt = new DataTable();
                foreach (var dataField in desResult.Data.Fields)
                {
                    dt.Columns.Add(dataField);
                }
    
                foreach (var dataItemRow in desResult.Data.Items)
                {
                    var newdr=dt.NewRow();
                    for (int i=0;i< dataItemRow.Length;i++)
                    {
                        newdr[i] = dataItemRow[i];
                    }
    
                    dt.Rows.Add(newdr);
                }
                return dt;
            }
    
            private class TuShareParamObj
            {
                [JsonProperty("api_name")]
                public string ApiName { get; set; }
    
                [JsonProperty("token")]
                public string Token { get; } = "****************";//你的Token
    
                [JsonProperty("params")]
                public Dictionary<string, string> Params { get; set; }
    
                [JsonProperty("fields")]
                public string Fields { get; set; }
            }
    
            private class TuShareData
            {
                [JsonProperty("fields")]
                public string[] Fields { get; set; }
    
                [JsonProperty("items")]
                public string[][] Items { get; set; }
            }
    
            private class TuShareResult
            {
                [JsonProperty("code")]
                public string Code { get; set; }
    
                [JsonProperty("msg")]
                public string Msg { get; set; }
    
                [JsonProperty("data")]
                public TuShareData Data { get; set; }
            }
        }

    4、調用示例

    獲得日線行情,整個過程1秒左右,返回6月24日,股票相關交易信息,代碼如下,(該網站的其它接口定義可以到https://tushare.pro/document/2查看)

    var tuShareUtility=new TuShareUtility();
    Dictionary<string, string> p = new Dictionary<string, string>();
    p["trade_date"] = "20200624";
    var table = tuShareUtility.GetData("daily", p, "");

    返回如下結果

    返回字段說明

    名稱 類型 描述
    ts_code str 股票代碼
    trade_date str 交易日期
    open float 開盤價
    high float 最高價
    low float 最低價
    close float 收盤價
    pre_close float 昨收價
    change float 漲跌額
    pct_chg float 漲跌幅 (未復權,如果是復權請用 通用行情接口 )
    vol float 成交量 (手)
    amount float 成交額 (千元)

     

     

     

      本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理
    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※回頭車貨運收費標準

  • 【思考】URI和URL的區別?以及URL的結構

    【思考】URI和URL的區別?以及URL的結構

    URI = Universal Resource Identifier
    URL = Universal Resource Locator

    在學習中,我們難免會遇到 URI 和 URL,有時候都傻傻分不清,為啥這邊是 URI 那邊又是 URL,這兩者到底有什麼區別呢?

    我們從名字上看

    • 統一資源標識符(Uniform Resource Identifier, URI):是一個用於標識某一互聯網資源名稱的字符串。
    • 統一資源定位符(Uniform Resource Locator, URL):是一個用於標識和定位某一互聯網資源名稱的字符串。

    可能大家就比較困惑了,這倆好像是一樣的啊?那我們就類比一下我們現實生活中的情況:
    我們要找一個人——張三,我們可以通過他的唯一的標識來找,比如說身份證,那麼這個身份證就唯一的標識了一個人,這個身份證就是一個 URI
    而要找到張三,我們不一定要用身份證去找,我們還可以根據地址去找,如 在清華大學18號宿舍樓的404房間第一個床鋪的張三,我們也可以唯一確定一個張三,
    動物住址協議://地球/中國/北京市/清華大學/18號宿舍樓/404號寢/張三.人。而這個地址就是我們用於標識和定位的 URL
    我們從上面可以很明顯的看出,URI 通過任何方法標識一個人即可,而 URL 雖然也可以標識一個人,但是它主要是通過定位地址的方法標識一個人,所以 URL 其實是 URI 的一個子集,即 URL 是靠標識定位地址的一個 URI

    Url 的構成

    URL(Uniform Resource Locator,統一資源定位符),用於定位網絡上的資源,每一個信息資源都有統一的且在網上唯一的地址。

    Url一般有以下部分組成
    scheme://host:port/path?query#fragment

    Scheme: 通信協議,一般為http、https等;
    Host: 服務器的域名主機名或ip地址;
    Port: 端口號,此項為可選項,默認為80;
    Path: 目錄,由“/”隔開的字符串,表示的是主機上的目錄或文件地址;
    Query: 查詢,此項為可選項,可以給動態網頁傳遞參數,用“&”隔開,每個參數的名和值用“=”隔開;
    Fragment: 信息片段,字符串,用於指定網絡資源中的某片斷;

    其實,把 URL 說成是網址其實是很不嚴謹的說法,因為 URL 有很嚴格的結構,表示也很靈活、有彈性。
    在 RFC 3986: Uniform Resource Identifier (URI): Generic Syntax 的 Syntax Components 把 URL 描述為如下圖:

    如圖所示,把 URL 分成幾個部分,這樣便可以了解URL的構成。 在 URI scheme – Wikipedia 頁面中對 URL 的描述更為詳細,如下圖:

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※為什麼 USB CONNECTOR 是電子產業重要的元件?

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※台北網頁設計公司全省服務真心推薦

    ※想知道最厲害的網頁設計公司"嚨底家"!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※推薦評價好的iphone維修中心

  • IDEA創建SpringBoot的多模塊項目教程

    IDEA創建SpringBoot的多模塊項目教程

    最近在寫一個多模塊的SpringBoot項目,基於過程總了一些總結,故把SpringBoot多個模塊的項目創建記錄下來。

    首先,先建立一個父工程:

    (1)在IDEA工具欄選擇File->New->Project

    (2)選擇Spring Initializr,默認選擇Default,然後點擊Next:    

    (3)在輸入框填寫以下截圖內容,點擊Next

    (4)直接點Next,無需選擇

    (5)直接點擊Finish完成創建

    (6)按照以上步驟,可以生成以下的項目目錄結構:

    (7)這時把沒用的.mvn目錄,src目錄,mvnw還有mvnw.cmd都刪除,最終只保留.gitignore和pom.xml,若是web項目,可在該pom.xml里添加以下依賴:

    1 <!--web特徵-->
    2 <dependency>
    3     <groupId>org.springframework.boot</groupId>
    4     <artifactId>spring-boot-starter-web</artifactId>
    5     <version>2.3.1.RELEASE</version>
    6 </dependency>

    最終得到以下的父結構目錄:

     

    以上是創建父模塊,下面創建子模塊:

    (1)在父模塊的根目錄fte上點右鍵,在彈出的框里選擇New->Module

    (2)選擇Maven,點擊Next

    (3)填寫以下內容,點擊Next

    (4)填寫Module,點擊Finish

    (5)同理添加fte-controller,fte-dao,fte-service,fte-web,最終得到以下的目錄結構:

    (6)增加模塊之間的依賴:

    controller層添加以下依賴:

     1 <dependencies>
     2     <dependency>
     3         <groupId>com.example</groupId>
     4         <artifactId>fte-common</artifactId>
     5         <version>0.0.1-SNAPSHOT</version>
     6     </dependency>
     7 
     8     <dependency>
     9         <groupId>com.example</groupId>
    10         <artifactId>fte-dao</artifactId>
    11         <version>0.0.1-SNAPSHOT</version>
    12     </dependency>
    13 
    14     <dependency>
    15         <groupId>com.example</groupId>
    16         <artifactId>fte-service</artifactId>
    17         <version>0.0.1-SNAPSHOT</version>
    18     </dependency>
    19 </dependencies>

    service層添加以下依賴:

    1 <dependencies>
    2     <dependency>
    3         <groupId>com.example</groupId>
    4         <artifactId>fte-dao</artifactId>
    5         <version>0.0.1-SNAPSHOT</version>
    6     </dependency>
    7 </dependencies>

    (7)測試

    在fte-controller創建com.zhu.fte.web包,增加以下兩個類:

    fteWebApplication類:

     1 package com.zhu.fte.web;
     2 
     3 import org.springframework.boot.SpringApplication;
     4 import org.springframework.boot.autoconfigure.SpringBootApplication;
     5 
     6 @SpringBootApplication
     7 public class fteWebApplication {
     8     public static void main(String[] args) {
     9         SpringApplication.run(fteWebApplication.class,args);
    10     }
    11 }

    DemoController類

     1 package java.com.zhu.fte.web;
     2 
     3 import org.springframework.web.bind.annotation.GetMapping;
     4 import org.springframework.web.bind.annotation.RequestMapping;
     5 import org.springframework.web.bind.annotation.RestController;
     6 
     7 @RestController
     8 @RequestMapping("demo")
     9 public class DemoController {
    10 
    11     @GetMapping("test")
    12     public String test(){
    13         return "hello world";
    14     }
    15 
    16 }

    運行發現出現錯誤:

    出現錯誤:

    [ERROR] Failed to execute goal org.apache.maven.plugins:maven-surefire-plugin:2.22.2:test (default-test) on project fte-common: Execution default-test of goal org.apache.maven.plugins:maven-surefire-plugin:2.22.2:test failed: Plugin org.apache.maven.plugins:maven-surefire-plugin:2.22.2 or one of its dependencies could not be resolved: Could not transfer artifact junit:junit:jar:4.12 from/to central (https://repo.maven.apache.org/maven2): Connect to repo.maven.apache.org:443 [repo.maven.apache.org/151.101.52.215] failed: Connection timed out: connect -> [Help 1]

    把缺少的org.apache.maven.plugins手動放到父工程的pom.xml里

     1 <build>
     2    <plugins>
     3       <plugin>
     4          <groupId>org.apache.maven.plugins</groupId>
     5          <artifactId>maven-clean-plugin</artifactId>
     6          <version>2.5</version>
     7       </plugin>
     8       <plugin>
     9          <groupId>org.apache.maven.plugins</groupId>
    10          <artifactId>maven-source-plugin</artifactId>
    11          <version>2.2</version>
    12       </plugin>
    13       <plugin>
    14          <groupId>org.apache.maven.plugins</groupId>
    15          <artifactId>maven-compiler-plugin</artifactId>
    16          <version>3.0</version>
    17          <configuration>
    18             <source>1.8</source>
    19             <target>1.8</target>
    20             <encoding>${file.encoding}</encoding>
    21             <!--編譯的時候方法不改變方法參數名稱,用於支持使用反射獲取方法參數名稱-->
    22             <compilerArgument>-parameters</compilerArgument>
    23          </configuration>
    24       </plugin>
    25       <plugin>
    26          <groupId>org.apache.maven.plugins</groupId>
    27          <artifactId>maven-install-plugin</artifactId>
    28          <version>2.4</version>
    29       </plugin>
    30       <plugin>
    31          <groupId>org.apache.maven.plugins</groupId>
    32          <artifactId>maven-jar-plugin</artifactId>
    33          <version>2.4</version>
    34          <configuration>
    35             <archive>
    36                <manifest>
    37                   <addDefaultImplementationEntries>true
    38                   </addDefaultImplementationEntries>
    39                </manifest>
    40             </archive>
    41          </configuration>
    42       </plugin>
    43 
    44       <plugin>
    45          <groupId>org.apache.maven.plugins</groupId>
    46          <artifactId>maven-surefire-plugin</artifactId>
    47          <version>2.13</version>
    48          <configuration>
    49             <argLine>-Xmx512M -Dfile.encoding=${file.encoding}</argLine>
    50          </configuration>
    51       </plugin>
    52    </plugins>
    53 </build>

    運行fteWebApplication類里的main方法,默認端口為8080,訪問http://localhost:8080/demo/test,正常出現以下情況:

     

    按照以上步驟,就可以初步建立SpringBoot多模塊的項目,下一章將基於這個基礎搭建Mybatis以及其逆向工程。

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理
    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※回頭車貨運收費標準

  • WebGPU+光線追蹤Ray Tracing 開發三個月總結

    WebGPU+光線追蹤Ray Tracing 開發三個月總結

    大家好~這三個月以來,我一直在學習和實現“基於WebGPU的混合光線追蹤實時渲染”的技術,使用了Ray Tracing管線(如.rgen、.rmiss等着色器)。
    現在與大家分享和介紹我目前的學習成果,希望對大家有所幫助!謝謝!

    通過國外的開源項目,可在WebGPU中使用Ray Tracing管線

    這三個月我對Ray Tracing的研究有了質的突破,主要歸功於我發現的WebGPU Node開源項目!
    該作者首先在dawn-ray-tracing開源項目中對“dawn項目:Chrome對WebGPU的實現”進行了擴展,加入了光追的API;
    然後在WebGPU Node開源項目中,底層封裝了Vulkan SDK,上層使用了dawn-ray-tracing項目,提供了WebGPU API,實現了在Nodejs環境中使用WebGPU API和Ray Tracing管線來實現硬件加速的光線追蹤(電腦需要使用nvdia的RTX顯卡)!

    相關介紹參見:
    Real-Time Ray-Tracing in WebGPU

    搭建運行環境

    有兩種方法來搭建運行環境:
    1、給Chrome瀏覽器打補丁,使其與下載DXR驅動(DirectX Raytracing)關聯,從而在該瀏覽器中運行
    詳見該作者最近寫的開源項目:chromium-ray-tracing
    (我沒有測試過,不知道是否能使用)

    2、編譯dawn-ray-tracing和WebGPU Node項目,從而在Nodejs環境中運行
    我使用的是這個方法(不過我使用的WebGPU Node項目是今年3月份時的代碼,最新的代碼我還沒有編譯成功)。

    我的操作系統是win7,顯卡是RTX 2060s,vulkan sdk是1.1.126.0版本

    /* 最新代碼我還沒有編譯成功哈哈!請先不要進行下面的編譯操作!

    編譯的步驟為(需要使用VPN翻牆):

    # 編譯dawn-ray-tracing項目
    
    ## Clone the repo as "dawn-ray-tracing"
    git clone https://github.com/maierfelix/dawn-ray-tracing
    
    cd dawn-ray-tracing
    
    ## Bootstrap the gclient configuration
    cp scripts/standalone.gclient .gclient
    
    ## Fetch external dependencies and toolchains with gclient
    gclient sync
    
    
    set DEPOT_TOOLS_WIN_TOOLCHAIN=0
    
    npm install --global --production windows-build-tools
    
    gn gen out/Shared --ide=vs --target_cpu="x64" --args="is_component_build=true is_debug=false is_clang=false"
    
    ninja -C out/Shared
    
    
    # 編譯webgpu node項目
    
    npm install webgpu
    
    在webgpu node的根目錄中創建名為“PATH_TO_DAWN”的文件,在其中指定dawn-ray-tracing項目的絕對路徑,如:
    D:/Github/dawn-ray-tracing
    
    在webgpu node的根目錄中執行:
    npm run all --dawnversion=0.0.1
    (
    這裏要注意的是,需要先安裝Vulkan SDK和python;
    
    可以通過“npm config set python C:\depot_tools\python.bat”來設置python路徑,或者指定python路徑:
    npm run all --dawnversion=0.0.1 --python="C:\Users\Administrator\Downloads\depot_tools\bootstrap-3_8_0_chromium_8_bin\python\bin\python.exe"
    )
    
    
    # 在nodejs中運行ray tracing示例,驗證是否成功
    
    進入webgpu node的根目錄
    
    cd examples & cd ..
    node --experimental-modules examples/ray-tracing/index.mjs
    

    */

    應用場景

    考慮到WebGPU還沒有正式發布,並且可能在三年內瀏覽器都不會支持Ray Tracing管線,所以我把渲染放到雲端,這樣就可以在雲端自行搭建環境(如使用WebGPU Node開源項目),然後通過網絡傳輸將渲染結果傳輸到客戶端,從而在客戶端瀏覽器不支持的情況下仍能显示光追渲染的畫面。

    因此,我的應用場景為:
    1、雲渲染
    2、雲遊戲

    這兩個應用場景有不同的需求:
    “雲渲染”屬於離線渲染,我們關心的是:

    • 畫質要好
    • 渲染時間可以長點

    因此:

    • 每幀可採樣多次,即n spp(n >= 30)
    • 支持多種渲染效果,如“焦射”(causicts)等
    • 全局光照可使用n次bounce(n >= 2)

    “雲遊戲”屬於實時渲染,我們關心的是:

    • 畫質可以差點
    • 渲染時間要短(每幀30ms以內)

    因此:

    • 每幀只採樣一次,即1 spp
    • 全局光照只使用一次或兩次bounce
    • 對“焦射”(causicts)等場景用性能好的方案達到接近的渲染效果,通過犧牲畫質來減少渲染時間

    介紹我目前的實現方案

    主要技術框架是“實時混合光線追蹤”,主要包含下面的pass:
    1、gbuffer pass
    創建gbuffer
    2、ray tracing pass
    直接從gbuffer中獲取world position、diffuse等數據,用來計算直接光照,從而減少了每個像素髮射的光線數量;
    每個像素髮射1個shadow ray,用來計算直接光照的陰影;
    如果只用1個bounce來計算全局光照的話,每個像素髮射1個indirect ray+1個shadow ray,用來計算間接光照。
    3、denoise pass
    基於BMFR算法來實現降噪,具體可參考本文後面的“實現降噪Denoise”部分。
    4、taa pass
    使用taa來抗鋸齒

    相關代碼可見我的開源項目:
    WebGPU-RTX

    介紹我學習的整個流程,分享相關資料

    了解光線追蹤的相關領域

    我通過下面的文章進行了初步的了解:
    一篇光線追蹤的入門
    光線追蹤與實時渲染的未來
    實時光線追蹤技術:業界發展近況與未來挑戰
    Introduction to NVIDIA RTX and DirectX Ray Tracing
    如何評價微軟的 DXR(DirectX Raytracing)?

    實現第一個光追的Demo

    通過學習下面的資料:
    Ray Tracing in One Weekend
    Ray Tracing: The Next Week
    Ray Tracing in One Weekend和Ray Tracing: The Next Week的詳解
    基於OpenGL的GPU光線追蹤

    我參考資料中的代碼,用WebGL 2實現一個Demo:

    該場景的紅圈中是一個球,附近有一個球形光源和一個矩形光源

    因為沒有進行降噪,所以噪點太多了哈哈!

    相關代碼可見我的開源項目:
    Wonder-RayTrace

    學習和實現Ray Tracing管線

    通過學習NVIDIA Vulkan Ray Tracing Tutorial教程,我用 js語言+WebGPU Node開源項目 基於Ray Tracing管線依次實現了陰影、反射等基礎渲染效果。

    該教程使用了VK_KHR_ray_tracing擴展,而WebGPU Node開源項目也使用了該擴展(Vulkan SDK),因此該教程的shader代碼幾乎可以直接用到該開源項目中。

    教程代碼

    用Reason重寫

    我用Reason語言重寫了示例代碼,提煉了一個基礎架構。

    學習GBuffer+Ray Tracing混合管線

    因為我希望優先減少渲染時間,所以我要通過混合管線來進行實時渲染。

    我通過A Gentle Introduction To DirectX Raytracing教程來學習和實現。

    教程代碼下載

    我學習了該教程的第一篇到第11篇,分別實現了創建GBuffer、使用Lambertian材質渲染、多光源的陰影等內容。

    實現降噪Denoise

    教程的第9篇通過每個像素對每個光源發射一個shadow ray,最後累加並計算平均值,實現了多光源的陰影。

    教程的第11篇對第9篇進行了改進:為了減少每個像素髮射的shadow ray的數量,每個像素只隨機向一個光源發射一個shadow ray。
    這樣會導致噪點,如下圖所示:

    我們可以通過累計採樣數來不斷逼近無噪點的圖片(如該教程的第6篇一樣),但這樣需要經過長時間后才會收斂,所以只適合“雲渲染”這種離線渲染的應用場景。

    累加一定幀數后,結果如下圖所示:

    實現taa

    降噪算法通常需要先實現“幀間的數據復用”,而TAA抗鋸齒也需要實現“幀間數據復用”的技術;而且降噪算法會使用TAA作為最後一個pass來抗鋸齒。所以我決定先實現taa,將其作為實現降噪算法的鋪墊。

    我參考了下面的資料來實現taa:
    DX12渲染管線(2) – 時間性抗鋸齒(TAA)、 相關代碼
    Unity Temporal AA的改進與提高、 相關代碼
    unit Temporal Anti-Aliasing

    實現BMFR降噪算法

    為了能應用於“雲遊戲”這種實時渲染的應用場景,我們需要快速降噪。因此我實現了BMFR算法來降噪。

    降噪前場景:

    降噪后場景:

    我參考了下面的資料:
    BLOCKWISE MULTI-ORDER FEATURE REGRESSION FOR REAL-TIME PATH TRACING RECONSTRUCTION
    參考代碼

    學習蒙特卡羅積分(monte carlo)的理論

    教程的第11篇隨機向一個光源發射一個shadow ray,這其實已經使用了蒙特卡羅積分的理論。

    我們可以通過下面的資料深入學習該理論,了解概率密度函數(pdf)、重要性採樣等相關概念,為我們後面實現全局光照打下理論基礎:
    【RAY TRACING THE REST OF YOUR LIFE 超詳解】 光線追蹤 3-1 蒙特卡羅 (一) 到 【RAY TRACING THE REST OF YOUR LIFE 超詳解】 光線追蹤 3-7 混合概率密
    光線追蹤器Ray Tracer:進階篇

    實現全局光照

    通過學習教程的第12篇,我實現了one bounce的全局光照。

    更多參考資料:
    Global Illumination and Path Tracing
    Global Illumination and Monte Carlo

    這裏我遇到的問題主要是處理indirect specular noise:噪點不穩定,導致降噪后不穩定(高光周圍有明顯波動)。
    我首先以為是pdf寫錯了,結果修改了pdf后還是沒有改進;
    然後希望通過clamp等方法移除這些高光的fireflies噪點,結果影響到了畫質;
    最後採用了“採樣indirect specular/diffuse多次”來穩定噪點。這適用於“雲渲染”的離線渲染,但不適用於“雲遊戲”的實時渲染。

    基於GGX模型,實現disney BRDF

    通過學習教程的第14篇,我引入了pbr材質,實現了GGX模型,加入了多bounce的全局光照。

    我對教程代碼進行了改進:
    在.rgen着色器中使用for循環而不是遞歸來實現的多bounce;
    實現了disney BRDF,在pbr材質中有diffuse、roughness、metallic、specular這幾個參數。

    更多參考資料:
    基於物理着色(二)- Microfacet材質和多層材質
    基於物理着色(三)- Disney和UE4的實現
    基於物理的渲染(PBR)白皮書 | 迪士尼原則的BRDF與BSDF相關總結
    WebGPU-Path-Tracer 實現了disney BRDF

    目前的渲染效果

    我目前的實現需要改進的地方

    在Ray Tracing pass中支持紋理

    使用bindless texture或者virtual texture來實現

    擴展disney BRDF,實現BSDF,支持透明、折射效果

    增加后處理

    如gamma矯正等

    在雲端環境下多線程渲染

    雲端天然具有并行的優勢,因此可將渲染任務分配到多個顯卡/服務器中執行。

    改進降噪效果

    BMFR對高光specular處理得不好。
    為了應用在“雲渲染”中,需要提高畫質。因此可考慮:

    • 改進BMFR對specular的處理
      BMFR論文中已有相關的討論
    • 使用專門對多個spp採樣進行降噪的降噪器來替代BMFR
      因為BMFR主要是針對1 spp採樣,所以需要使用針對蒙托卡羅積分路徑追蹤的降噪器來替代

    改進indirect specular/diffuse noise

    現在我通過增加spp來增加噪點的穩定性,這在“雲遊戲”中行不通,因為只能有1 spp。因此可考慮:

    • 使用blue noise
      可參考: http://psgraphics.blogspot.com/2018/10/flavors-of-sampling-in-ray-tracing.html
      https://hal.archives-ouvertes.fr/hal-02158423/file/blueNoiseTemporal2019_slides.pdf
      https://belcour.github.io/blog/research/2019/06/18/animation-bluenoise.html
      https://zhuanlan.zhihu.com/p/90017623
    • 對GGX模型使用VNDF來代替NDF採樣
    • 對多bounce的indirect specular noise進行優化
      可能的解決方案:
      使用reflection denoise filter;
      adaptive multiple bounce;
    • 使用photon mapping來降低噪點

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

  • Java筆試面試總結—try、catch、finally語句中有return 的各類情況

    Java筆試面試總結—try、catch、finally語句中有return 的各類情況

    前言

    之前在刷筆試題和面試的時候經常會遇到或者被問到 try-catch-finally 語法塊的執行順序等問題,今天就抽空整理了一下這個知識點,然後記錄下來。

    正文

    本篇文章主要是通過舉例的方式來闡述各種情況,我這裏根據 try-catch-finally 語法塊分為兩種大情況討論:try-catch 語法塊和 try-catch-finally 語句塊,然後再在每種情況里再去具體討論。

    一、try-catch 語句塊

    我們可以看看下面程序:

    public static void main(String[] args) {
    
        System.out.println(handleException0());
      }
    
      /**
       * try,catch都有return
       * @return
       */
      private static String handleException0() {
        try{
          System.out.println("try開始");
          String s = null;
          int length = s.charAt(0);
          System.out.println("try結束");
          return "try塊的返回值";
        }catch (Exception e){
          System.out.println("捕獲到了異常");
          return "catch的返回值";
        }
      }
    

    執行結果

    try開始
    捕獲到了異常
    catch的返回值

    分析:程序首先執行 try 塊裏面的代碼,try 塊裏面發現有異常,try 塊後面的代碼不會執行(自然也不會return),然後進入匹配異常的那個 catch 塊,然後進入 catch 塊裏面將代碼執行完畢,當執行到 catch 裏面的return 語句的時候,程序中止,然後將此 return 的最終結果返回回去。

    二、try-catch-finally 語句塊

    這種語法塊我分為了 4 種情況討論,下面進行一一列舉。

    1、第一種情況,try 塊裏面有 return 的情況,並且捕獲到異常

    例1:

    public static void main(String[] args) {
      String result = handleException1();
      System.out.println(result);
    }
    private static String handleException1() {
      try{
        System.out.println("try開始");
        String str = null;
        int length = str.length();
        System.out.println("try結束");
      }catch (Exception e){
        System.out.println("捕獲到了異常");
      }finally {
        System.out.println("finally塊執行完畢了");
      }
      return "最終的結果";
    }
    

    例1執行的結果如下

    try開始
    捕獲到了異常
    finally塊執行完畢了
    最終的結果

    例2:

    public static void main(String[] args) {
      String result = handleException2();
      System.out.println(result);
    }
    private static String handleException2() {
      try{
        System.out.println("try開始");
        String str = null;
        int length = str.length();
        System.out.println("try結束");
        return "try塊的返回值";
      }catch (Exception e){
        System.out.println("捕獲到了異常");
      }finally {
        System.out.println("finally塊執行完畢了");
      }
      return "最終的結果";
    }
    

    例2的執行結果如下

    try開始
    捕獲到了異常
    finally塊執行完畢了
    最終的結果

    分析:首先 例1 和 例2 的結果是很顯然的,當遇到異常的時候,直接進入匹配到相對應的 catch 塊,然後繼續執行 finallly 語句塊,最後將 return 結果返回回去。

    第二種情況:try塊裏面有return的情況,但是不會捕獲到異常

    例3:

    思考:下面代碼try語句塊中有return語句,那麼是否執行完try語句塊就直接return退出方法了呢?

    public static void main(String[] args) {
      String result = handleException3();
      System.out.println(result);
    }
    private static String handleException3() {
      try{
      	System.out.println("");
        return "try塊的返回值";
      }catch (Exception e){
        System.out.println("捕獲到了異常");
      }finally {
        System.out.println("finally塊執行完畢了");
      }
      return "最終的結果";
    }
    

    例3的執行結果如下

    finally塊執行完畢了
    try塊的返回值

    分析:例3的結果其實我們可以通過打斷點的方式去看看程序的具體執行流程,通過打斷點我們可以發現,代碼先執行 try塊 里的代碼,當執行到 return 語句的時候,handleException3方法並沒有立刻結束,而是繼續執行finally塊里的代碼,finally塊里的代碼執行完后,緊接着回到 try 塊的 return 語句,再把最終結果返回回去, handleException 方法執行完畢。

    第三種情況:try塊和finally裏面都有return的情況

    例4:

    public static void main(String[] args) {
        System.out.println(handleException4());
      }
    
      /**
       * 情況3:try和finally中均有return
       * @return
       */
      private static String handleException4() {
        try{
          System.out.println("");
          return "try塊的返回值";
        }catch (Exception e){
          System.out.println("捕獲到了異常");
        }finally {
          System.out.println("finally塊執行完畢了");
          return "finally的返回值";
        }
      //  return "最終的結果";//不能再有返回值
      }
    

    例4的執行結果

    finally塊執行完畢了
    finally的返回值

    分析:需要注意的是,當 try 塊和 finally 裏面都有 return 的時候,在 try/catch/finally 語法塊之外不允許再有return 關鍵字。我們還是通過在程序中打斷點的方式來看看代碼的具體執行流程。代碼首先執行 try 塊 里的代碼,當執行到 return 語句的時候,handleException4 方法並沒有立刻結束,而是繼續執行 finally 塊里的代碼,當發現 finally 塊里有 return 的時候,直接將 finally 里的返回值(也就是最終結果)返回回去, handleException4 方法執行完畢。

    第四種情況:try塊,catch塊,finally塊都有return

    例5:

    public static void main(String[] args) {
        System.out.println(handleException5());
      }
    
      /**
       * 情況4:try,catch,finally都有return
       * @return
       */
      private static String handleException5() {
        try{
          System.out.println("try開始");
          int[] array = {1, 2, 3};
          int i = array[10];
          System.out.println("try結束");
          return "try塊的返回值";
        }catch (Exception e){
          e.printStackTrace();//這行代碼其實就是打印輸出異常的具體信息
          System.out.println("捕獲到了異常");
          return "catch的返回值";
        }finally {
          System.out.println("finally塊執行完畢了");
          return "finally的返回值";
        }
    //    return "最終的結果";
      }
    

    例5的執行結果

    try開始
    捕獲到了異常
    finally塊執行完畢了
    finally的返回值
    java.lang.ArrayIndexOutOfBoundsException: 10
    at com.example.javabasic.javabasic.ExceptionAndError.TryCatchFinally.handleException5(TryCatchFinally.java:25)
    at com.example.javabasic.javabasic.ExceptionAndError.TryCatchFinally.main(TryCatchFinally.java:14)

    分析:程序首先執行try塊裏面的代碼,try塊裏面發現有異常,try塊後面的代碼不會執行(自然也不會return),然後進入匹配異常的那個catch塊,然後進入catch塊裏面將代碼執行完畢,當執行到catch裏面的return語句的時候,程序不會馬上終止,而是繼續執行finally塊的代碼,最後執行finally裏面的return,然後將此return的最終結果返回回去。

    總結

    其實,我們通過以上例子我們可以發現,不管return關鍵字在哪,finally一定會執行完畢。理論上來說try、catch、finally塊中都允許書寫return關鍵字,但是執行優先級較低的塊中的return關鍵字定義的返回值將覆蓋執行優先級較高的塊中return關鍵字定義的返回值。也就是說finally塊中定義的返回值將會覆蓋catch塊、try塊中定義的返回值;catch塊中定義的返回值將會覆蓋try塊中定義的返回值。
    再換句話說如果在finally塊中通過return關鍵字定義了返回值,那麼之前所有通過return關鍵字定義的返回值都將失效——因為finally塊中的代碼一定是會執行的。

    公眾號:良許Linux

    有收穫?希望老鐵們來個三連擊,給更多的人看到這篇文章

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※想知道最厲害的網頁設計公司"嚨底家"!

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※別再煩惱如何寫文案,掌握八大原則!