標籤: 網頁設計公司

  • 關於技術文章“標題黨”一事我想說兩句

    關於技術文章“標題黨”一事我想說兩句

    閱讀本文大概需要 1.8 分鐘。

    前天發表的一篇文章,標題是:“面試官:你剛說你喜歡研究新技術,那麼請說說你對 Blazor 的了解”。確實,這篇文章有標題黨的味道,如果因此給部分童鞋帶來不適,我在這先真誠地給大家道個歉!

    這篇文章同步發表到博客園后,評論熱鬧了,其中“懟”文章是標題黨的不在少數。我先把與標題黨相關的評論截圖貼出來大家看看。

    上面只截了與“標題黨”相關的部分,一些討論技術的沒有包含在截圖裡。截止目前,評論大概有近 20 條,感興趣的可以去博客園看看那些有想法的優質評論。害,平時寫的技術文章很少見有這麼熱鬧的評論。

    評論中的 1 樓,@memmon 表達了博客園標題黨現象的看法。由於支持的人比較多,我再次引用一下:

    作為一個每天都會瀏覽博客園的用戶,不知道是不是我心態變了,現在看博客園 cnblog 幾乎看不下去了,一進去幾乎就不想看,全是標題黨,我搞不清楚這些人怎麼想的,在專業領域需要標題黨嗎,好的不學,全是網紅那一套,這些流量有什麼意義,標題幾乎是對話式的,百度貼吧的既視感,本來應該是知乎寫文章的態度,進去全是百度貼吧式的文章標題,我知道寫文章很悶,苦中作樂,自我調侃都是方式,不過觀感真的不太好。

    說的很中肯,語氣委婉客氣,並沒有多少“懟”的意思。當然他說的不是特別針對我這一篇文章,而是表達對博客園這種現象的“看不下去”。我理解他的心情,我也反感標題黨。

    我看到評論后回復了 @memmon:

    謝謝點評,接受一切批評指導,並會努力提升文章質量。本文確實有標題黨味道,但行文並沒有離題,確實是從群里大家最近聊面試的話題中產生寫本文的 Idea,目的是幫助那些正在面試的人了解一下 Blazor。也有想過把文章標題改成:“Blazor 介紹”,但又覺得有點太教科書了,技術文章本就枯燥,偶爾苦中作樂調劑一下我覺得挺好。這不,這麼一調劑,大家討論的熱情就上來了。

    我接着說兩句。

    標題黨在前兩三年很盛行,人人痛恨。但近一兩年見得越來越少了(只要你的興趣不和長輩們一致應該是很少看到標題黨了),說明自媒體人都意識到“標題黨”的危害。真正的“標題黨”文章雖然能在短時間內獲得一些點擊量,但稍微長遠一點來看,肯定引起讀者的反感,反而造成一大波真正的內容閱讀者取消關注。我,能不明白這個道理嗎。

    我也幾乎每天都會看看博客園,博客園首頁的文章我並沒有發現什麼標題黨。惟一讓我印象深刻的是下面這類的所謂的“標題黨”文章:

    • 標題:震驚!Windows Service 服務和定時任務框架 quartz 之間原來是這種關係 ……
      地址:cnblogs.com/xiongze520/p/13031944.html
    • 標題:CPU 瞞着內存竟干出這種事
      地址:cnblogs.com/xuanyuan/p/12894711.html
    • 標題:完了!CPU 一味求快出事兒了!
      地址:cnblogs.com/xuanyuan/p/12856598.html
    • … 類似的還有很多。

    我真心覺得這類標題挺有意思的,很贊,也很高級。如果是乾巴巴的教科書式的標題,我對文章一點興趣都沒有,不大可能會點進去看。但遇到這種標題,我極大可能會點進去看看,而且大多時候會認真地看完。對我來說,能讓我產生好奇或興趣、能讓我這顆浮躁的心不經意間讀完一篇技術文章,我就很感謝作者了。而且,作者深知要和短視頻、美女圖、搞笑動圖這樣能給人帶來既視快感的作品搶讀者的注意力是非常非常難的。為了能吸引我們一點點的注意力,為了能促使我們去閱讀一點更有營養的內容,技術文章“標題黨”作者也是想盡了辦法,難道我們不應該為作者的努力點個贊嗎?

    技術文章的目標讀者又不是小學畢業沒文化,幾乎都是 Geek 好嗎。為了能激起 Geek 們的熱情,能讓他們多表達一個句話,你知道有多難嗎。你去公眾號和頭條對比一下那些技術文章的評論量和那些生活情感類文章的評論量,一篇技術文章能有 20 幾條評論那就相當熱鬧了。Geek 們豈是你能用標題吸引他們加關注的,只是帶來短暫的點擊量罷了。內容沒有營養,再標題黨也不會讓 Geek 們買賬,他們反而分分鐘取關你!你看,作為原創作者,我們也不容易吧。​ 偶爾“標題黨”調劑一下,能激起大家討論的興趣,能讓氛圍熱鬧一點,我覺得是好事情啊。

    本就枯燥的技術文章,太在意標題,你就輸了。我是說,你真的把文章閱讀完了嗎?把你浮躁的心收起來吧,認真閱讀完文章后,在內容相關話題上表達自己的觀點和想法或提出意見,才是一個技術人應該有的態度,真正有收穫才算贏了自己,不是嗎。

    最後,本號一定努力提高文章質量,堅持創作優質內容。一路走來,謝謝各位陪伴與支持!沒有你們,我也沒有持續寫作的動力。​

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

  • 【原】二進制部署 k8s 1.18.3

    【原】二進制部署 k8s 1.18.3

    二進制部署 k8s 1.18.3

    插播一條:ansible 一鍵部署:https://github.com/liyongjian5179/k8s-ansible

    1、相關前置信息

    1.1 版本信息

    kube_version: v1.18.3

    etcd_version: v3.4.9

    flannel: v0.12.0

    coredns: v1.6.7

    cni-plugins: v0.8.6

    pod 網段:10.244.0.0/16

    service 網段:10.96.0.0/12

    kubernetes 內部地址:10.96.0.1

    coredns 地址: 10.96.0.10

    apiserver 域名:lb.5179.top

    1.2 機器安排

    主機名 IP 角色及組件 k8s 相關組件
    centos7-nginx 10.10.10.127 nginx 四層代理 nginx
    centos7-a 10.10.10.128 master,node,etcd,flannel kube-apiserver kube-controller-manager kube-scheduler kubelet kube-proxy
    centos7-b 10.10.10.129 master,node,etcd,flannel kube-apiserver kube-controller-manager kube-scheduler kubelet kube-proxy
    centos7-c 10.10.10.130 master,node,etcd,flannel kube-apiserver kube-controller-manager kube-scheduler kubelet kube-proxy
    centos7-d 10.10.10.131 node,flannel kubelet kube-proxy
    centos7-e 10.10.10.132 node,flannel kubelet kube-proxy

    2、部署前環境準備

    centos7-nginx 當主控機對其他機器做免密

    2.1、 安裝ansible用於批量操作

    安裝過程略

    [root@centos7-nginx ~]# cat /etc/ansible/hosts
    [masters]
    10.10.10.128
    10.10.10.129
    10.10.10.130
    
    [nodes]
    10.10.10.131
    10.10.10.132
    
    [k8s]
    10.10.10.[128:132]
    

    推送宿主機 hosts 文件

    cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    10.10.10.127 centos7-nginx lb.5179.top
    10.10.10.128 centos7-a
    10.10.10.129 centos7-b
    10.10.10.130 centos7-c
    10.10.10.131 centos7-d
    10.10.10.132 centos7-e
    
    ansible k8s -m shell -a "mv /etc/hosts /etc/hosts.bak"
    ansible k8s -m copy -a "src=/etc/hosts dest=/etc/hosts"
    

    2.2 關閉防火牆及SELINUX

    # 關閉防火牆
    ansible k8s -m shell -a "systemctl stop firewalld &&  systemctl disable firewalld"
    # 關閉 selinux
    ansible k8s -m shell -a "setenforce  0  && sed -i "s/^SELINUX=enforcing/SELINUX=disabled/g" /etc/sysconfig/selinux && sed -i "s/^SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config "
    

    2.3 關閉 swap 分區

    ansible k8s -m shell -a "swapoff -a && sed -i 's/.*swap.*/#&/' /etc/fstab"
    

    2.4 安裝 docker及加速器

    vim ./install_docker.sh
    #!/bin/bash
    #
    yum install -y yum-utils device-mapper-persistent-data lvm2
    yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
    yum -y install docker-ce-19.03.11-19.03.11
    systemctl enable docker
    systemctl start docker
    docker version
    
    # 安裝加速器
    tee /etc/docker/daemon.json <<-'EOF'
    {
      "registry-mirrors": ["https://ajpb7tdn.mirror.aliyuncs.com"],
      "log-opts": {"max-size":"100m", "max-file":"5"}
    }
    EOF
    systemctl daemon-reload
    systemctl restart docker
    

    然後使用 ansible 批量執行

    ansible k8s -m script -a "./install_docker.sh"
    

    2.5 修改內核參數

    vim 99-k8s.conf
    #sysctls for k8s node config
    net.ipv4.ip_forward=1
    net.ipv4.tcp_slow_start_after_idle=0
    net.core.rmem_max=16777216
    fs.inotify.max_user_watches=524288
    kernel.softlockup_all_cpu_backtrace=1
    kernel.softlockup_panic=1
    fs.file-max=2097152
    fs.inotify.max_user_instances=8192
    fs.inotify.max_queued_events=16384
    vm.max_map_count=262144
    vm.swappiness=0
    vm.overcommit_memory=1
    vm.panic_on_oom=0
    fs.may_detach_mounts=1
    net.core.netdev_max_backlog=16384
    net.ipv4.tcp_wmem=4096 12582912 16777216
    net.core.wmem_max=16777216
    net.core.somaxconn=32768
    net.ipv4.ip_forward=1
    net.ipv4.tcp_max_syn_backlog=8096
    net.bridge.bridge-nf-call-iptables=1
    net.bridge.bridge-nf-call-ip6tables=1
    net.ipv4.tcp_rmem=4096 12582912 16777216
    

    拷貝至遠程

    ansible k8s -m copy -a "src=./99-k8s.conf dest=/etc/sysctl.d/"
    ansible k8s -m shell -a "cd /etc/sysctl.d/ && sysctl --system"
    

    2.6 創建對應的目錄

    master 用

    vim mkdir_k8s_master.sh
    #!/bin/bash
    mkdir /opt/etcd/{bin,data,cfg,ssl} -p
    mkdir /opt/kubernetes/{bin,cfg,ssl,logs}  -p
    mkdir /opt/kubernetes/logs/{kubelet,kube-proxy,kube-scheduler,kube-apiserver,kube-controller-manager} -p
    
    echo 'export PATH=$PATH:/opt/kubernetes/bin' >> /etc/profile
    echo 'export PATH=$PATH:/opt/etcd/bin' >> /etc/profile
    source /etc/profile
    

    node 用

    vim mkdir_k8s_node.sh
    #!/bin/bash
    mkdir /opt/kubernetes/{bin,cfg,ssl,logs}  -p
    mkdir /opt/kubernetes/logs/{kubelet,kube-proxy} -p
    
    echo 'export PATH=$PATH:/opt/kubernetes/bin' >> /etc/profile
    source /etc/profile
    

    調用 ansible 執行

    ansible masters -m script -a "./mkdir_k8s_master.sh"
    ansible nodes -m script -a "./mkdir_k8s_node.sh"
    

    2.7 準備 LB

    為三台master提供高可用,可以選用雲廠商的 slb,也可以用 兩台 nginx + keepalived 實現。

    此處,為實驗環境,用單台 nginx 坐四層代理實現

    # 安裝 nginx
    [root@centos7-nginx ~]# yum install -y nginx
    # 創建子配置文件
    [root@centos7-nginx ~]# cd /etc/nginx/conf.d/
    [root@centos7-nginx conf.d]# vim lb.tcp
    stream {
        upstream master {
            hash $remote_addr consistent;
            server 10.10.10.128:6443 max_fails=3 fail_timeout=30;
            server 10.10.10.129:6443 max_fails=3 fail_timeout=30;
            server 10.10.10.130:6443 max_fails=3 fail_timeout=30;
        }
    
        server {
            listen 6443;
            proxy_pass master;
        }
    }
    # 在主配置文件中引入該文件
    [root@centos7-nginx ~]# cd /etc/nginx/
    [root@centos7-nginx nginx]# vim nginx.conf
    ...
    include /etc/nginx/conf.d/*.tcp;
    ...
    # 加入開機自啟,並啟動 nginx
    [root@centos7-nginx nginx]# systemctl enable nginx
    Created symlink from /etc/systemd/system/multi-user.target.wants/nginx.service to /usr/lib/systemd/system/nginx.service.
    [root@centos7-nginx nginx]# systemctl start nginx
    

    3、部署

    3.1 生成證書

    執行腳本

    [root@centos7-nginx ~]# mkdir ssl && cd ssl
    [root@centos7-nginx ssl]# vim ./k8s-certificate.sh
    [root@centos7-nginx ssl]# ./k8s-certificate.sh 10.10.10.127,10.10.10.128,10.10.10.129,10.10.10.130,lb.5179.top,10.96.0.1
    

    IP 說明:

    • 10.10.10.127|lb.5179.top: nginx

    • 10.10.10.128|129|130: masters

    • 10.96.0.1: kubernetes(service 網段的第一個 IP)

    腳本內容如下

    #!/bin/bash
    # 二進制部署,生成 k8s 證書文件
    
    if [ $# -ne 1 ];then
        echo "please user in: `basename $0` MASTERS[10.10.10.127,10.10.10.128,10.10.10.129,10.10.10.130,lb.5179.top,10.96.0.1]"
        exit 1
    fi
    MASTERS=$1
    
    KUBERNETES_HOSTNAMES=kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.svc.cluster.local
    
    
    
    for i in `echo $MASTERS | tr ',' ' '`;do
       if [ -z $IPS ];then
            IPS=\"$i\",
       else
            IPS=$IPS\"$i\",
       fi
    done
    
    
    command_exists() {
        command -v "$@" > /dev/null 2>&1
    }
    
    if command_exists cfssl; then
        echo "命令已存在"
    else
        # 下載生成證書命令
        wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64
        wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64
        wget https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64
    
        # 添加執行權限
        chmod +x cfssl_linux-amd64 cfssljson_linux-amd64 cfssl-certinfo_linux-amd64
    
        # 移動到 /usr/local/bin 目錄下
        mv cfssl_linux-amd64 /usr/local/bin/cfssl
        mv cfssljson_linux-amd64 /usr/local/bin/cfssljson
        mv cfssl-certinfo_linux-amd64 /usr/bin/cfssl-certinfo
    fi
    
    
    # 默認簽 10 年
    cat > ca-config.json <<EOF
    {
      "signing": {
        "default": {
          "expiry": "87600h"
        },
        "profiles": {
          "kubernetes": {
             "expiry": "87600h",
             "usages": [
                "signing",
                "key encipherment",
                "server auth",
                "client auth"
            ]
          }
        }
      }
    }
    EOF
    
    cat > ca-csr.json <<EOF
    {
        "CN": "kubernetes",
        "key": {
            "algo": "rsa",
            "size": 2048
        },
        "names": [
            {
                "C": "CN",
                "L": "Beijing",
                "ST": "Beijing",
                "O": "k8s",
                "OU": "System"
            }
        ]
    }
    EOF
    
    cfssl gencert -initca ca-csr.json | cfssljson -bare ca -
    
    #-----------------------
    
    cat > server-csr.json <<EOF
    {
        "CN": "kubernetes",
        "hosts": [
          ${IPS}
          "127.0.0.1",
          "kubernetes",
          "kubernetes.default",
          "kubernetes.default.svc",
          "kubernetes.default.svc.cluster",
          "kubernetes.default.svc.cluster.local"
        ],
        "key": {
            "algo": "rsa",
            "size": 2048
        },
        "names": [
            {
                "C": "CN",
                "L": "BeiJing",
                "ST": "BeiJing",
                "O": "k8s",
                "OU": "System"
            }
        ]
    }
    EOF
    
    cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes server-csr.json | cfssljson -bare server
    
    # 或者
    
    #cat > server-csr.json <<EOF
    #{
    #    "CN": "kubernetes",
    #    "key": {
    #        "algo": "rsa",
    #        "size": 2048
    #    },
    #    "names": [
    #        {
    #            "C": "CN",
    #            "L": "BeiJing",
    #            "ST": "BeiJing",
    #            "O": "k8s",
    #            "OU": "System"
    #        }
    #    ]
    #}
    #EOF
    #
    #cfssl gencert \
    #  -ca=ca.pem \
    #  -ca-key=ca-key.pem \
    #  -config=ca-config.json \
    #  -hostname=${MASTERS},127.0.0.1,${KUBERNETES_HOSTNAMES} \
    #  -profile=kubernetes \
    #  server-csr.json | cfssljson -bare server
    
    
    
    
    #-----------------------
    
    cat > admin-csr.json <<EOF
    {
      "CN": "admin",
      "hosts": [],
      "key": {
        "algo": "rsa",
        "size": 2048
      },
      "names": [
        {
          "C": "CN",
          "L": "BeiJing",
          "ST": "BeiJing",
          "O": "system:masters",
          "OU": "System"
        }
      ]
    }
    EOF
    
    cfssl gencert \
      -ca=ca.pem \
      -ca-key=ca-key.pem \
      -config=ca-config.json \
      -profile=kubernetes \
      admin-csr.json | cfssljson -bare admin
    
    #-----------------------
    
    cat > kube-proxy-csr.json <<EOF
    {
      "CN": "system:kube-proxy",
      "hosts": [],
      "key": {
        "algo": "rsa",
        "size": 2048
      },
      "names": [
        {
          "C": "CN",
          "L": "BeiJing",
          "ST": "BeiJing",
          "O": "k8s",
          "OU": "System"
        }
      ]
    }
    EOF
    
    cfssl gencert \
      -ca=ca.pem \
      -ca-key=ca-key.pem \
      -config=ca-config.json \
      -profile=kubernetes \
      kube-proxy-csr.json | cfssljson -bare kube-proxy
    
    
    # 注意: "CN": "system:metrics-server" 一定是這個,因為後面授權時用到這個名稱,否則會報禁止匿名訪問
    cat > metrics-server-csr.json <<EOF
    {
      "CN": "system:metrics-server",
      "hosts": [],
      "key": {
        "algo": "rsa",
        "size": 2048
      },
      "names": [
        {
          "C": "CN",
          "ST": "BeiJing",
          "L": "BeiJing",
          "O": "k8s",
          "OU": "system"
        }
      ]
    }
    EOF
    
    cfssl gencert \
      -ca=ca.pem \
      -ca-key=ca-key.pem \
      -config=ca-config.json \
      -profile=kubernetes \
      metrics-server-csr.json | cfssljson -bare metrics-server
    
    
    for item in $(ls *.pem |grep -v key) ;do echo ======================$item===================;openssl x509 -in $item -text -noout| grep Not;done
    
    #[root@aliyun k8s]# for item in $(ls *.pem |grep -v key) ;do echo ======================$item===================;openssl x509 -in $item -text -noout| grep Not;done
    #======================admin.pem====================
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 16 14:32:00 2030 GMT
    #======================ca.pem=======================
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 17 14:32:00 2025 GMT
    #======================kube-proxy.pem===============
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 16 14:32:00 2030 GMT
    #======================metrics-server.pem===========
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 16 14:32:00 2030 GMT
    #======================server.pem===================
    #            Not Before: Jun 18 14:32:00 2020 GMT
    #            Not After : Jun 16 14:32:00 2030 GMT
    

    注意:cfssl產生的ca證書固定5年有效期

    https://github.com/cloudflare/cfssl/blob/793fa93522ffd9a66d743ce4fa0958b6662ac619/initca/initca.go#L224

    // CAPolicy contains the CA issuing policy as default policy.
    var CAPolicy = func() *config.Signing {
    	return &config.Signing{
    		Default: &config.SigningProfile{
    			Usage:        []string{"cert sign", "crl sign"},
    			ExpiryString: "43800h",
    			Expiry:       5 * helpers.OneYear,
    			CAConstraint: config.CAConstraint{IsCA: true},
    		},
    	}
    }
    

    可以通過修改源碼方式重新編譯更改 ca 過期時間,或者在ca-csr.json添加如下

    "ca": {
          "expiry": "438000h"   #---> 50年
        }
    

    3.2 拷貝證書

    3.2.1 拷貝 etcd 集群使用的證書

    [root@centos7-nginx ~]# cd ssl
    [root@centos7-nginx ssl]#
    [root@centos7-nginx ssl]# ansible masters -m copy -a "src=./ca.pem dest=/opt/etcd/ssl"
    [root@centos7-nginx ssl]# ansible masters -m copy -a "src=./server.pem dest=/opt/etcd/ssl"
    [root@centos7-nginx ssl]# ansible masters -m copy -a "src=./server-key.pem dest=/opt/etcd/ssl"
    

    3.2.2 拷貝 k8s 集群使用的證書

    [root@centos7-nginx ~]# cd ssl
    [root@centos7-nginx ssl]#
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.128:/opt/kubernetes/ssl/
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.129:/opt/kubernetes/ssl/
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.130:/opt/kubernetes/ssl/
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.131:/opt/kubernetes/ssl/
    [root@centos7-nginx ssl]# scp *.pem  root@10.10.10.132:/opt/kubernetes/ssl/
    

    3.3 安裝 ETCD 集群

    下載二進制etcd包,並把執行文件推到各 master節點的 /opt/etcd/bin/ 目錄下

    [root@centos7-nginx ~]# mkdir ./etcd && cd ./etcd
    [root@centos7-nginx etcd]# wget https://github.com/etcd-io/etcd/releases/download/v3.4.9/etcd-v3.4.9-linux-amd64.tar.gz
    [root@centos7-nginx etcd]# tar zxvf etcd-v3.3.12-linux-amd64.tar.gz
    [root@centos7-nginx etcd]# cd etcd-v3.4.9-linux-amd64
    [root@centos7-nginx etcd-v3.4.9-linux-amd64]# ll
    總用量 40540
    drwxr-xr-x. 14 630384594 600260513     4096 5月  22 03:54 Documentation
    -rwxr-xr-x.  1 630384594 600260513 23827424 5月  22 03:54 etcd
    -rwxr-xr-x.  1 630384594 600260513 17612384 5月  22 03:54 etcdctl
    -rw-r--r--.  1 630384594 600260513    43094 5月  22 03:54 README-etcdctl.md
    -rw-r--r--.  1 630384594 600260513     8431 5月  22 03:54 README.md
    -rw-r--r--.  1 630384594 600260513     7855 5月  22 03:54 READMEv2-etcdctl.md
    
    [root@centos7-nginx etcd-v3.4.9-linux-amd64]# ansible masters -m copy -a "src=./etcd dest=/opt/etcd/bin mode=755"
    [root@centos7-nginx etcd-v3.4.9-linux-amd64]# ansible masters -m copy -a "src=./etcdctl dest=/opt/etcd/bin mode=755"
    

    編寫 etcd 配置文件腳本

    #!/bin/bash
    # 使用說明
    #./etcd.sh etcd01 10.10.10.128 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    #./etcd.sh etcd02 10.10.10.129 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    #./etcd.sh etcd03 10.10.10.130 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    
    ETCD_NAME=${1:-"etcd01"}
    ETCD_IP=${2:-"127.0.0.1"}
    ETCD_CLUSTER=${3:-"etcd01=https://127.0.0.1:2379"}
    
    # ETCD 版本選擇[3.3,3.4]
    # 要用 3.3.14 以上版本:https://kubernetes.io/zh/docs/tasks/administer-cluster/configure-upgrade-etcd/#%E5%B7%B2%E7%9F%A5%E9%97%AE%E9%A2%98-%E5%85%B7%E6%9C%89%E5%AE%89%E5%85%A8%E7%AB%AF%E7%82%B9%E7%9A%84-etcd-%E5%AE%A2%E6%88%B7%E7%AB%AF%E5%9D%87%E8%A1%A1%E5%99%A8
    
    ETCD_VERSION=3.4.9
    
    if [ ${ETCD_VERSION%.*} == "3.4" ] ;then
    
    cat <<EOF >/opt/etcd/cfg/etcd.yml
    #etcd ${ETCD_VERSION}
    name: ${ETCD_NAME}
    data-dir: /opt/etcd/data
    listen-peer-urls: https://${ETCD_IP}:2380
    listen-client-urls: https://${ETCD_IP}:2379,https://127.0.0.1:2379
    
    advertise-client-urls: https://${ETCD_IP}:2379
    initial-advertise-peer-urls: https://${ETCD_IP}:2380
    initial-cluster: ${ETCD_CLUSTER}
    initial-cluster-token: etcd-cluster
    initial-cluster-state: new
    enable-v2: true
    
    client-transport-security:
      cert-file: /opt/etcd/ssl/server.pem
      key-file: /opt/etcd/ssl/server-key.pem
      client-cert-auth: false
      trusted-ca-file: /opt/etcd/ssl/ca.pem
      auto-tls: false
    
    peer-transport-security:
      cert-file: /opt/etcd/ssl/server.pem
      key-file: /opt/etcd/ssl/server-key.pem
      client-cert-auth: false
      trusted-ca-file: /opt/etcd/ssl/ca.pem
      auto-tls: false
    
    debug: false
    logger: zap
    log-outputs: [stderr]
    EOF
    
    else
    cat <<EOF >/opt/etcd/cfg/etcd.yml
    #etcd ${ETCD_VERSION}
    name: ${ETCD_NAME}
    data-dir: /opt/etcd/data
    listen-peer-urls: https://${ETCD_IP}:2380
    listen-client-urls: https://${ETCD_IP}:2379,https://127.0.0.1:2379
    
    advertise-client-urls: https://${ETCD_IP}:2379
    initial-advertise-peer-urls: https://${ETCD_IP}:2380
    initial-cluster: ${ETCD_CLUSTER}
    initial-cluster-token: etcd-cluster
    initial-cluster-state: new
    
    client-transport-security:
      cert-file: /opt/etcd/ssl/server.pem
      key-file: /opt/etcd/ssl/server-key.pem
      client-cert-auth: false
      trusted-ca-file: /opt/etcd/ssl/ca.pem
      auto-tls: false
    
    peer-transport-security:
      cert-file: /opt/etcd/ssl/server.pem
      key-file: /opt/etcd/ssl/server-key.pem
      peer-client-cert-auth: false
      trusted-ca-file: /opt/etcd/ssl/ca.pem
      auto-tls: false
    
    debug: false
    log-package-levels: etcdmain=CRITICAL,etcdserver=DEBUG
    log-outputs: default
    EOF
    
    fi
    
    cat <<EOF >/usr/lib/systemd/system/etcd.service
    [Unit]
    Description=Etcd Server
    Documentation=https://github.com/etcd-io/etcd
    Conflicts=etcd.service
    After=network.target
    After=network-online.target
    Wants=network-online.target
    
    [Service]
    Type=notify
    LimitNOFILE=65536
    Restart=on-failure
    RestartSec=5s
    TimeoutStartSec=0
    ExecStart=/opt/etcd/bin/etcd --config-file=/opt/etcd/cfg/etcd.yml
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable etcd
    systemctl restart etcd
    

    推送到 masters 機器上

    ansible masters -m copy -a "src=./etcd.sh dest=/opt/etcd/bin mode=755"
    

    分別登陸到三台機器上執行腳本文件

    [root@centos7-a bin]# ./etcd.sh etcd01 10.10.10.128 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    [root@centos7-b bin]# ./etcd.sh etcd02 10.10.10.129 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    [root@centos7-c bin]# ./etcd.sh etcd03 10.10.10.130 etcd01=https://10.10.10.128:2380,etcd02=https://10.10.10.129:2380,etcd03=https://10.10.10.130:2380
    

    驗證集群是否是健康的

    ### 3.4.9
    [root@centos7-a ~]# ETCDCTL_API=3 etcdctl --write-out="table" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints=https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379 endpoint health
    +---------------------------+--------+-------------+-------+
    |         ENDPOINT          | HEALTH |    TOOK     | ERROR |
    +---------------------------+--------+-------------+-------+
    | https://10.10.10.128:2379 |   true | 31.126223ms |       |
    | https://10.10.10.129:2379 |   true | 28.698669ms |       |
    | https://10.10.10.130:2379 |   true | 32.508681ms |       |
    +---------------------------+--------+-------------+-------+
    

    查看集群成員

    [root@centos7-a ~]# ETCDCTL_API=3 etcdctl --write-out="table" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints=https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379 member list
    +------------------+---------+--------+---------------------------+---------------------------+------------+
    |        ID        | STATUS  |  NAME  |        PEER ADDRS         |       CLIENT ADDRS        | IS LEARNER |
    +------------------+---------+--------+---------------------------+---------------------------+------------+
    | 2cec243d35ad0881 | started | etcd02 | https://10.10.10.129:2380 | https://10.10.10.129:2379 |      false |
    | c6e694d272df93e8 | started | etcd03 | https://10.10.10.130:2380 | https://10.10.10.130:2379 |      false |
    | e9b57a5a8276394a | started | etcd01 | https://10.10.10.128:2380 | https://10.10.10.128:2379 |      false |
    +------------------+---------+--------+---------------------------+---------------------------+------------+
    

    etcdctl創建別名,三台機器分別執行

    vim .bashrc
    alias etcdctl2="ETCDCTL_API=2 etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints=https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379"
    alias etcdctl3="ETCDCTL_API=3 etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints=https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379"
    
    source .bashrc
    

    3.3 安裝 k8s 相關組件

    3.3.1 下載二進制安裝包

    [root@centos7-nginx ~]# mkdir k8s-1.18.3 && cd k8s-1.18.3/
    [root@centos7-nginx k8s-1.18.3]# wget https://dl.k8s.io/v1.18.3/kubernetes-server-linux-amd64.tar.gz
    [root@centos7-nginx k8s-1.18.3]# tar xf kubernetes-server-linux-amd64.tar.gz
    [root@centos7-nginx k8s-1.18.3]# cd kubernetes
    [root@centos7-nginx kubernetes]# ll
    總用量 33092
    drwxr-xr-x. 2 root root        6 5月  20 21:32 addons
    -rw-r--r--. 1 root root 32587733 5月  20 21:32 kubernetes-src.tar.gz
    -rw-r--r--. 1 root root  1297746 5月  20 21:32 LICENSES
    drwxr-xr-x. 3 root root       17 5月  20 21:27 server
    [root@centos7-nginx kubernetes]# cd server/bin/
    [root@centos7-nginx bin]# ll
    總用量 1087376
    -rwxr-xr-x. 1 root root  48128000 5月  20 21:32 apiextensions-apiserver
    -rwxr-xr-x. 1 root root  39813120 5月  20 21:32 kubeadm
    -rwxr-xr-x. 1 root root 120668160 5月  20 21:32 kube-apiserver
    -rw-r--r--. 1 root root         8 5月  20 21:27 kube-apiserver.docker_tag
    -rw-------. 1 root root 174558720 5月  20 21:27 kube-apiserver.tar
    -rwxr-xr-x. 1 root root 110059520 5月  20 21:32 kube-controller-manager
    -rw-r--r--. 1 root root         8 5月  20 21:27 kube-controller-manager.docker_tag
    -rw-------. 1 root root 163950080 5月  20 21:27 kube-controller-manager.tar
    -rwxr-xr-x. 1 root root  44032000 5月  20 21:32 kubectl
    -rwxr-xr-x. 1 root root 113283800 5月  20 21:32 kubelet
    -rwxr-xr-x. 1 root root  38379520 5月  20 21:32 kube-proxy
    -rw-r--r--. 1 root root         8 5月  20 21:28 kube-proxy.docker_tag
    -rw-------. 1 root root 119099392 5月  20 21:28 kube-proxy.tar
    -rwxr-xr-x. 1 root root  42950656 5月  20 21:32 kube-scheduler
    -rw-r--r--. 1 root root         8 5月  20 21:27 kube-scheduler.docker_tag
    -rw-------. 1 root root  96841216 5月  20 21:27 kube-scheduler.tar
    -rwxr-xr-x. 1 root root   1687552 5月  20 21:32 mounter
    

    將對應文件拷貝到目標機器上

    # masters
    [root@centos7-nginx bin]# scp kube-apiserver kube-controller-manager kube-scheduler kubectl kubelet kube-proxy root@10.10.10.128:/opt/kubernetes/bin/
    [root@centos7-nginx bin]# scp kube-apiserver kube-controller-manager kube-scheduler kubectl kubelet kube-proxy root@10.10.10.129:/opt/kubernetes/bin/
    [root@centos7-nginx bin]# scp kube-apiserver kube-controller-manager kube-scheduler kubectl kubelet kube-proxy root@10.10.10.130:/opt/kubernetes/bin/
    
    # nodes
    [root@centos7-nginx bin]# scp kubelet kube-proxy root@10.10.10.131:/opt/kubernetes/bin/
    [root@centos7-nginx bin]# scp kubelet kube-proxy root@10.10.10.131:/opt/kubernetes/bin/
    
    # 本機
    [root@centos7-nginx bin]# cp kubectl /usr/local/bin/
    

    3.3.2 創建Node節點kubeconfig文件

    • 創建TLS Bootstrapping Token
    • 創建kubelet kubeconfig
    • 創建kube-proxy kubeconfig
    • 創建admin kubeconfig
    [root@centos7-nginx ~]# cd ~/ssl/
    [root@centos7-nginx ssl]# vim kubeconfig.sh # 修改第10行 KUBE_APISERVER 地址
    [root@centos7-nginx ssl]# bash ./kubeconfig.sh
    Cluster "kubernetes" set.
    User "kubelet-bootstrap" set.
    Context "default" created.
    Switched to context "default".
    Cluster "kubernetes" set.
    User "kube-proxy" set.
    Context "default" created.
    Switched to context "default".
    Cluster "kubernetes" set.
    User "admin" set.
    Context "default" created.
    Switched to context "default".
    

    腳本內容如下:

    # 創建 TLS Bootstrapping Token
    export BOOTSTRAP_TOKEN=$(head -c 16 /dev/urandom | od -An -t x | tr -d ' ')
    cat > token.csv <<EOF
    ${BOOTSTRAP_TOKEN},kubelet-bootstrap,10001,"system:kubelet-bootstrap"
    EOF
    
    #----------------------
    
    # 創建kubelet bootstrapping kubeconfig
    export KUBE_APISERVER="https://lb.5179.top:6443"
    
    # 設置集群參數
    kubectl config set-cluster kubernetes \
      --certificate-authority=./ca.pem \
      --embed-certs=true \
      --server=${KUBE_APISERVER} \
      --kubeconfig=bootstrap.kubeconfig
    
    # 設置客戶端認證參數
    kubectl config set-credentials kubelet-bootstrap \
      --token=${BOOTSTRAP_TOKEN} \
      --kubeconfig=bootstrap.kubeconfig
    
    # 設置上下文參數
    kubectl config set-context default \
      --cluster=kubernetes \
      --user=kubelet-bootstrap \
      --kubeconfig=bootstrap.kubeconfig
    
    # 設置默認上下文
    kubectl config use-context default --kubeconfig=bootstrap.kubeconfig
    
    #----------------------
    
    # 創建kube-proxy kubeconfig文件
    
    kubectl config set-cluster kubernetes \
      --certificate-authority=./ca.pem \
      --embed-certs=true \
      --server=${KUBE_APISERVER} \
      --kubeconfig=kube-proxy.kubeconfig
    
    kubectl config set-credentials kube-proxy \
      --client-certificate=./kube-proxy.pem \
      --client-key=./kube-proxy-key.pem \
      --embed-certs=true \
      --kubeconfig=kube-proxy.kubeconfig
    
    kubectl config set-context default \
      --cluster=kubernetes \
      --user=kube-proxy \
      --kubeconfig=kube-proxy.kubeconfig
    
    kubectl config use-context default --kubeconfig=kube-proxy.kubeconfig
    
    #----------------------
    
    # 創建 admin kubeconfig文件
    
      kubectl config set-cluster kubernetes \
        --certificate-authority=./ca.pem \
        --embed-certs=true \
        --server=${KUBE_APISERVER} \
        --kubeconfig=admin.kubeconfig
    
      kubectl config set-credentials admin \
        --client-certificate=./admin.pem \
        --client-key=./admin-key.pem \
        --embed-certs=true \
        --kubeconfig=admin.kubeconfig
    
      kubectl config set-context default \
        --cluster=kubernetes \
        --user=admin \
        --kubeconfig=admin.kubeconfig
    
      kubectl config use-context default --kubeconfig=admin.kubeconfig
    
    

    將文件拷貝至對應位置

    ansible k8s -m copy -a "src=./bootstrap.kubeconfig dest=/opt/kubernetes/cfg"
    ansible k8s -m copy -a "src=./kube-proxy.kubeconfig dest=/opt/kubernetes/cfg"
    ansible k8s -m copy -a "src=./token.csv dest=/opt/kubernetes/cfg"
    

    3.4 安裝 kube-apiserver

    Masters 節點安裝

    此處可以使用 tmux 打開三個終端窗口進行,并行輸入

    也可以在三台機器上分開執行

    [root@centos7-a ~]# mkdir k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-apiserver.sh
    [root@centos7-a k8s-scripts]# IP=`ip addr | grep ens33 | grep inet | awk '{ print $2; }' | sed 's/\/.*$//'|head -1` && echo $IP
    10.10.10.128
    [root@centos7-a k8s-scripts]# bash install-apiserver.sh $IP https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379
    

    腳本內容如下:

    #!/bin/bash
    # MASTER_ADDRESS 寫本機
    MASTER_ADDRESS=${1:-"10.10.10.128"}
    ETCD_SERVERS=${2:-"http://127.0.0.1:2379"}
    
    cat <<EOF >/opt/kubernetes/cfg/kube-apiserver
    KUBE_APISERVER_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kube-apiserver \\
    --etcd-servers=${ETCD_SERVERS} \\
    --bind-address=0.0.0.0 \\
    --secure-port=6443 \\
    --advertise-address=${MASTER_ADDRESS} \\
    --allow-privileged=true \\
    --service-cluster-ip-range=10.96.0.0/12 \\
    --enable-admission-plugins=NamespaceLifecycle,LimitRanger,ServiceAccount,DefaultStorageClass,DefaultTolerationSeconds,MutatingAdmissionWebhook,ValidatingAdmissionWebhook,ResourceQuota,NodeRestriction \\
    --authorization-mode=RBAC,Node \\
    --kubelet-https=true \\
    --enable-bootstrap-token-auth=true \\
    --token-auth-file=/opt/kubernetes/cfg/token.csv \\
    --service-node-port-range=30000-50000 \\
    --kubelet-client-certificate=/opt/kubernetes/ssl/server.pem \\
    --kubelet-client-key=/opt/kubernetes/ssl/server-key.pem \\
    --tls-cert-file=/opt/kubernetes/ssl/server.pem  \\
    --tls-private-key-file=/opt/kubernetes/ssl/server-key.pem \\
    --client-ca-file=/opt/kubernetes/ssl/ca.pem \\
    --service-account-key-file=/opt/kubernetes/ssl/ca-key.pem \\
    --etcd-cafile=/opt/kubernetes/ssl/ca.pem \\
    --etcd-certfile=/opt/kubernetes/ssl/server.pem \\
    --etcd-keyfile=/opt/kubernetes/ssl/server-key.pem \\
    --requestheader-client-ca-file=/opt/kubernetes/ssl/ca.pem \\
    --requestheader-extra-headers-prefix=X-Remote-Extra- \\
    --requestheader-group-headers=X-Remote-Group \\
    --requestheader-username-headers=X-Remote-User \\
    --proxy-client-cert-file=/opt/kubernetes/ssl/metrics-server.pem \\
    --proxy-client-key-file=/opt/kubernetes/ssl/metrics-server-key.pem \\
    --runtime-config=api/all=true \\
    --audit-log-maxage=30 \\
    --audit-log-maxbackup=3 \\
    --audit-log-maxsize=100 \\
    --audit-log-truncate-enabled=true \\
    --audit-log-path=/opt/kubernetes/logs/k8s-audit.log"
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kube-apiserver.service
    [Unit]
    Description=Kubernetes API Server
    Documentation=https://github.com/kubernetes/kubernetes
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kube-apiserver
    ExecStart=/opt/kubernetes/bin/kube-apiserver \$KUBE_APISERVER_OPTS
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kube-apiserver
    systemctl restart kube-apiserver
    

    3.5 安裝 kube-scheduler

    Masters 節點安裝

    此處可以使用 tmux 打開三個終端窗口進行,并行輸入,也可以在三台機器上分開執行

    [root@centos7-a ~]# cd k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-scheduler.sh
    [root@centos7-a k8s-scripts]# bash install-scheduler.sh 127.0.0.1
    

    腳本內容如下

    #!/bin/bash
    
    MASTER_ADDRESS=${1:-"127.0.0.1"}
    
    cat <<EOF >/opt/kubernetes/cfg/kube-scheduler
    KUBE_SCHEDULER_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kube-scheduler \\
    --master=${MASTER_ADDRESS}:8080 \\
    --address=0.0.0.0 \\
    --leader-elect"
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kube-scheduler.service
    [Unit]
    Description=Kubernetes Scheduler
    Documentation=https://github.com/kubernetes/kubernetes
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kube-scheduler
    ExecStart=/opt/kubernetes/bin/kube-scheduler \$KUBE_SCHEDULER_OPTS
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kube-scheduler
    systemctl restart kube-scheduler
    

    3.6 安裝 kube-controller-manager

    Masters 節點安裝

    此處可以使用 tmux 打開三個終端窗口進行,并行輸入,也可以在三台機器上分開執行

    [root@centos7-a ~]# cd k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-controller-manager.sh
    [root@centos7-a k8s-scripts]# bash install-controller-manager.sh 127.0.0.1
    

    腳本內容如下

    #!/bin/bash
    
    MASTER_ADDRESS=${1:-"127.0.0.1"}
    
    cat <<EOF >/opt/kubernetes/cfg/kube-controller-manager
    KUBE_CONTROLLER_MANAGER_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kube-controller-manager \\
    --master=${MASTER_ADDRESS}:8080 \\
    --leader-elect=true \\
    --bind-address=0.0.0.0 \\
    --service-cluster-ip-range=10.96.0.0/12 \\
    --cluster-name=kubernetes \\
    --cluster-signing-cert-file=/opt/kubernetes/ssl/ca.pem \\
    --cluster-signing-key-file=/opt/kubernetes/ssl/ca-key.pem  \\
    --service-account-private-key-file=/opt/kubernetes/ssl/ca-key.pem \\
    --experimental-cluster-signing-duration=87600h0m0s \\
    --feature-gates=RotateKubeletServerCertificate=true \\
    --feature-gates=RotateKubeletClientCertificate=true \\
    --allocate-node-cidrs=true \\
    --cluster-cidr=10.244.0.0/16 \\
    --root-ca-file=/opt/kubernetes/ssl/ca.pem"
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kube-controller-manager.service
    [Unit]
    Description=Kubernetes Controller Manager
    Documentation=https://github.com/kubernetes/kubernetes
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kube-controller-manager
    ExecStart=/opt/kubernetes/bin/kube-controller-manager \$KUBE_CONTROLLER_MANAGER_OPTS
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kube-controller-manager
    systemctl restart kube-controller-manager
    

    3.7 查看組件狀態

    在三台機器上任意一台執行kubectl get cs

    [root@centos7-a k8s-scripts]# kubectl get cs
    NAME                 STATUS    MESSAGE             ERROR
    etcd-1               Healthy   {"health":"true"}
    etcd-2               Healthy   {"health":"true"}
    etcd-0               Healthy   {"health":"true"}
    controller-manager   Healthy   ok
    scheduler            Healthy   ok
    

    3.8 配置kubelet證書自動申請 CSR、審核及自動續期

    3.8.1 節點自動創建 CSR 請求

    節點 kubelet 啟動時自動創建 CSR 請求,將kubelet-bootstrap用戶綁定到系統集群角色 ,這個是為了頒發證書用的權限

    # Bind kubelet-bootstrap user to system cluster roles.
    kubectl create clusterrolebinding kubelet-bootstrap \
      --clusterrole=system:node-bootstrapper \
      --user=kubelet-bootstrap
    
    

    3.8.2 證書審批及自動續期

    1)手動審批腳本(啟動 node 節點 kubelet 之後操作)

    vim k8s-csr-approve.sh
    #!/bin/bash
    CSRS=$(kubectl get csr | awk '{if(NR>1) print $1}')
    for csr in $CSRS; do
    	kubectl certificate approve $csr;
    done
    
    1. 自動審批及續期

    創建自動批准相關 CSR 請求的 ClusterRole

    [root@centos7-a ~]# mkdir yaml
    [root@centos7-a ~]# cd yaml/
    [root@centos7-a yaml]# vim tls-instructs-csr.yaml
    kind: ClusterRole
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: system:certificates.k8s.io:certificatesigningrequests:selfnodeserver
    rules:
    - apiGroups: ["certificates.k8s.io"]
      resources: ["certificatesigningrequests/selfnodeserver"]
      verbs: ["create"]
    
    [root@centos7-a yaml]# kubectl apply -f tls-instructs-csr.yaml
    

    自動批准 kubelet-bootstrap 用戶 TLS bootstrapping 首次申請證書的 CSR 請求

    kubectl create clusterrolebinding node-client-auto-approve-csr --clusterrole=system:certificates.k8s.io:certificatesigningrequests:nodeclient --user=kubelet-bootstrap
    

    自動批准 system:nodes 組用戶更新 kubelet 自身與 apiserver 通訊證書的 CSR 請求

    kubectl create clusterrolebinding node-client-auto-renew-crt --clusterrole=system:certificates.k8s.io:certificatesigningrequests:selfnodeclient --group=system:nodes
    

    自動批准 system:nodes 組用戶更新 kubelet 10250 api 端口證書的 CSR 請求

    kubectl create clusterrolebinding node-server-auto-renew-crt --clusterrole=system:certificates.k8s.io:certificatesigningrequests:selfnodeserver --group=system:nodes
    

    自動獲簽后的狀態如下:

    [root@centos7-a kubelet]# kubectl get csr
    NAME        AGE     SIGNERNAME                                    REQUESTOR           CONDITION
    csr-44lt8   4m10s   kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    csr-45njg   0s      kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    csr-nsbc9   4m9s    kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    csr-vk64f   4m9s    kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    csr-wftvq   59s     kubernetes.io/kube-apiserver-client-kubelet   kubelet-bootstrap   Approved,Issued
    

    3.9 安裝 kube-proxy

    拷貝對應包至所有節點

    [root@centos7-nginx ~]# cd k8s-1.18.3/kubernetes/server/bin/
    [root@centos7-nginx bin]# ansible k8s -m copy -a "src=./kube-proxy dest=/opt/kubernetes/bin mode=755"
    

    此處可以使用 tmux 打開五個終端窗口進行,并行輸入,也可以在五台機器上分開執行

    [root@centos7-a ~]# cd k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-proxy.sh
    [root@centos7-a k8s-scripts]# bash install-proxy.sh ${HOSTNAME}
    

    腳本內容如下

    #!/bin/bash
    
    HOSTNAME=${1:-"`hostname`"}
    
    cat <<EOF >/opt/kubernetes/cfg/kube-proxy.conf
    KUBE_PROXY_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kube-proxy \\
    --config=/opt/kubernetes/cfg/kube-proxy-config.yml"
    EOF
    
    cat <<EOF >/opt/kubernetes/cfg/kube-proxy-config.yml
    kind: KubeProxyConfiguration
    apiVersion: kubeproxy.config.k8s.io/v1alpha1
    address: 0.0.0.0 # 監聽地址
    metricsBindAddress: 0.0.0.0:10249 # 監控指標地址,監控獲取相關信息 就從這裏獲取
    clientConnection:
      kubeconfig: /opt/kubernetes/cfg/kube-proxy.kubeconfig # 讀取配置文件
    hostnameOverride: ${HOSTNAME} # 註冊到k8s的節點名稱唯一
    clusterCIDR: 10.244.0.0/16
    mode: iptables # 使用iptables模式
    
    # 使用 ipvs 模式
    #mode: ipvs # ipvs 模式
    #ipvs:
    #  scheduler: "rr"
    #iptables:
    #  masqueradeAll: true
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kube-proxy.service
    [Unit]
    Description=Kubernetes Proxy
    After=network.target
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kube-proxy.conf
    ExecStart=/opt/kubernetes/bin/kube-proxy \$KUBE_PROXY_OPTS
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kube-proxy
    systemctl restart kube-proxy
    

    3.10 安裝 kubelet

    拷貝對應包至所有節點

    [root@centos7-nginx ~]# cd k8s-1.18.3/kubernetes/server/bin/
    [root@centos7-nginx bin]# ansible k8s -m copy -a "src=./kubelet dest=/opt/kubernetes/bin mode=755"
    

    此處可以使用 tmux 打開五個終端窗口進行,并行輸入,也可以在五台機器上分開執行

    [root@centos7-a ~]# cd k8s-scripts
    [root@centos7-a k8s-scripts]# vim install-kubelet.sh
    [root@centos7-a k8s-scripts]# bash install-kubelet.sh 10.96.0.10 ${HOSTNAME} cluster.local
    

    腳本內容如下

    #!/bin/bash
    
    DNS_SERVER_IP=${1:-"10.96.0.10"}
    HOSTNAME=${2:-"`hostname`"}
    CLUETERDOMAIN=${3:-"cluster.local"}
    
    cat <<EOF >/opt/kubernetes/cfg/kubelet.conf
    KUBELET_OPTS="--logtostderr=false \\
    --v=2 \\
    --log-dir=/opt/kubernetes/logs/kubelet \\
    --hostname-override=${HOSTNAME} \\
    --kubeconfig=/opt/kubernetes/cfg/kubelet.kubeconfig \\
    --bootstrap-kubeconfig=/opt/kubernetes/cfg/bootstrap.kubeconfig \\
    --config=/opt/kubernetes/cfg/kubelet-config.yml \\
    --cert-dir=/opt/kubernetes/ssl \\
    --network-plugin=cni \\
    --cni-conf-dir=/etc/cni/net.d \\
    --cni-bin-dir=/opt/cni/bin \\
    --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google-containers/pause-amd64:3.0 \\
    --system-reserved=memory=300Mi \\
    --kube-reserved=memory=400Mi"
    EOF
    
    cat <<EOF >/opt/kubernetes/cfg/kubelet-config.yml
    kind: KubeletConfiguration # 使用對象
    apiVersion: kubelet.config.k8s.io/v1beta1 # api版本
    address: 0.0.0.0 # 監聽地址
    port: 10250 # 當前kubelet的端口
    readOnlyPort: 10255 # kubelet暴露的端口
    cgroupDriver: cgroupfs # 驅動,要與docker info显示的驅動一致
    clusterDNS:
      - ${DNS_SERVER_IP}
    clusterDomain: ${CLUETERDOMAIN}  # 集群域
    failSwapOn: false # 關閉swap
    
    # 身份驗證
    authentication:
      anonymous:
        enabled: false
      webhook:
        cacheTTL: 2m0s
        enabled: true
      x509:
        clientCAFile: /opt/kubernetes/ssl/ca.pem
    
    # 授權
    authorization:
      mode: Webhook
      webhook:
        cacheAuthorizedTTL: 5m0s
        cacheUnauthorizedTTL: 30s
    
    # Node 資源保留
    evictionHard:
      imagefs.available: 15%
      memory.available: 300Mi
      nodefs.available: 10%
      nodefs.inodesFree: 5%
    evictionPressureTransitionPeriod: 5m0s
    
    # 鏡像刪除策略
    imageGCHighThresholdPercent: 85
    imageGCLowThresholdPercent: 80
    imageMinimumGCAge: 2m0s
    
    # 旋轉證書
    rotateCertificates: true # 旋轉kubelet client 證書
    featureGates:
      RotateKubeletServerCertificate: true
      RotateKubeletClientCertificate: true
    
    maxOpenFiles: 1000000
    maxPods: 110
    EOF
    
    cat <<EOF >/usr/lib/systemd/system/kubelet.service
    [Unit]
    Description=Kubernetes Kubelet
    After=docker.service
    Requires=docker.service
    
    [Service]
    EnvironmentFile=-/opt/kubernetes/cfg/kubelet.conf
    ExecStart=/opt/kubernetes/bin/kubelet \$KUBELET_OPTS
    Restart=on-failure
    KillMode=process
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable kubelet
    systemctl restart kubelet
    

    3.11 查看節點個數

    等待一段時間后出現

    [root@centos7-a ~]# kubectl get nodes
    NAME        STATUS   ROLES    AGE     VERSION
    centos7-a   NotReady    <none>   7m   v1.18.3
    centos7-b   NotReady    <none>   6m   v1.18.3
    centos7-c   NotReady    <none>   6m   v1.18.3
    centos7-d   NotReady    <none>   6m   v1.18.3
    centos7-e   NotReady    <none>   5m   v1.18.3
    

    3.12 安裝網絡插件

    3.12.1 安裝 flannel

    [root@centos7-nginx ~]# mkdir flannel
    [root@centos7-nginx flannel]# wget https://github.com/coreos/flannel/releases/download/v0.12.0/flannel-v0.12.0-linux-amd64.tar.gz
    [root@centos7-nginx flannel]# tar xf flannel-v0.12.0-linux-amd64.tar.gz
    [root@centos7-nginx flannel]# ll
    總用量 43792
    -rwxr-xr-x. 1 lyj  lyj  35253112 3月  13 08:01 flanneld
    -rw-r--r--. 1 root root  9565406 6月  16 19:41 flannel-v0.12.0-linux-amd64.tar.gz
    -rwxr-xr-x. 1 lyj  lyj      2139 5月  29 2019 mk-docker-opts.sh
    -rw-r--r--. 1 lyj  lyj      4300 5月  29 2019 README.md
    [root@centos7-nginx flannel]# vim remove-docker0.sh
    #!/bin/bash
    
    # Copyright 2014 The Kubernetes Authors All rights reserved.
    #
    # Licensed under the Apache License, Version 2.0 (the "License");
    # you may not use this file except in compliance with the License.
    # You may obtain a copy of the License at
    #
    #     http://www.apache.org/licenses/LICENSE-2.0
    #
    # Unless required by applicable law or agreed to in writing, software
    # distributed under the License is distributed on an "AS IS" BASIS,
    # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
    # See the License for the specific language governing permissions and
    # limitations under the License.
    
    # Delete default docker bridge, so that docker can start with flannel network.
    
    # exit on any error
    set -e
    
    rc=0
    ip link show docker0 >/dev/null 2>&1 || rc="$?"
    if [[ "$rc" -eq "0" ]]; then
      ip link set dev docker0 down
      ip link delete docker0
    fi
    

    將包拷貝至所有主機對應位置

    [root@centos7-nginx flannel]# ansible k8s -m copy -a "src=./flanneld dest=/opt/kubernetes/bin mode=755"
    [root@centos7-nginx flannel]# ansible k8s -m copy -a "src=./mk-docker-opts.sh dest=/opt/kubernetes/bin mode=755"
    [root@centos7-nginx flannel]# ansible k8s -m copy -a "src=./remove-docker0.sh dest=/opt/kubernetes/bin mode=755"
    

    準備啟動腳本

    [root@centos7-nginx scripts]# vim install-flannel.sh
    [root@centos7-nginx scripts]# bash install-flannel.sh 
    [root@centos7-nginx scripts]# ansible k8s -m script -a "./install-flannel.sh https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379"
    

    腳本內容如下:

    #!/bin/bash
    ETCD_ENDPOINTS=${1:-'https://127.0.0.1:2379'}
    
    cat >/opt/kubernetes/cfg/flanneld <<EOF
    FLANNEL_OPTIONS="--etcd-endpoints=${ETCD_ENDPOINTS} \
    -etcd-cafile=/opt/kubernetes/ssl/ca.pem \
    -etcd-certfile=/opt/kubernetes/ssl/server.pem \
    -etcd-keyfile=/opt/kubernetes/ssl/server-key.pem"
    EOF
    
    cat >/usr/lib/systemd/system/flanneld.service <<EOF
    [Unit]
    Description=Flanneld Overlay address etcd agent
    After=network-online.target network.target
    Before=docker.service
    
    [Service]
    Type=notify
    EnvironmentFile=/opt/kubernetes/cfg/flanneld
    #ExecStartPre=/opt/kubernetes/bin/remove-docker0.sh
    ExecStart=/opt/kubernetes/bin/flanneld --ip-masq \$FLANNEL_OPTIONS
    #ExecStartPost=/opt/kubernetes/bin/mk-docker-opts.sh -k DOCKER_NETWORK_OPTIONS -d /run/flannel/subnet.env
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    systemctl daemon-reload
    systemctl enable flanneld
    systemctl restart flanneld
    

    將 pod 網段信息寫入 etcd 中

    登陸到任意一台 master 節點上

    [root@centos7-a ~]# cd k8s-scripts/
    [root@centos7-a k8s-scripts]# vim install-flannel-to-etcd.sh
    [root@centos7-a k8s-scripts]# bash install-flannel-to-etcd.sh https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379 10.244.0.0/16 vxlan
    

    腳本內容如下

    #!/bin/bash
    # bash install-flannel-to-etcd.sh https://10.10.10.128:2379,https://10.10.10.129:2379,https://10.10.10.130:2379 10.244.0.0/16 vxlan
    
    ETCD_ENDPOINTS=${1:-'https://127.0.0.1:2379'}
    NETWORK=${2:-'10.244.0.0/16'}
    NETWORK_MODE=${3:-'vxlan'}
    
    ETCDCTL_API=2 etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints=${ETCD_ENDPOINTS} set /coreos.com/network/config   '{"Network": '\"$NETWORK\"', "Backend": {"Type": '\"${NETWORK_MODE}\"'}}'
    
    #ETCDCTL_API=3 etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints=${ETCD_ENDPOINTS} put /coreos.com/network/config -- '{"Network": "10.244.0.0/16", "Backend": {"Type": "vxlan"}}'
    

    由於flannel 使用的是v2版本的 etcd,所以此處 etcdctl 使用 v2 的 API

    3.12.2 安裝 cni-plugin

    下載 cni 插件

    [root@centos7-nginx ~]# mkdir cni
    [root@centos7-nginx ~]# cd cni
    [root@centos7-nginx cni]# wget https://github.com/containernetworking/plugins/releases/download/v0.8.6/cni-plugins-linux-amd64-v0.8.6.tgz
    [root@centos7-nginx cni]# tar xf cni-plugins-linux-amd64-v0.8.6.tgz
    [root@centos7-nginx cni]# ll
    總用量 106512
    -rwxr-xr-x. 1 root root  4159518 5月  14 03:50 bandwidth
    -rwxr-xr-x. 1 root root  4671647 5月  14 03:50 bridge
    -rw-r--r--. 1 root root 36878412 6月  17 20:07 cni-plugins-linux-amd64-v0.8.6.tgz
    -rwxr-xr-x. 1 root root 12124326 5月  14 03:50 dhcp
    -rwxr-xr-x. 1 root root  5945760 5月  14 03:50 firewall
    -rwxr-xr-x. 1 root root  3069556 5月  14 03:50 flannel
    -rwxr-xr-x. 1 root root  4174394 5月  14 03:50 host-device
    -rwxr-xr-x. 1 root root  3614480 5月  14 03:50 host-local
    -rwxr-xr-x. 1 root root  4314598 5月  14 03:50 ipvlan
    -rwxr-xr-x. 1 root root  3209463 5月  14 03:50 loopback
    -rwxr-xr-x. 1 root root  4389622 5月  14 03:50 macvlan
    -rwxr-xr-x. 1 root root  3939867 5月  14 03:50 portmap
    -rwxr-xr-x. 1 root root  4590277 5月  14 03:50 ptp
    -rwxr-xr-x. 1 root root  3392826 5月  14 03:50 sbr
    -rwxr-xr-x. 1 root root  2885430 5月  14 03:50 static
    -rwxr-xr-x. 1 root root  3356587 5月  14 03:50 tuning
    -rwxr-xr-x. 1 root root  4314446 5月  14 03:50 vlan
    [root@centos7-nginx cni]# cd ..
    [root@centos7-nginx ~]# ansible k8s -m copy -a "src=./cni/ dest=/opt/cni/bin mode=755"
    

    創建 cni 配置文件

    [root@centos7-nginx scripts]# vim install-cni.sh
    [root@centos7-nginx scripts]# ansible k8s -m script -a "./install-cni.sh"
    

    腳本內容如下:

    #!/bin/bash
    mkdir /etc/cni/net.d/ -pv
    cat <<EOF > /etc/cni/net.d/10-flannel.conflist
    {
      "name": "cbr0",
      "cniVersion": "0.3.1",
      "plugins": [
        {
          "type": "flannel",
          "delegate": {
            "hairpinMode": true,
            "isDefaultGateway": true
          }
        },
        {
          "type": "portmap",
          "capabilities": {
            "portMappings": true
          }
        }
      ]
    }
    EOF
    

    3.13 查看 node 狀態

    [root@centos7-c cfg]# kubectl get nodes
    NAME           STATUS   ROLES    AGE   VERSION
    10.10.10.128   Ready    <none>   1h   v1.18.3
    10.10.10.129   Ready    <none>   1h   v1.18.3
    10.10.10.130   Ready    <none>   1h   v1.18.3
    10.10.10.131   Ready    <none>   1h   v1.18.3
    10.10.10.132   Ready    <none>   1h   v1.18.3
    

    3.14 安裝 coredns

    注意:k8s 與 coredns 的版本對應關係

    https://github.com/coredns/deployment/blob/master/kubernetes/CoreDNS-k8s_version.md

    安裝 dns 插件

    kubectl apply -f coredns.yaml
    

    文件內容如下

    cat coredns.yaml # 注意修改clusterIP 和 鏡像版本1.6.7

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: coredns
      namespace: kube-system
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      labels:
        kubernetes.io/bootstrapping: rbac-defaults
      name: system:coredns
    rules:
    - apiGroups:
      - ""
      resources:
      - endpoints
      - services
      - pods
      - namespaces
      verbs:
      - list
      - watch
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      annotations:
        rbac.authorization.kubernetes.io/autoupdate: "true"
      labels:
        kubernetes.io/bootstrapping: rbac-defaults
      name: system:coredns
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: system:coredns
    subjects:
    - kind: ServiceAccount
      name: coredns
      namespace: kube-system
    ---
    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: coredns
      namespace: kube-system
    data:
      Corefile: |
        .:53 {
            errors
            health {
              lameduck 5s
            }
            ready
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: coredns
      namespace: kube-system
      labels:
        k8s-app: kube-dns
        kubernetes.io/name: "CoreDNS"
    spec:
      # replicas: not specified here:
      # 1. Default is 1.
      # 2. Will be tuned in real time if DNS horizontal auto-scaling is turned on.
      replicas: 2
      strategy:
        type: RollingUpdate
        rollingUpdate:
          maxUnavailable: 1
      selector:
        matchLabels:
          k8s-app: kube-dns
      template:
        metadata:
          labels:
            k8s-app: kube-dns
        spec:
          priorityClassName: system-cluster-critical
          serviceAccountName: coredns
          tolerations:
            - key: "CriticalAddonsOnly"
              operator: "Exists"
          nodeSelector:
            kubernetes.io/os: linux
          affinity:
             podAntiAffinity:
               preferredDuringSchedulingIgnoredDuringExecution:
               - weight: 100
                 podAffinityTerm:
                   labelSelector:
                     matchExpressions:
                       - key: k8s-app
                         operator: In
                         values: ["kube-dns"]
                   topologyKey: kubernetes.io/hostname
          containers:
          - name: coredns
            image: coredns/coredns:1.6.7
            imagePullPolicy: IfNotPresent
            resources:
              limits:
                memory: 170Mi
              requests:
                cpu: 100m
                memory: 70Mi
            args: [ "-conf", "/etc/coredns/Corefile" ]
            volumeMounts:
            - name: config-volume
              mountPath: /etc/coredns
              readOnly: true
            ports:
            - containerPort: 53
              name: dns
              protocol: UDP
            - containerPort: 53
              name: dns-tcp
              protocol: TCP
            - containerPort: 9153
              name: metrics
              protocol: TCP
            securityContext:
              allowPrivilegeEscalation: false
              capabilities:
                add:
                - NET_BIND_SERVICE
                drop:
                - all
              readOnlyRootFilesystem: true
            livenessProbe:
              httpGet:
                path: /health
                port: 8080
                scheme: HTTP
              initialDelaySeconds: 60
              timeoutSeconds: 5
              successThreshold: 1
              failureThreshold: 5
            readinessProbe:
              httpGet:
                path: /ready
                port: 8181
                scheme: HTTP
          dnsPolicy: Default
          volumes:
            - name: config-volume
              configMap:
                name: coredns
                items:
                - key: Corefile
                  path: Corefile
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: kube-dns
      namespace: kube-system
      annotations:
        prometheus.io/port: "9153"
        prometheus.io/scrape: "true"
      labels:
        k8s-app: kube-dns
        kubernetes.io/cluster-service: "true"
        kubernetes.io/name: "CoreDNS"
    spec:
      selector:
        k8s-app: kube-dns
      clusterIP: 10.96.0.10
      ports:
      - name: dns
        port: 53
        protocol: UDP
      - name: dns-tcp
        port: 53
        protocol: TCP
      - name: metrics
        port: 9153
        protocol: TCP
    

    驗證是否可以正常運行

    # 先創建一個 busybox 容器作為客戶端
    [root@centos7-nginx ~]# kubectl create -f https://k8s.io/examples/admin/dns/busybox.yaml
    # 解析 kubernetes
    [root@centos7-nginx ~]# kubectl exec -it busybox -- nslookup kubernetes
    Server:    10.96.0.10
    Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local
    
    Name:      kubernetes
    Address 1: 10.96.0.1 kubernetes.default.svc.cluster.local
    [root@centos7-nginx ~]#
    

    3.15 安裝 metrics-server

    項目地址:https://github.com/kubernetes-sigs/metrics-server

    按照說明執行如下命令即可,需要根據自身集群狀態進行修改,比如,鏡像地址、資源限制…

    kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/download/v0.3.6/components.yaml
    

    將文件下載到本地

    [root@centos7-nginx scripts]# wget https://github.com/kubernetes-sigs/metrics-server/releases/download/v0.3.6/components.yaml
    

    修改內容:修改鏡像地址,添加資源限制和相關命令

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: metrics-server
    spec:
      template:
        spec:
          containers:
          - name: metrics-server
            image: registry.cn-beijing.aliyuncs.com/liyongjian5179/metrics-server-amd64:v0.3.6
            imagePullPolicy: IfNotPresent
            resources:
              limits:
                cpu: 400m
                memory: 512Mi
              requests:
                cpu: 50m
                memory: 50Mi
            command:
            - /metrics-server
            - --kubelet-insecure-tls
            - --kubelet-preferred-address-types=InternalIP
    

    根據您的群集設置,您可能還需要更改傳遞給Metrics Server容器的標誌。最有用的標誌:

    • --kubelet-preferred-address-types -確定連接到特定節點的地址時使用的節點地址類型的優先級(default [Hostname,InternalDNS,InternalIP,ExternalDNS,ExternalIP])
    • --kubelet-insecure-tls-不要驗證Kubelets提供的服務證書的CA。僅用於測試目的。
    • --requestheader-client-ca-file -指定根證書捆綁包,以驗證傳入請求上的客戶端證書。

    執行該文件

    [root@centos7-nginx scripts]# kubectl apply -f components.yaml
    clusterrole.rbac.authorization.k8s.io/system:aggregated-metrics-reader created
    clusterrolebinding.rbac.authorization.k8s.io/metrics-server:system:auth-delegator created
    rolebinding.rbac.authorization.k8s.io/metrics-server-auth-reader created
    apiservice.apiregistration.k8s.io/v1beta1.metrics.k8s.io created
    serviceaccount/metrics-server created
    deployment.apps/metrics-server created
    service/metrics-server created
    clusterrole.rbac.authorization.k8s.io/system:metrics-server created
    clusterrolebinding.rbac.authorization.k8s.io/system:metrics-server created
    

    等待一段時間即可查看效果

    [root@centos7-nginx scripts]# kubectl top nodes
    NAME        CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
    centos7-a   159m         15%    1069Mi          62%
    centos7-b   158m         15%    1101Mi          64%
    centos7-c   168m         16%    1153Mi          67%
    centos7-d   48m          4%     657Mi           38%
    centos7-e   45m          4%     440Mi           50%
    [root@centos7-nginx scripts]# kubectl top pods -A
    NAMESPACE     NAME                              CPU(cores)   MEMORY(bytes)
    kube-system   coredns-6fdfb45d56-79jhl          5m           12Mi
    kube-system   coredns-6fdfb45d56-pvnzt          3m           13Mi
    kube-system   metrics-server-5f8fdf59b9-8chz8   1m           11Mi
    kube-system   tiller-deploy-6b75d7dccd-r6sz2    2m           6Mi
    

    完整文件內容如下

    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: system:aggregated-metrics-reader
      labels:
        rbac.authorization.k8s.io/aggregate-to-view: "true"
        rbac.authorization.k8s.io/aggregate-to-edit: "true"
        rbac.authorization.k8s.io/aggregate-to-admin: "true"
    rules:
    - apiGroups: ["metrics.k8s.io"]
      resources: ["pods", "nodes"]
      verbs: ["get", "list", "watch"]
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: metrics-server:system:auth-delegator
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: system:auth-delegator
    subjects:
    - kind: ServiceAccount
      name: metrics-server
      namespace: kube-system
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: RoleBinding
    metadata:
      name: metrics-server-auth-reader
      namespace: kube-system
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: Role
      name: extension-apiserver-authentication-reader
    subjects:
    - kind: ServiceAccount
      name: metrics-server
      namespace: kube-system
    ---
    apiVersion: apiregistration.k8s.io/v1beta1
    kind: APIService
    metadata:
      name: v1beta1.metrics.k8s.io
    spec:
      service:
        name: metrics-server
        namespace: kube-system
      group: metrics.k8s.io
      version: v1beta1
      insecureSkipTLSVerify: true
      groupPriorityMinimum: 100
      versionPriority: 100
    ---
    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: metrics-server
      namespace: kube-system
    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: metrics-server
      namespace: kube-system
      labels:
        k8s-app: metrics-server
    spec:
      selector:
        matchLabels:
          k8s-app: metrics-server
      template:
        metadata:
          name: metrics-server
          labels:
            k8s-app: metrics-server
        spec:
          serviceAccountName: metrics-server
          volumes:
          # mount in tmp so we can safely use from-scratch images and/or read-only containers
          - name: tmp-dir
            emptyDir: {}
          containers:
          - name: metrics-server
            image: registry.cn-beijing.aliyuncs.com/liyongjian5179/metrics-server-amd64:v0.3.6
            imagePullPolicy: IfNotPresent
            resources:
              limits:
                cpu: 400m
                memory: 512Mi
              requests:
                cpu: 50m
                memory: 50Mi
            command:
            - /metrics-server
            - --kubelet-insecure-tls
            - --kubelet-preferred-address-types=InternalIP
            args:
              - --cert-dir=/tmp
              - --secure-port=4443
            ports:
            - name: main-port
              containerPort: 4443
              protocol: TCP
            securityContext:
              readOnlyRootFilesystem: true
              runAsNonRoot: true
              runAsUser: 1000
            volumeMounts:
            - name: tmp-dir
              mountPath: /tmp
          nodeSelector:
            kubernetes.io/os: linux
            kubernetes.io/arch: "amd64"
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: metrics-server
      namespace: kube-system
      labels:
        kubernetes.io/name: "Metrics-server"
        kubernetes.io/cluster-service: "true"
    spec:
      selector:
        k8s-app: metrics-server
      ports:
      - port: 443
        protocol: TCP
        targetPort: main-port
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: system:metrics-server
    rules:
    - apiGroups:
      - ""
      resources:
      - pods
      - nodes
      - nodes/stats
      - namespaces
      - configmaps
      verbs:
      - get
      - list
      - watch
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: system:metrics-server
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: system:metrics-server
    subjects:
    - kind: ServiceAccount
      name: metrics-server
      namespace: kube-system
    

    3.16 安裝 ingress

    3.16.1 LB 方案

    採用裸金屬服務器的方案:https://kubernetes.github.io/ingress-nginx/deploy/#bare-metal

    可選NodePort或者LoadBalancer,默認是 NodePort 的方案

    在雲上的環境可以使用現成的 LB的方案:

    比如阿里雲Internal load balancer示例,可以通過註解的方式

    [...]
    metadata:
      annotations:  
        service.beta.kubernetes.io/alibaba-cloud-loadbalancer-address-type: "intranet"
    [...]
    

    裸金屬服務器上可選方案:

    1)純軟件解決方案:MetalLB(https://metallb.universe.tf/)

    該項目發佈於 2017 年底,當前處於 Beta 階段。

    MetalLB支持兩種聲明模式:

    • Layer 2模式:ARP/NDP
    • BGP模式

    Layer 2 模式

    Layer 2模式下,每個service會有集群中的一個node來負責。當服務客戶端發起ARP解析的時候,對應的node會響應該ARP請求,之後,該service的流量都會指向該node(看上去該node上有多個地址)。

    Layer 2模式並不是真正的負載均衡,因為流量都會先經過1個node后,再通過kube-proxy轉給多個end points。如果該node故障,MetalLB會遷移 IP到另一個node,並重新發送免費ARP告知客戶端遷移。現代操作系統基本都能正確處理免費ARP,因此failover不會產生太大問題。

    Layer 2模式更為通用,不需要用戶有額外的設備;但由於Layer 2模式使用ARP/ND,地址池分配需要跟客戶端在同一子網,地址分配略為繁瑣。

    BGP模式

    BGP模式下,集群中所有node都會跟上聯路由器建立BGP連接,並且會告知路由器應該如何轉發service的流量。

    BGP模式是真正的LoadBalancer。

    2)通過NodePort

    使用`NodePort`有一些局限性
    
    • Source IP address

    默認情況下,NodePort類型的服務執行源地址轉換。這意味着HTTP請求的源IP始終是從NGINX側接收到該請求的Kubernetes節點的IP地址。

    建議在NodePort設置中保留源IP的方法是將ingress-nginxServicespecexternalTrafficPolicy字段的值設置為Local,如下面的例子:

    kind: Service
    apiVersion: v1
    metadata:
      name: ingress-nginx
      namespace: ingress-nginx
      labels:
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/part-of: ingress-nginx
      annotations:
        # by default the type is elb (classic load balancer).
        service.beta.kubernetes.io/aws-load-balancer-type: nlb
    spec:
      # this setting is t make sure the source IP address is preserved.
      externalTrafficPolicy: Local
      type: LoadBalancer
      selector:
        app.kubernetes.io/name: ingress-nginx
      ports:
      - name: http
        port: 80
        targetPort: http
      - name: https
        port: 443
        targetPort: https
    

    注意:此設置有效地丟棄了發送到未運行NGINX Ingress控制器任何實例的Kubernetes節點的數據包。考慮將NGINX Pod分配給特定節點,以控制應調度或不調度NGINX Ingress控制器的節點,可以通過nodeSelector實現。如果有三台機器,但是只有兩個 nginx 的 replica,分別部署在 node-2和 node-3,那麼當請求到 node-1 時,會因為在這台機器上沒有運行 nginx 的 replica 而被丟棄。

    給對應節點打標籤

    [root@centos7-nginx ~]# kubectl label nodes centos7-d lb-type=nginx
    node/centos7-d labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-e lb-type=nginx
    node/centos7-e labeled
    

    3.16.2 安裝

    本次實驗採用默認的方式:

    kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/static/provider/baremetal/deploy.yaml
    

    如果需要進行修改,先下載到本地

    [root@centos7-nginx yaml]# wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/static/provider/baremetal/deploy.yaml
    [root@centos7-nginx yaml]# vim deploy.yaml
    [root@centos7-nginx yaml]# kubectl apply -f deploy.yaml
    namespace/ingress-nginx created
    serviceaccount/ingress-nginx created
    configmap/ingress-nginx-controller created
    clusterrole.rbac.authorization.k8s.io/ingress-nginx created
    clusterrolebinding.rbac.authorization.k8s.io/ingress-nginx created
    role.rbac.authorization.k8s.io/ingress-nginx created
    rolebinding.rbac.authorization.k8s.io/ingress-nginx created
    service/ingress-nginx-controller-admission created
    service/ingress-nginx-controller created
    deployment.apps/ingress-nginx-controller created
    validatingwebhookconfiguration.admissionregistration.k8s.io/ingress-nginx-admission created
    clusterrole.rbac.authorization.k8s.io/ingress-nginx-admission created
    clusterrolebinding.rbac.authorization.k8s.io/ingress-nginx-admission created
    job.batch/ingress-nginx-admission-create created
    job.batch/ingress-nginx-admission-patch created
    role.rbac.authorization.k8s.io/ingress-nginx-admission created
    rolebinding.rbac.authorization.k8s.io/ingress-nginx-admission created
    serviceaccount/ingress-nginx-admission created
    

    也可以先跑起來,在修改

    [root@centos7-nginx ~]# kubectl edit deploy ingress-nginx-controller -n ingress-nginx
    ...
    spec:
      progressDeadlineSeconds: 600
      replicas: 2  #----> 修改為 2 實現高可用
    ...
      template:
    ...
        spec:
          nodeSelector:  #----> 增加節點選擇器
            lb-type: nginx #----> 匹配標籤
    

    或者使用

    [root@centos7-nginx yaml]# kubectl -n ingress-nginx patch deployment ingress-nginx-controller -p '{"spec": {"template": {"spec": {"nodeSelector": {"lb-type": "nginx"}}}}}'
    deployment.apps/ingress-nginx-controller patched
    
    [root@centos7-nginx yaml]# kubectl -n ingress-nginx scale --replicas=2 deployment/ingress-nginx-controller
    deployment.apps/ingress-nginx-controller scaled
    

    查看 svc 狀態可以看到端口已經分配

    [root@centos7-nginx ~]# kubectl get svc -n ingress-nginx
    NAME                                 TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)                      AGE
    ingress-nginx-controller             NodePort    10.101.121.120   <none>        80:36459/TCP,443:33171/TCP   43m
    ingress-nginx-controller-admission   ClusterIP   10.111.108.89    <none>        443/TCP                      43m
    

    所有機器上的端口也已經開啟,為了防止請求被丟棄,建議將代理后的節點 ip 固定在已經打了lb-type=nginx的節點

    [root@centos7-a ~]# netstat -ntpl |grep proxy
    tcp        0      0 0.0.0.0:36459           0.0.0.0:*               LISTEN      69169/kube-proxy
    tcp        0      0 0.0.0.0:33171           0.0.0.0:*               LISTEN      69169/kube-proxy
    ...
    [root@centos7-d ~]# netstat -ntpl |grep proxy
    tcp        0      0 0.0.0.0:36459           0.0.0.0:*               LISTEN      84181/kube-proxy
    tcp        0      0 0.0.0.0:33171           0.0.0.0:*               LISTEN      84181/kube-proxy
    [root@centos7-e ~]# netstat -ntpl |grep proxy
    tcp        0      0 0.0.0.0:36459           0.0.0.0:*               LISTEN      74881/kube-proxy
    tcp        0      0 0.0.0.0:33171           0.0.0.0:*               LISTEN      74881/kube-proxy
    

    3.16.3 驗證

    # 創建一個應用
    [root@centos7-nginx ~]# kubectl create deployment nginx-dns --image=nginx
    deployment.apps/nginx-dns created
    # 創建 svc
    [root@centos7-nginx ~]# kubectl expose deployment nginx-dns --port=80
    service/nginx-dns exposed
    [root@centos7-nginx ~]# kubectl get pods
    NAME                         READY   STATUS    RESTARTS   AGE
    busybox                      1/1     Running   29         29h
    nginx-dns-5c6b6b99df-qvnjh   1/1     Running   0          13s
    [root@centos7-nginx ~]# kubectl get svc
    NAME         TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)   AGE
    kubernetes   ClusterIP   10.96.0.1      <none>        443/TCP   3d5h
    nginx-dns    ClusterIP   10.108.88.75   <none>        80/TCP    10s
    # 創建 ingress 文件並執行
    [root@centos7-nginx yaml]# vim ingress.yaml
    [root@centos7-nginx yaml]# cat ingress.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-nginx-dns
      namespace: default
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: ng.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: nginx-dns
              servicePort: 80
    [root@centos7-nginx yaml]# kubectl apply -f ingress.yaml
    ingress.extensions/ingress-nginx-dns created
    [root@centos7-nginx yaml]# kubectl get ingress
    NAME                CLASS    HOSTS         ADDRESS   PORTS   AGE
    ingress-nginx-dns   <none>   ng.5179.top             80      9s
    

    先將日誌刷起來

    [root@centos7-nginx yaml]# kubectl get pods
    NAME                         READY   STATUS    RESTARTS   AGE
    busybox                      1/1     Running   30         30h
    nginx-dns-5c6b6b99df-qvnjh   1/1     Running   0          28m
    [root@centos7-nginx yaml]# kubectl logs -f nginx-dns-5c6b6b99df-qvnjh
    /docker-entrypoint.sh: /docker-entrypoint.d/ is not empty, will attempt to perform configuration
    /docker-entrypoint.sh: Looking for shell scripts in /docker-entrypoint.d/
    /docker-entrypoint.sh: Launching /docker-entrypoint.d/10-listen-on-ipv6-by-default.sh
    10-listen-on-ipv6-by-default.sh: Getting the checksum of /etc/nginx/conf.d/default.conf
    10-listen-on-ipv6-by-default.sh: Enabled listen on IPv6 in /etc/nginx/conf.d/default.conf
    /docker-entrypoint.sh: Launching /docker-entrypoint.d/20-envsubst-on-templates.sh
    /docker-entrypoint.sh: Configuration complete; ready for start up
    10.244.3.123 - - [20/Jun/2020:12:58:20 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "10.244.4.0"
    

    後端 Pod 中 nginx 的日誌格式為

        log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                          '$status $body_bytes_sent "$http_referer" '
                          '"$http_user_agent" "$http_x_forwarded_for"';
    

    另起一個終端進行訪問

    [root@centos7-a ~]# curl -H 'Host:ng.5179.top' http://10.10.10.132:36459 -I
    HTTP/1.1 200 OK
    Server: nginx/1.19.0
    Date: Sat, 20 Jun 2020 12:58:27 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    

    可以看到日誌10.244.3.123 - - [20/Jun/2020:12:58:20 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "10.244.4.0"

    然後我們可以配置前端的 LB

    [root@centos7-nginx conf.d]# vim ng.conf
    [root@centos7-nginx conf.d]# cat ng.conf
    upstream nginx-dns{
            ip_hash;
            server 10.10.10.131:36459 ;
            server 10.10.10.132:36459;
       }
    
    server {
        listen       80;
        server_name  ng.5179.top;
    
        #access_log  logs/host.access.log  main;
    
        location / {
            root   html;
            proxy_pass http://nginx-dns;
    	    proxy_set_header Host $host;
    	    proxy_set_header X-Forwarded-For $remote_addr;
            index  index.html index.htm;
        }
    }
    # 添加內部解析
    [root@centos7-nginx conf.d]# vim /etc/hosts
    [root@centos7-nginx conf.d]# cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    10.10.10.127 centos7-nginx lb.5179.top ng.5179.top
    10.10.10.128 centos7-a
    10.10.10.129 centos7-b
    10.10.10.130 centos7-c
    10.10.10.131 centos7-d
    10.10.10.132 centos7-e
    # 重啟 nginx
    [root@centos7-nginx conf.d]# nginx -t
    nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
    nginx: configuration file /etc/nginx/nginx.conf test is successful
    [root@centos7-nginx conf.d]# nginx -s reload
    

    訪問該域名

    [root@centos7-nginx conf.d]# curl http://ng.5179.top -I
    HTTP/1.1 200 OK
    Server: nginx/1.16.1
    Date: Sat, 20 Jun 2020 13:07:38 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    

    後端也能正常收到日誌

    10.244.4.17 - - [20/Jun/2020:13:22:11 +0000] "HEAD / HTTP/1.1" 200 0 "-" "curl/7.29.0" "10.244.4.1

    $remote_addr —> 10.244.4.17:為某一台 ingress-nginx 的 nginx_IP

    $http_x_forwarded_for —> 10.244.4.1:為節點上的 cni0 網卡 IP

    [root@centos7-nginx conf.d]# kubectl get pods -n ingress-nginx -o wide
    NAME                                        READY   STATUS      RESTARTS   AGE    IP             NODE        NOMINATED NODE   READINESS GATES
    ingress-nginx-admission-create-tqp5w        0/1     Completed   0          112m   10.244.3.119   centos7-d   <none>           <none>
    ingress-nginx-admission-patch-78jmf         0/1     Completed   0          112m   10.244.3.120   centos7-d   <none>           <none>
    ingress-nginx-controller-5946fd499c-6cx4x   1/1     Running     0          11m    10.244.3.125   centos7-d   <none>           <none>
    ingress-nginx-controller-5946fd499c-khjdn   1/1     Running     0          11m    10.244.4.17    centos7-e   <none>           <none>
    

    修改 ingress-nginx-controller 的 svc

    [root@centos7-nginx conf.d]# kubectl get svc -n ingress-nginx
    NAME                                 TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)                      AGE
    ingress-nginx-controller             NodePort    10.101.121.120   <none>        80:36459/TCP,443:33171/TCP   97m
    ingress-nginx-controller-admission   ClusterIP   10.111.108.89    <none>        443/TCP                      97m
    [root@centos7-nginx conf.d]# kubectl edit svc ingress-nginx-controller -n ingress-nginx
    ...
    spec:
      clusterIP: 10.101.121.120
      externalTrafficPolicy: Cluster  #---> 修改為 Local
    ...  
      service/ingress-nginx-controller edited
    
    
    

    再次訪問

    [root@centos7-nginx conf.d]# curl http://ng.5179.top -I
    HTTP/1.1 200 OK
    Server: nginx/1.16.1
    Date: Sat, 20 Jun 2020 13:28:05 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    # 查看本機網卡 IP
    [root@centos7-nginx conf.d]# ip addr show ens33
    2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
        link/ether 00:0c:29:38:d4:e3 brd ff:ff:ff:ff:ff:ff
        inet 10.10.10.127/24 brd 10.10.10.255 scope global ens33
           valid_lft forever preferred_lft forever
        inet6 fe80::20c:29ff:fe38:d4e3/64 scope link
           valid_lft forever preferred_lft forever
    

    nginx的日誌($http_x_forwarded_for)已經記錄了客戶端的真實IP

    10.244.4.17 - - [20/Jun/2020:13:28:05 +0000] "HEAD / HTTP/1.1" 200 0 "-" "curl/7.29.0" "10.10.10.127"
    

    3.16.4 運行多個 ingress

    注意:如果要運行多個 ingress ,一個服務於公共流量,一個服務於“內部”流量。為此,必須將選項–ingress-class更改為控制器定義內群集的唯一值。

    spec:
      template:
         spec:
           containers:
             - name: nginx-ingress-internal-controller
               args:
                 - /nginx-ingress-controller
                 - '--election-id=ingress-controller-leader-internal'
                 - '--ingress-class=nginx-internal'
                 - '--configmap=ingress/nginx-ingress-internal-controller'
    

    需要創建單獨的ConfigmapServiceDeployment的文件,其他與默認安裝的 ingress 共用即可

    ---
    # Source: ingress-nginx/templates/controller-configmap.yaml
    apiVersion: v1
    kind: ConfigMap
    metadata:
      labels:
        helm.sh/chart: ingress-nginx-2.4.0
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/instance: ingress-nginx
        app.kubernetes.io/version: 0.33.0
        app.kubernetes.io/managed-by: Helm
        app.kubernetes.io/component: controller
      name: ingress-nginx-internal-controller   # 修改名字
      namespace: ingress-nginx
    data:
    ---
    # Source: ingress-nginx/templates/controller-service.yaml
    apiVersion: v1
    kind: Service
    metadata:
      labels:
        helm.sh/chart: ingress-nginx-2.4.0
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/instance: ingress-nginx
        app.kubernetes.io/version: 0.33.0
        app.kubernetes.io/managed-by: Helm
        app.kubernetes.io/component: controller
      name: ingress-nginx-internal-controller   # 修改名字
      namespace: ingress-nginx
    spec:
      type: NodePort
      ports:
        - name: http
          port: 80
          protocol: TCP
          targetPort: http
        - name: https
          port: 443
          protocol: TCP
          targetPort: https
      selector:
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/instance: ingress-nginx
        app.kubernetes.io/component: controller
    ---
    # Source: ingress-nginx/templates/controller-deployment.yaml
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      labels:
        helm.sh/chart: ingress-nginx-2.4.0
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/instance: ingress-nginx
        app.kubernetes.io/version: 0.33.0
        app.kubernetes.io/managed-by: Helm
        app.kubernetes.io/component: controller
      name: ingress-nginx-internal-controller      # 修改名字
      namespace: ingress-nginx
    spec:
      selector:
        matchLabels:
          app.kubernetes.io/name: ingress-nginx
          app.kubernetes.io/instance: ingress-nginx
          app.kubernetes.io/component: controller
      revisionHistoryLimit: 10
      minReadySeconds: 0
      template:
        metadata:
          labels:
            app.kubernetes.io/name: ingress-nginx
            app.kubernetes.io/instance: ingress-nginx
            app.kubernetes.io/component: controller
        spec:
          dnsPolicy: ClusterFirst
          containers:
            - name: controller
              #image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.33.0
              image: registry.cn-beijing.aliyuncs.com/liyongjian5179/nginx-ingress-controller:0.33.0
              imagePullPolicy: IfNotPresent
              lifecycle:
                preStop:
                  exec:
                    command:
                      - /wait-shutdown
              args:
                - /nginx-ingress-controller
                - --election-id=ingress-controller-leader-internal    
                - --ingress-class=nginx-internal
                - --configmap=ingress-nginx/ingress-nginx-internal-controller
                - --validating-webhook=:8443
                - --validating-webhook-certificate=/usr/local/certificates/cert
                - --validating-webhook-key=/usr/local/certificates/key
              securityContext:
                capabilities:
                  drop:
                    - ALL
                  add:
                    - NET_BIND_SERVICE
                runAsUser: 101
                allowPrivilegeEscalation: true
              env:
                - name: POD_NAME
                  valueFrom:
                    fieldRef:
                      fieldPath: metadata.name
                - name: POD_NAMESPACE
                  valueFrom:
                    fieldRef:
                      fieldPath: metadata.namespace
              livenessProbe:
                httpGet:
                  path: /healthz
                  port: 10254
                  scheme: HTTP
                initialDelaySeconds: 10
                periodSeconds: 10
                timeoutSeconds: 1
                successThreshold: 1
                failureThreshold: 3
              readinessProbe:
                httpGet:
                  path: /healthz
                  port: 10254
                  scheme: HTTP
                initialDelaySeconds: 10
                periodSeconds: 10
                timeoutSeconds: 1
                successThreshold: 1
                failureThreshold: 3
              ports:
                - name: http
                  containerPort: 80
                  protocol: TCP
                - name: https
                  containerPort: 443
                  protocol: TCP
                - name: webhook
                  containerPort: 8443
                  protocol: TCP
              volumeMounts:
                - name: webhook-cert
                  mountPath: /usr/local/certificates/
                  readOnly: true
              resources:
                requests:
                  cpu: 100m
                  memory: 90Mi
          serviceAccountName: ingress-nginx
          terminationGracePeriodSeconds: 300
          volumes:
            - name: webhook-cert
              secret:
                secretName: ingress-nginx-admission
    

    然後執行即可,然後還需要在原配置文件中的 Role中添加一行信息

    # Source: ingress-nginx/templates/controller-role.yaml
    apiVersion: rbac.authorization.k8s.io/v1
    kind: Role
    metadata:
    ...
      name: ingress-nginx
      namespace: ingress-nginx
    rules:
    ...
      - apiGroups:
          - ''
        resources:
          - configmaps
        resourceNames:
          # Defaults to "<election-id>-<ingress-class>"
          # Here: "<ingress-controller-leader>-<nginx>"
          # This has to be adapted if you change either parameter
          # when launching the nginx-ingress-controller.
          - ingress-controller-leader-nginx
          - ingress-controller-leader-internal-nginx-internal #此處要增加一行,如果不加,會出現下面的報錯
        verbs:
          - get
          - update
    

    上述所說,如果不添加,ingress-controller 的 nginx 會出現這個報錯信息

    E0621 08:25:07.531202       6 leaderelection.go:356] Failed to update lock: configmaps "ingress-controller-leader-internal-nginx-internal" is forbidden: User "system:serviceaccount:ingress-nginx:ingress-nginx" cannot update resource "configmaps" in API group "" in the namespace "ingress-nginx"
    

    然後修改 ingress 文件

    
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: nginx
      annotations:
        # 注意這裏要設置為您前面配置的 INGRESS_CLASS,比如:nginx-internal
        kubernetes.io/ingress.class: "<YOUR_INGRESS_CLASS>"
    

    示例:

    [root@centos7-nginx yaml]# kubectl apply -f ingress-internal.yaml
    ingress.extensions/ingress-nginx-dns-internal created
    [root@centos7-nginx yaml]# cat ingress-internal.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-nginx-dns-internal
    #  namespace: default
      annotations:
        kubernetes.io/ingress.class: "nginx-internal"
    spec:
      rules:
      - host: ng-inter.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: nginx-dns
              servicePort: 80
    [root@centos7-nginx yaml]# kubectl get ingress
    NAME                         CLASS    HOSTS               ADDRESS                     PORTS   AGE
    ingress-nginx-dns            <none>   ng.5179.top         10.10.10.131                80      47m
    ingress-nginx-dns-internal   <none>   ng-inter.5179.top   10.10.10.131,10.10.10.132   80      32s
    

    在 nginx 的配置文件中增加

    [root@centos7-nginx yaml]# cat /etc/nginx/conf.d/ng.conf
    upstream nginx-dns{
            ip_hash;
            server 10.10.10.131:31511;
            server 10.10.10.132:31511;
       }
    upstream nginx-dns-inter{
            ip_hash;
            server 10.10.10.131:40377;
            server 10.10.10.132:40377;
       }
    
    server {
        listen       80;
        server_name  ng.5179.top;
    
        #access_log  logs/host.access.log  main;
    
        location / {
            root   html;
            proxy_pass http://nginx-dns;
    	proxy_set_header Host $host;
    	proxy_set_header X-Forwarded-For $remote_addr;
            index  index.html index.htm;
        }
    }
    server {
        listen       80;
        server_name  ng-inter.5179.top;
    
        #access_log  logs/host.access.log  main;
    
        location / {
            root   html;
            proxy_pass http://nginx-dns-inter/;
            proxy_set_header Host $host;
            proxy_set_header X-Forwarded-For $remote_addr;
            index  index.html index.htm;
        }
    }
    

    重啟后添加本地解析,然後訪問即可

    [root@centos7-nginx yaml]# curl http://ng-inter.5179.top -I
    HTTP/1.1 200 OK
    Server: nginx/1.16.1
    Date: Sun, 21 Jun 2020 09:07:12 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    
    [root@centos7-nginx yaml]# curl http://ng.5179.top -I
    HTTP/1.1 200 OK
    Server: nginx/1.16.1
    Date: Sun, 21 Jun 2020 09:07:17 GMT
    Content-Type: text/html
    Content-Length: 612
    Connection: keep-alive
    Vary: Accept-Encoding
    Last-Modified: Tue, 26 May 2020 15:00:20 GMT
    ETag: "5ecd2f04-264"
    Accept-Ranges: bytes
    

    3.17 安裝 prometheus-operator

    3.17.1 下載安裝

    使用 prometheus-operator 進行安裝.

    地址如下https://github.com/coreos/kube-prometheus

    根據 Readme.md 進行版本的選擇,本次 k8s 安裝的是 1.18 ,所以 prometheus 選的分支為 release-0.5

    git clone https://github.com/coreos/kube-prometheus.git -b release-0.5
    cd kube-prometheus
    # Create the namespace and CRDs, and then wait for them to be availble before creating the remaining resources
    kubectl create -f manifests/setup
    until kubectl get servicemonitors --all-namespaces ; do date; sleep 1; echo ""; done
    kubectl create -f manifests/
    

    為了遠程訪問方便,創建了 ingress

    [root@centos7-a ingress]# cat ingress-grafana.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-grafana
      namespace: monitoring
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: grafana.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: grafana
              servicePort: 3000
              
    [root@centos7-a ingress]# cat ingress-prometheus.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-prometheus
      namespace: monitoring
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: prometheus.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: prometheus-k8s
              servicePort: 9090
    
    [root@centos7-a ingress]# cat ingress-alertmanager.yaml
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: ingress-alertmanager
      namespace: monitoring
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: alertmanager.5179.top
        http:
          paths:
          - path: /
            backend:
              serviceName: alertmanager-main
              servicePort: 9093
    

    查看 ingress

    [root@centos7-a ingress]# kubectl get ingress -A
    NAMESPACE    NAME                   CLASS    HOSTS                   ADDRESS         PORTS   AGE
    monitoring   ingress-alertmanager   <none>   alertmanager.5179.top   10.10.10.129   80      3m6s
    monitoring   ingress-grafana        <none>   grafana.5179.top        10.10.10.129   80      3m6s
    monitoring   ingress-prometheus     <none>   prometheus.5179.top     10.10.10.129   80      3m6s
    

    3.17.2 遇到的坑

    1) kube-schedulerkube-controller-manager 的target 為 0/0

    二進制部署k8s管理組件和新版本 kubeadm 部署的都會發現在prometheus status 下的 target 頁面上發現kube-controller-managerkube-scheduler的 target 為0/0。因為 serviceMonitor是根據 label 去選取 svc的,可以查看對應的serviceMonitor是選取的ns範圍是kube-system

    解決辦法:

    查看endpoint 兩者的endpoint為 none

    [root@centos7-a kube-prometheus]# kubectl get endpoints -n kube-system
    NAME                      ENDPOINTS                                                               AGE
    kube-controller-manager   <none>                                                                  7m35s
    kube-dns                  10.244.43.2:53,10.244.62.2:53,10.244.43.2:9153 + 3 more...              4m10s
    kube-scheduler            <none>                                                                  7m31s
    kubelet                   10.10.10.129:4194,10.10.10.132:4194,10.10.10.128:4194 + 12 more...   22s
    

    查看兩者的端口

    [root@centos7-a kube-prometheus]# ss -tnlp| grep scheduler
    LISTEN     0      32768       :::10251                   :::*                   users:(("kube-scheduler",pid=60128,fd=5))
    LISTEN     0      32768       :::10259                   :::*                   users:(("kube-scheduler",pid=60128,fd=7))
    [root@centos7-a kube-prometheus]# ss -tnlp| grep contro
    LISTEN     0      32768       :::10252                   :::*                   users:(("kube-controller",pid=59695,fd=6))
    LISTEN     0      32768       :::10257                   :::*                   users:(("kube-controller",pid=59695,fd=7))
    

    創建文件並執行

    [root@centos7-a yaml]# cat schedulerandcontroller-ep-svc.yaml
    # cat kube-scheduer-service.yaml
    apiVersion: v1
    kind: Service
    metadata:
      labels:
        k8s-app: kube-scheduler
      name: kube-scheduler
      namespace: kube-system
    spec:
      clusterIP: None
      ports:
      - name: https-metrics
        port: 10259
        protocol: TCP
        targetPort: 10259
      - name: http-metrics
        port: 10251
        protocol: TCP
        targetPort: 10251
      type: ClusterIP
    
    ---
    # cat kube-controller-manager-service.yaml
    apiVersion: v1
    kind: Service
    metadata:
      labels:
        k8s-app: kube-controller-manager
      name: kube-controller-manager
      namespace: kube-system
    spec:
      clusterIP: None
      ports:
      - name: https-metrics
        port: 10257
        protocol: TCP
        targetPort: 10257
      - name: http-metrics
        port: 10252
        protocol: TCP
        targetPort: 10252
      type: ClusterIP
    
    ---
    # cat ep-controller-manager.yaml
    apiVersion: v1
    kind: Endpoints
    metadata:
      labels:
        k8s-app: kube-controller-manager
      name: kube-controller-manager
      namespace: kube-system
      annotations:
        prometheus.io/scrape: 'true'
    subsets:
    - addresses:
      - ip: 10.10.10.128
        targetRef:
          kind: Node
          name: 10.10.10.128
      - ip: 10.10.10.129
        targetRef:
          kind: Node
          name: 10.10.10.129
      - ip: 10.10.10.130
        targetRef:
          kind: Node
          name: 10.10.10.130
      ports:
      - name: http-metrics
        port: 10252
        protocol: TCP
      - name: https-metrics
        port: 10257
        protocol: TCP
    ---
    # cat ep-scheduler.yaml
    apiVersion: v1
    kind: Endpoints
    metadata:
      labels:
        k8s-app: kube-scheduler
      name: kube-scheduler
      namespace: kube-system
      annotations:
        prometheus.io/scrape: 'true'
    subsets:
    - addresses:
      - ip: 10.10.10.128
        targetRef:
          kind: Node
          name: 10.10.10.128
      - ip: 10.10.10.129
        targetRef:
          kind: Node
          name: 10.10.10.129
      - ip: 10.10.10.130
        targetRef:
          kind: Node
          name: 10.10.10.130
      ports:
      - name: http-metrics
        port: 10251
        protocol: TCP
      - name: https-metrics
        port: 10259
        protocol: TCP
    
    2) node-exporter的 target 显示(3/5)

    有兩個有問題的 Node,同時查看 kubectl top node 也發現問題,節點數據看不到

    [root@centos7--a kube-prometheus]# kubectl top nodes
    NAME            CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
    10.10.10.129   110m         5%     1360Mi          36%
    10.10.10.128   114m         5%     1569Mi          42%
    10.10.10.130   101m         5%     1342Mi          36%
    10.10.10.132   <unknown>                           <unknown>               <unknown>               <unknown>
    10.10.10.131    <unknown>                           <unknown>               <unknown>               <unknown>
    

    解決辦法:

    查看問題節點所對應的 Pod

    [root@centos7--a kube-prometheus]# kubectl get pods  -o custom-columns='NAME:metadata.name,NODE:spec.nodeName'  -n monitoring |grep node
    node-exporter-2fqt5                    10.10.10.130
    node-exporter-fxqxb                    10.10.10.129
    node-exporter-pbq28                    10.10.10.132
    node-exporter-tvw5j                    10.10.10.128
    node-exporter-znp6k                    10.10.10.131
    

    查看日誌

    [root@centos7--a kube-prometheus]# kubectl logs -f node-exporter-znp6k -n monitoring -c kube-rbac-proxy
    I0627 02:58:01.947861   53400 main.go:213] Generating self signed cert as no cert is provided
    I0627 02:58:44.246733   53400 main.go:243] Starting TCP socket on [10.10.10.131]:9100
    I0627 02:58:44.346251   53400 main.go:250] Listening securely on [10.10.10.131]:9100
    E0627 02:59:27.246742   53400 webhook.go:106] Failed to make webhook authenticator request: Post https://10.96.0.1:443/apis/authentication.k8s.io/v1beta1/tokenreviews: dial tcp 10.96.0.1:443: i/o timeout
    E0627 02:59:27.247585   53400 proxy.go:67] Unable to authenticate the request due to an error: Post https://10.96.0.1:443/apis/authentication.k8s.io/v1beta1/tokenreviews: dial tcp 10.96.0.1:443: i/o timeout
    E0627 02:59:42.160199   53400 webhook.go:106] Failed to make webhook authenticator request: Post https://10.96.0.1:443/apis/authentication.k8s.io/v1beta1/tokenreviews: dial tcp 10.96.0.1:443: i/o timeout
    

    一直在報連接 10.96.0.1:443 超時,像是 kubernetes 在回包的時候,無法建立連接,

    兩種解決辦法:

    1. 在問題節點加入一條防火牆命令(不推薦)
    iptables -t nat -I POSTROUTING -s  10.96.0.0/12 -j MASQUERADE
    
    1. 修改 kube-proxy 配置文件,改成正確的 cluster-CIDR (推薦)

    再次查看已經正常了

    [root@centos7--a kube-prometheus]# kubectl top nodes
    NAME            CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
    10.10.10.129   109m         5%     1362Mi          36%
    10.10.10.132   65m          3%     1118Mi          30%
    10.10.10.128   175m         8%     1581Mi          42%
    10.10.10.130   118m         5%     1344Mi          36%
    10.10.10.131    60m          3%     829Mi           22%
    

    實際排查后發現,是 kube-proxy 的 clusterCIDR寫成了 service 的網段。

    clusterCIDR: kube-proxy 根據 –cluster-cidr 判斷集群內部和外部流量,指定 –cluster-cidr 或 –masquerade-all選項后 kube-proxy 才會對訪問 Service IP 的請求做 SNAT;

    3.17.3 監控 etcd

    除了 Kubernetes 集群中的一些資源對象、節點以及組件需要監控,有的時候我們可能還需要根據實際的業務需求去添加自定義的監控項,添加一個自定義監控的步驟如下:

    • 第一步建立一個 ServiceMonitor 對象,用於 Prometheus 添加監控項
    • 第二步為 ServiceMonitor 對象關聯 metrics 數據接口的一個 Service 對象
    • 第三步確保 Service 對象可以正確獲取到 metrics 數據

    對於 etcd 集群一般情況下,為了安全都會開啟 https 證書認證的方式,所以要想讓 Prometheus 訪問到 etcd 集群的監控數據,就需要提供相應的證書校驗。

    首先我們將需要使用到的證書通過 secret 對象保存到集群中去:(在 etcd 運行的節點)

    [root@centos7--a ssl]# pwd
    /opt/etcd/ssl
    [root@centos7--a ssl]# kubectl -n monitoring create secret generic etcd-certs --from-file=/opt/kubernetes/ssl/server.pem --from-file=/opt/kubernetes/ssl/server-key.pem --from-file=/opt/kubernetes/ssl/ca.pem
    secret/etcd-certs created
    

    Prometheus配置文件,將上面創建的 etcd-certs 對象配置到 prometheus 資源對象中

    [root@centos7--a manifests]# pwd
    /root/kube-prometheus/manifests
    [root@centos7--a manifests]# vim prometheus-prometheus.yaml
      replicas: 2
      secrets:
        - etcd-certs
    [root@centos7--a manifests]# kubectl apply -f prometheus-prometheus.yaml
    prometheus.monitoring.coreos.com/k8s configured
    

    進入 pod 內查看證書是否存在

    #等到pod重啟后,進入pod查看是否可以看到證書
    [root@centos7--a kube-prometheus]# kubectl exec -it prometheus-k8s-0  -n monitoring  -- sh
    Defaulting container name to prometheus.
    Use 'kubectl describe pod/prometheus-k8s-0 -n monitoring' to see all of the containers in this pod.
    /prometheus $ ls /etc/prometheus/secrets/
    etcd-certs
    /prometheus $ ls /etc/prometheus/secrets/ -l
    total 0
    drwxrwsrwt    3 root     2000           140 Jun 27 04:59 etcd-certs
    /prometheus $ ls /etc/prometheus/secrets/etcd-certs/ -l
    total 0
    lrwxrwxrwx    1 root     root            13 Jun 27 04:59 ca.pem -> ..data/ca.pem
    lrwxrwxrwx    1 root     root            21 Jun 27 04:59 server-key.pem -> ..data/server-key.pem
    lrwxrwxrwx    1 root     root            17 Jun 27 04:59 server.pem -> ..data/server.pem
    

    創建 ServiceMonitor

    現在 Prometheus 訪問 etcd 集群的證書已經準備好了,接下來創建 ServiceMonitor 對象即可(prometheus-serviceMonitorEtcd.yaml)

    $ vim prometheus-serviceMonitorEtcd.yaml
    apiVersion: monitoring.coreos.com/v1
    kind: ServiceMonitor
    metadata:
      name: etcd-k8s
      namespace: monitoring
      labels:
        k8s-app: etcd-k8s
    spec:
      jobLabel: k8s-app
      endpoints:
      - port: port
        interval: 30s
        scheme: https
        tlsConfig:
          caFile: /etc/prometheus/secrets/etcd-certs/ca.pem
          certFile: /etc/prometheus/secrets/etcd-certs/server.pem
          keyFile: /etc/prometheus/secrets/etcd-certs/server-key.pem
          insecureSkipVerify: true
      selector:
        matchLabels:
          k8s-app: etcd
      namespaceSelector:
        matchNames:
        - kube-system
    
    $ kubectl apply -f prometheus-serviceMonitorEtcd.yaml    
    
    

    上面我們在 monitoring 命名空間下面創建了名為 etcd-k8s 的 ServiceMonitor
    對象,匹配 kube-system 這個命名空間下面的具有 k8s-app=etcd 這個 label 標籤的
    Service,jobLabel 表示用於檢索 job 任務名稱的標籤,和前面不太一樣的地方是 endpoints 屬性的寫法,配置上訪問
    etcd 的相關證書,endpoints 屬性下面可以配置很多抓取的參數,比如 relabel、proxyUrl,tlsConfig
    表示用於配置抓取監控數據端點的 tls 認證,由於證書 serverName 和 etcd 中籤發的可能不匹配,所以加上了
    insecureSkipVerify=true

    創建 Service

    ServiceMonitor 創建完成了,但是現在還沒有關聯的對應的 Service 對象,所以需要我們去手動創建一個 Service 對象(prometheus-etcdService.yaml):

    $ vim prometheus-etcdService.yaml
    apiVersion: v1
    kind: Service
    metadata:
      name: etcd-k8s
      namespace: kube-system
      labels:
        k8s-app: etcd
    spec:
      type: ClusterIP
      clusterIP: None
      ports:
      - name: port
        port: 2379
        protocol: TCP
    
    ---
    apiVersion: v1
    kind: Endpoints
    metadata:
      name: etcd-k8s
      namespace: kube-system
      labels:
        k8s-app: etcd
    subsets:
    - addresses:
      - ip: 10.10.10.128
      - ip: 10.10.10.129
      - ip: 10.10.10.130    
      ports:
      - name: port
        port: 2379
        protocol: TCP
    
    $ kubectl apply -f prometheus-etcdService.yaml
    
    

    等待一會兒就可以看到 target 已經包含了

    數據採集到后,可以在 grafana 中導入編號為3070的 dashboard,獲取到 etcd 的監控圖表。

    3.18 為遠端 kubectl 準備管理員證書

    [root@centos7-nginx scripts]# cd ssl/
    [root@centos7-nginx ssl]# cat admin.kubeconfig > ~/.kube/config
    [root@centos7-nginx ssl]# vim ~/.kube/config
    [root@centos7-nginx ssl]# kubectl get cs
    NAME                 STATUS    MESSAGE             ERROR
    scheduler            Healthy   ok
    controller-manager   Healthy   ok
    etcd-2               Healthy   {"health":"true"}
    etcd-0               Healthy   {"health":"true"}
    etcd-1               Healthy   {"health":"true"}
    

    3.19 給節點打上角色標籤

    默認裝完在角色這列显示 <none>

    [root@centos7-nginx ~]# kubectl get nodes
    NAME        STATUS   ROLES    AGE   VERSION
    centos7-a   Ready    <none>   32h   v1.18.3
    centos7-b   Ready    <none>   32h   v1.18.3
    centos7-c   Ready    <none>   32h   v1.18.3
    centos7-d   Ready    <none>   21m   v1.18.3
    centos7-e   Ready    <none>   20m   v1.18.3
    

    執行如下命令即可:

    [root@centos7-nginx ~]# kubectl label nodes centos7-a node-role.kubernetes.io/master=
    node/centos7-a labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-b node-role.kubernetes.io/master=
    node/centos7-b labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-c node-role.kubernetes.io/master=
    node/centos7-c labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-d node-role.kubernetes.io/node=
    node/centos7-d labeled
    [root@centos7-nginx ~]# kubectl label nodes centos7-e node-role.kubernetes.io/node=
    node/centos7-e labeled
    

    再次查看

    [root@centos7-nginx ~]# kubectl get nodes
    NAME        STATUS   ROLES    AGE   VERSION
    centos7-a   Ready    master   32h   v1.18.3
    centos7-b   Ready    master   32h   v1.18.3
    centos7-c   Ready    master   32h   v1.18.3
    centos7-d   Ready    node     23m   v1.18.3
    centos7-e   Ready    node     22m   v1.18.3
    

    3.20 測試在節點上執行維護工作

    驅逐並使節點不可調度

    [root@centos7-nginx scripts]# kubectl drain centos7-d --ignore-daemonsets=true --delete-local-data=true --force=true
    node/centos7-d cordoned
    evicting pod kube-system/coredns-6fdfb45d56-pvnzt
    pod/coredns-6fdfb45d56-pvnzt evicted
    node/centos7-d evicted
    [root@centos7-nginx scripts]# kubectl get nodes
    NAME        STATUS                     ROLES    AGE   VERSION
    centos7-a   Ready                      master   47h   v1.18.3
    centos7-b   Ready                      master   47h   v1.18.3
    centos7-c   Ready                      master   47h   v1.18.3
    centos7-d   Ready,SchedulingDisabled   node     15h   v1.18.3
    centos7-e   Ready                      node     15h   v1.18.3
    

    重新使節點可調度:

    [root@centos7-nginx scripts]# kubectl uncordon centos7-d
    node/centos7-d uncordoned
    [root@centos7-nginx scripts]# kubectl get nodes
    NAME        STATUS   ROLES    AGE   VERSION
    centos7-a   Ready    master   47h   v1.18.3
    centos7-b   Ready    master   47h   v1.18.3
    centos7-c   Ready    master   47h   v1.18.3
    centos7-d   Ready    node     15h   v1.18.3
    centos7-e   Ready    node     15h   v1.18.3
    

    3.21 使 master 節點不運行pod

    master節點最好是不要作為node使用,也不推薦做node節點,

    在該集群中需要打下標籤node-role.kubernetes.io/master=:NoSchedule才能實現

    [root@centos7-nginx scripts]# kubectl taint nodes centos7-a  node-role.kubernetes.io/master=:NoSchedule
    node/centos7-a tainted
    [root@centos7-nginx scripts]# kubectl taint nodes centos7-b  node-role.kubernetes.io/master=:NoSchedule
    node/centos7-b tainted
    [root@centos7-nginx scripts]# kubectl taint nodes centos7-c  node-role.kubernetes.io/master=:NoSchedule
    node/centos7-c tainted
    

    部署一個 nginx 的 deploy 進行驗證

    # 創建一個 deployment
    [root@centos7-nginx scripts]# kubectl create deployment nginx-dns --image=nginx
    deployment.apps/nginx-dns created
    # 修改副本數為 3
    [root@centos7-nginx scripts]# kubectl patch deployment nginx-dns -p '{"spec":{"replicas":3}}'
    deployment.apps/nginx-dns patched
    # 查看位置分佈
    [root@centos7-nginx scripts]# kubectl get pods -o wide
    NAME                         READY   STATUS              RESTARTS   AGE    IP             NODE        NOMINATED NODE   READINESS GATES
    busybox                      1/1     Running             0          14m    10.244.3.113   centos7-d   <none>           <none>
    nginx-dns-5c6b6b99df-6k4qv   1/1     Running             0          2m8s   10.244.3.116   centos7-d   <none>           <none>
    nginx-dns-5c6b6b99df-88lcr   0/1     ContainerCreating   0          6s     <none>         centos7-d   <none>           <none>
    nginx-dns-5c6b6b99df-c2nnc   0/1     ContainerCreating   0          6s     <none>         centos7-e   <none>           <none>
    

    如果需要把master當node:

    kubectl taint nodes centos7-a node-role.kubernetes.io/master-
    

    4 FAQ

    4.1 解決無法查詢pods日誌問題

    [root@centos7-b cfg]# kubectl exec -it nginx -- bash
    error: unable to upgrade connection: Forbidden (user=kubernetes, verb=create, resource=nodes, subresource=proxy)
    [root@centos7-b cfg]# kubectl logs -f nginx
    Error from server (Forbidden): Forbidden (user=kubernetes, verb=get, resource=nodes, subresource=proxy) ( pods/log nginx)
    
    $ vim ~/yaml/apiserver-to-kubelet-rbac.yml
    
    kind: ClusterRoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: kubelet-api-admin
    subjects:
    - kind: User
      name: kubernetes
      apiGroup: rbac.authorization.k8s.io
    roleRef:
      kind: ClusterRole
      name: system:kubelet-api-admin
      apiGroup: rbac.authorization.k8s.io
    
    # 應用
    $ kubectl apply -f ~/yaml/apiserver-to-kubelet-rbac.yml
    
    [root@centos7-a ~]# kubectl logs -f nginx
    /docker-entrypoint.sh: /docker-entrypoint.d/ is not empty, will attempt to perform configuration
    /docker-entrypoint.sh: Looking for shell scripts in /docker-entrypoint.d/
    /docker-entrypoint.sh: Launching /docker-entrypoint.d/10-listen-on-ipv6-by-default.sh
    10-listen-on-ipv6-by-default.sh: Getting the checksum of /etc/nginx/conf.d/default.conf
    10-listen-on-ipv6-by-default.sh: Enabled listen on IPv6 in /etc/nginx/conf.d/default.conf
    /docker-entrypoint.sh: Launching /docker-entrypoint.d/20-envsubst-on-templates.sh
    /docker-entrypoint.sh: Configuration complete; ready for start up
    10.244.2.1 - - [17/Jun/2020:02:45:59 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-"
    10.244.2.1 - - [17/Jun/2020:02:46:09 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-"
    10.244.2.1 - - [17/Jun/2020:02:46:12 +0000] "HEAD / HTTP/1.1" 200 0 "-" "curl/7.29.0" "-"
    10.244.2.1 - - [17/Jun/2020:02:46:13 +0000] "HEAD / HTTP/1.1" 200 0 "-" "curl/7.29.0" "-"
    

    5 參考

    Prometheus Operator 監控 etcd 集群: https://www.qikqiak.com/post/prometheus-operator-monitor-etcd/

    Kubernetes v1.18.2 二進制高可用部署: https://www.yp14.cn/2020/05/19/Kubernetes-v1-18-2-二進制高可用部署/

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※想知道最厲害的網頁設計公司"嚨底家"!

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※別再煩惱如何寫文案,掌握八大原則!

  • 台灣團隊以《海洋危機》出席全球最大桌遊展

    摘錄自2019年11月4日自由時報報導

    全球最大桌上遊戲大會「德國埃森桌遊展(SPIEL)」上月下旬開展時,台灣業者獨闖,靠實力獲邀參與官方論壇主講「環境友善」議題,直接正名Taiwan登上官網與活動介紹,不是以China(中國)或Chinese Taipei(中華台北)名稱參與,更透過桌遊,將台灣文化輸出全世界。

    獨立遊戲出版業者「綿羊犬百寶箱」公司負責人林啟維表示,SPIEL桌遊展是全球最大,展期是上月24至27日,今年便8月收到該展邀請,希望出席大會在上月26日舉辦的官方論壇活動,主講「環境友善」議題,便將今年開發的《海洋危機》獲台灣逾600間學校使用的經驗,到場分享。

    林啟維說,論壇中看見德國遊戲市場與亞洲新興市場的差異,永續話題也在當場彼此交鋒,但結束後卻有不少德國、荷蘭等地學校老師、環境工作者現身,指定購買台灣桌遊,另外過去也開發台灣內容的《史前歷險紀》,不少外國人玩完才發現是台灣史前文化,同樣把台灣文化輸出海外。

    林啟維認為,「用熱情、專業將自己手邊的事情做好,當機會來臨,我們就會被看見。」而桌遊設計領域,一直由自由派的創作者們領導著,而台灣在遊戲設計與市場成熟度,也大大領先中國,因此這次論壇無任何政治干預,讓自已不僅代表台灣,也更代表東亞桌遊開發與應用的精神,未來將繼續努力,持續在國際舞台綻放。

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【【其他文章推薦】

    ※帶您來了解什麼是 USB CONNECTOR  ?

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    ※如何讓商品強力曝光呢? 網頁設計公司幫您建置最吸引人的網站,提高曝光率!

    ※綠能、環保無空污,成為電動車最新代名詞,目前市場使用率逐漸普及化

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※教你寫出一流的銷售文案?

  • 空污太嚴重 印度最高法院諭令禁焚農作物殘梗

    摘錄自2019年11月5日中央社外電報導

    有鑑於空汙嚴重,印度最高法院今天(5 日)下令首都新德里周邊地區全面停止焚燒農作物殘梗。法院指出,新德里居民持續因為空汙喪失寶貴生命歲月,「這根本不該發生在文明國家」。倘若禁令未貫徹執行,整個行政和警察體系都會被追究責任。

    儘管焚燒農作物殘梗已屬非法,許多經濟困窘農民表示,他們別無其他選擇。印度政府曾試圖杜絕農民這個習慣,例如補助購買排除焚燒農作物殘梗必要性的設備,但效果不彰。此外,農民也可將殘梗轉化為生質能源團塊等較具實用價值物品,但成本偏高。

    氣候政策研究員、「印度大霧霾」」(The Great Smog of India,暫譯)一書作者辛赫(Siddharth Singh)表示,政府應採取作為,賦予農作殘餘物價值,例如出資採購並以乾淨方式焚燒。

    不過,印度智庫「政策研究中心」(Centre for Policy Research)研究員哈里希(Santosh Harish)認為,焚燒農作物對空汙的「貢獻」被高估了。

    哈里希指出:「過去幾週,殘梗焚燒確實(對空汙形成)扮演重要角色,占比約40%,但我認為新德里市長高估農民能耐,對新德里境內空汙來源卻輕描淡寫…若新德里全面推卸責任,他們就搞錯重點了。」

    根據哈里希的說法,新德里空汙危機的主要成因是交通運輸工具、工業設施和發電廠所排放廢氣,另外還有施工粉塵。此外,嚴重空汙範圍已超越首都區,涵蓋印度北部多數地區。

    根據環保組織「綠色和平」(Greenpeace)3月發布的報告,全球汙染程度最高的30座城市中,印度就包辦其中22座。新德里市長克里瓦爾(Arvind Kejriwal)上週表示,新德里已成「毒氣室」,罪魁禍首就是「焚燒農作物產生的煙霧」。

    新德里的空汙情形在3日急遽惡化,細懸浮微粒(PM2.5)濃度達近3年新高,接近每立方公尺1000微克,而世界衛生組織(WHO)建議的每日最高安全上限為每立方公尺25微克。空汙嚴重甚至導致飛機航班被迫延誤或改變起降地點,各級學校也關閉;經濟條件佳的居民多選擇待在有空氣清淨機運轉的住家裡。

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※為什麼 USB CONNECTOR 是電子產業重要的元件?

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※台北網頁設計公司全省服務真心推薦

    ※想知道最厲害的網頁設計公司"嚨底家"!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※推薦評價好的iphone維修中心

  • Golang 網絡編程

    Golang 網絡編程

    目錄

    • TCP網絡編程
    • UDP網絡編程
    • Http網絡編程
    • 理解函數是一等公民
    • HttpServer源碼閱讀
      • 註冊路由
      • 啟動服務
      • 處理請求
    • HttpClient源碼閱讀
      • DemoCode
      • 整理思路
      • 重要的struct
      • 流程
      • transport.dialConn
      • 發送請求

    TCP網絡編程

    存在的問題:

    • 拆包:
      • 對發送端來說應用程序寫入的數據遠大於socket緩衝區大小,不能一次性將這些數據發送到server端就會出現拆包的情況。
      • 通過網絡傳輸的數據包最大是1500字節,當TCP報文的長度 - TCP頭部的長度 > MSS(最大報文長度時)將會發生拆包,MSS一般長(1460~1480)字節。
    • 粘包:
      • 對發送端來說:應用程序發送的數據很小,遠小於socket的緩衝區的大小,導致一個數據包裏面有很多不通請求的數據。
      • 對接收端來說:接收數據的方法不能及時的讀取socket緩衝區中的數據,導致緩衝區中積壓了不同請求的數據。

    解決方法:

    • 使用帶消息頭的協議,在消息頭中記錄數據的長度。
    • 使用定長的協議,每次讀取定長的內容,不夠的使用空格補齊。
    • 使用消息邊界,比如使用 \n 分隔 不同的消息。
    • 使用諸如 xml json protobuf這種複雜的協議。

    實驗:使用自定義協議

    整體的流程:

    客戶端:發送端連接服務器,將要發送的數據通過編碼器編碼,發送。

    服務端:啟動、監聽端口、接收連接、將連接放在協程中處理、通過解碼器解碼數據。

    	//###########################
    //######  Server端代碼  ###### 
    //###########################
    
    func main() {
    	// 1. 監聽端口 2.accept連接 3.開goroutine處理連接
    	listen, err := net.Listen("tcp", "0.0.0.0:9090")
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    	for{
    		conn, err := listen.Accept()
    		if err != nil {
    			fmt.Printf("Fail listen.Accept : %v", err)
    			continue
    		}
    		go ProcessConn(conn)
    	}
    }
    
    // 處理網絡請求
    func ProcessConn(conn net.Conn) {
    	defer conn.Close()
    	for  {
    		bt,err:=coder.Decode(conn)
    		if err != nil {
    			fmt.Printf("Fail to decode error [%v]", err)
    			return
    		}
    		s := string(bt)
    		fmt.Printf("Read from conn:[%v]\n",s)
    	}
    }
    
    //###########################
    //######  Clinet端代碼  ###### 
    //###########################
    func main() {
    	conn, err := net.Dial("tcp", ":9090")
    	defer conn.Close()
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    
    	// 將數據編碼併發送出去
    	coder.Encode(conn,"hi server i am here");
    }
    
    //###########################
    //######  編解碼器代碼  ###### 
    //###########################
    /**
     * 	解碼:
     */
    func Decode(reader io.Reader) (bytes []byte, err error) {
    	// 先把消息頭讀出來
    	headerBuf := make([]byte, len(msgHeader))
    	if _, err = io.ReadFull(reader, headerBuf); err != nil {
    		fmt.Printf("Fail to read header from conn error:[%v]", err)
    		return nil, err
    	}
    	// 檢驗消息頭
    	if string(headerBuf) != msgHeader {
    		err = errors.New("msgHeader error")
    		return nil, err
    	}
    	// 讀取實際內容的長度
    	lengthBuf := make([]byte, 4)
    	if _, err = io.ReadFull(reader, lengthBuf); err != nil {
    		return nil, err
    	}
    	contentLength := binary.BigEndian.Uint32(lengthBuf)
    	contentBuf := make([]byte, contentLength)
    	// 讀出消息體
    	if _, err := io.ReadFull(reader, contentBuf); err != nil {
    		return nil, err
    	}
    	return contentBuf, err
    }
    
    /**
     *  編碼
     *  定義消息的格式: msgHeader + contentLength + content
     *  conn 本身實現了 io.Writer 接口
     */
    func Encode(conn io.Writer, content string) (err error) {
    	// 寫入消息頭
    	if err = binary.Write(conn, binary.BigEndian, []byte(msgHeader)); err != nil {
    		fmt.Printf("Fail to write msgHeader to conn,err:[%v]", err)
    	}
    	// 寫入消息體長度
    	contentLength := int32(len([]byte(content)))
    	if err = binary.Write(conn, binary.BigEndian, contentLength); err != nil {
    		fmt.Printf("Fail to write contentLength to conn,err:[%v]", err)
    	}
    	// 寫入消息
    	if err = binary.Write(conn, binary.BigEndian, []byte(content)); err != nil {
    		fmt.Printf("Fail to write content to conn,err:[%v]", err)
    	}
    	return err
    
    

    客戶端的conn一直不被Close 有什麼表現?

    四次揮手各個狀態的如下:

    主從關閉方						被動關閉方
    established					established
    Fin-wait1					
    										closeWait
    Fin-wait2
    Tiem-wait						lastAck
    Closed							Closed
    

    如果客戶端的連接手動的關閉,它和服務端的狀態會一直保持established建立連接中的狀態。

    MacBook-Pro% netstat -aln | grep 9090
    tcp4       0      0  127.0.0.1.9090         127.0.0.1.62348        ESTABLISHED
    tcp4       0      0  127.0.0.1.62348        127.0.0.1.9090         ESTABLISHED
    tcp46      0      0  *.9090                 *.*                    LISTEN
    

    服務端的conn一直不被關閉 有什麼表現?

    客戶端的進程結束后,會發送fin數據包給服務端,向服務端請求斷開連接。

    服務端的conn不關閉的話,服務端就會停留在四次揮手的close_wait階段(我們不手動Close,服務端就任務還有數據/任務沒處理完,因此它不關閉)。

    客戶端停留在 fin_wait2的階段(在這個階段等着服務端告訴自己可以真正斷開連接的消息)。

    MacBook-Pro% netstat -aln | grep 9090
    tcp4       0      0  127.0.0.1.9090         127.0.0.1.62888        CLOSE_WAIT
    tcp4       0      0  127.0.0.1.62888        127.0.0.1.9090         FIN_WAIT_2
    tcp46      0      0  *.9090                 *.*                    LISTEN
    

    什麼是binary.BigEndian?什麼是binary.LittleEndian?

    對計算機來說一切都是二進制的數據,BigEndian和LittleEndian描述的就是二進制數據的字節順序。計算機內部,小端序被廣泛應用於現代性 CPU 內部存儲數據;大端序常用於網絡傳輸和文件存儲。

    比如:

    一個數的二進製表示為 	 0x12345678
    BigEndian   表示為: 0x12 0x34 0x56 0x78 
    LittleEndian表示為: 0x78 0x56 0x34 0x12
    

    UDP網絡編程

    思路:

    UDP服務器:1、監聽 2、循環讀取消息 3、回複數據。

    UDP客戶端:1、連接服務器 2、發送消息 3、接收消息。

    // ################################
    // ######## UDPServer #########
    // ################################
    func main() {
    	// 1. 監聽端口 2.accept連接 3.開goroutine處理連接
    	listen, err := net.Listen("tcp", "0.0.0.0:9090")
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    	for{
    		conn, err := listen.Accept()
    		if err != nil {
    			fmt.Printf("Fail listen.Accept : %v", err)
    			continue
    		}
    		go ProcessConn(conn)
    	}
    }
    
    // 處理網絡請求
    func ProcessConn(conn net.Conn) {
    	defer conn.Close()
    	for  {
    		bt,err:= coder.Decode(conn)
    		if err != nil {
    			fmt.Printf("Fail to decode error [%v]", err)
    			return
    		}
    		s := string(bt)
    		fmt.Printf("Read from conn:[%v]\n",s)
    	}
    }
    
    // ################################
    // ######## UDPClient #########
    // ################################
    func main() {
    
    	udpConn, err := net.DialUDP("udp", nil, &net.UDPAddr{
    		IP:   net.IPv4(127, 0, 0, 1),
    		Port: 9091,
    	})
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    
    	_, err = udpConn.Write([]byte("i am udp client"))
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    	bytes:=make([]byte,1024)
    	num, addr, err := udpConn.ReadFromUDP(bytes)
    	if err != nil {
    		fmt.Printf("Fail to read from udp error: [%v]", err)
    		return
    	}
    	fmt.Printf("Recieve from udp address:[%v], bytes:[%v], content:[%v]",addr,num,string(bytes))
    }
    

    Http網絡編程

    思路整理:

    HttpServer:1、創建路由器。2、為路由器綁定路由規則。3、創建服務器、監聽端口。 4啟動讀服務。

    HttpClient: 1、創建連接池。2、創建客戶端,綁定連接池。3、發送請求。4、讀取響應。

    func main() {
    	mux := http.NewServeMux()
    	mux.HandleFunc("/login", doLogin)
    	server := &http.Server{
    		Addr:         ":8081",
    		WriteTimeout: time.Second * 2,
    		Handler:      mux,
    	}
    	log.Fatal(server.ListenAndServe())
    }
    
    func doLogin(writer http.ResponseWriter,req *http.Request){
    	_, err := writer.Write([]byte("do login"))
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    }
    

    HttpClient端

    func main() {
    	transport := &http.Transport{
        // 撥號的上下文
    		DialContext: (&net.Dialer{
    			Timeout:   30 * time.Second, // 撥號建立連接時的超時時間
    			KeepAlive: 30 * time.Second, // 長連接存活的時間
    		}).DialContext,
        // 最大空閑連接數
    		MaxIdleConns:          100,  
        // 超過最大的空閑連接數的連接,經過 IdleConnTimeout時間後會失效
    		IdleConnTimeout:       10 * time.Second, 
        // https使用了SSL安全證書,TSL是SSL的升級版
        // 當我們使用https時,這行配置生效
    		TLSHandshakeTimeout:   10 * time.Second, 
    		ExpectContinueTimeout: 1 * time.Second,  // 100-continue 狀態碼超時時間
    	}
    
    	// 創建客戶端
    	client := &http.Client{
    		Timeout:   time.Second * 10, //請求超時時間
    		Transport: transport,
    	}
    
    	// 請求數據
    	res, err := client.Get("http://localhost:8081/login")
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    	defer res.Body.Close()
    
    	bytes, err := ioutil.ReadAll(res.Body)
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    	fmt.Printf("Read from http server res:[%v]", string(bytes))
    }
    

    理解函數是一等公民

    點擊查看在github中函數相關的筆記

    在golang中函數是一等公民,我們可以把一個函數當作普通變量一樣使用。

    比如我們有個函數HelloHandle,我們可以直接使用它。

    func HelloHandle(name string, age int) {
    	fmt.Printf("name:[%v] age:[%v]", name, age)
    }
    
    func main() {
      HelloHandle("tom",12)
    }
    

    閉包

    如何理解閉包:閉包本質上是一個函數,而且這個函數會引用它外部的變量,如下例子中的f3中的匿名函數本身就是一個閉包。 通常我們使用閉包起到一個適配的作用。

    例1:

    // f2是一個普通函數,有兩個入參數
    func f2() {
    	fmt.Printf("f2222")
    }
    
    // f1函數的入參是一個f2類型的函數
    func f1(f2 func()) {
    	f2()
    }
    
    func main() {
      // 由於golang中函數是一等公民,所以我們可以把f2同普通變量一般傳遞給f1
    	f1(f2)
    }
    

    例2: 在上例中更進一步。f2有了自己的參數, 這時就不能直接把f2傳遞給f1了。

    總不能傻傻的這樣吧f1(f2(1,2)) ???

    而閉包就能解決這個問題。

    // f2是一個普通函數,有兩個入參數
    func f2(x int, y int) {
    	fmt.Println("this is f2 start")
    	fmt.Printf("x: %d y: %d \n", x, y)
    	fmt.Println("this is f2 end")
    }
    
    // f1函數的入參是一個f2類型的函數
    func f1(f2 func()) {
    	fmt.Println("this is f1 will call f2")
    	f2()
    	fmt.Println("this is f1 finished call f2")
    }
    
    // 接受一個兩個參數的函數, 返回一個包裝函數
    func f3(f func(int,int) ,x,y int) func() {
    	fun := func() {
    		f(x,y)
    	}
    	return fun
    }
    
    func main() {
    	// 目標是實現如下的傳遞與調用
    	f1(f3(f2,6,6))
    }
    

    實現方法的回調:

    下面的例子中實現這樣的功能:就好像是我設計了一個框架,定好了整個框架運轉的流程(或者說是提供了一個編程模版),框架具體做事的函數你根據自己的需求自己實現,我的框架只是負責幫你回調你具體的方法。

    // 自定義類型,handler本質上是一個函數
    type HandlerFunc func(string, int)
    
    // 閉包
    func (f HandlerFunc) Serve(name string, age int) {
    	f(name, age)
    }
    
    // 具體的處理函數
    func HelloHandle(name string, age int) {
    	fmt.Printf("name:[%v] age:[%v]", name, age)
    }
    
    func main() {
      // 把HelloHandle轉換進自定義的func中
    	handlerFunc := HandlerFunc(HelloHandle)
      // 本質上會去回調HelloHandle方法
    	handlerFunc.Serve("tom", 12)
      
      // 上面兩行效果 == 下面這行
      // 只不過上面的代碼是我在幫你回調,下面的是你自己主動調用
      HelloHandle("tom",12)
    }
    

    HttpServer源碼閱讀

    註冊路由

    直觀上看註冊路由這一步,就是它要做的就是將在路由器url pattern和開發者提供的func關聯起來。 很容易想到,它裏面很可能是通過map實現的。

    
    func main() {
    	// 創建路由器
    	// 為路由器綁定路由規則
    	mux := http.NewServeMux()
    	mux.HandleFunc("/login", doLogin)
    	...
    }
    
    func doLogin(writer http.ResponseWriter,req *http.Request){
    	_, err := writer.Write([]byte("do login"))
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    }
    

    姑且將ServeMux當作是路由器。我們使用http包下的 NewServerMux 函數創建一個新的路由器對象,進而使用它的HandleFunc(pattern,func)函數完成路由的註冊。

    跟進NewServerMux函數,可以看到,它通過new函數返回給我們一個ServeMux結構體。

    func NewServeMux() *ServeMux {
      return new(ServeMux) 
    }
    

    這個ServeMux結構體長下面這樣:在這個ServeMux結構體中我們就看到了這個維護pattern和func的map

    type ServeMux struct {
    	mu    sync.RWMutex 
    	m     map[string]muxEntry
    	hosts bool // whether any patterns contain hostnames
    }
    

    這個muxEntry長下面這樣:

    type muxEntry struct {
    	h       Handler
    	pattern string
    }
    
    type Handler interface {
    	ServeHTTP(ResponseWriter, *Request)
    }
    

    看到這裏問題就來了,上面我們手動註冊進路由器中的僅僅是一個有規定參數的方法,到這裏怎麼成了一個Handle了?我們也沒有說去手動的實現Handler這個接口,也沒有重寫ServeHTTP函數啊, 在golang中實現一個接口不得像下面這樣搞嗎?**

    type Handle interface {
    	Serve(string, int, string)
    }
    
    type HandleImpl struct {
    
    }
    
    func (h HandleImpl)Serve(string, int, string){
    
    }
    

    帶着這個疑問看下面的方法:

    	// 由於函數是一等公民,故我們將doLogin函數同普通變量一樣當做入參傳遞進去。
     	mux.HandleFunc("/login", doLogin)
    
      func doLogin(writer http.ResponseWriter,req *http.Request){
        ...
    	}
    

    跟進去看 HandleFunc 函數的實現:

    首先:HandleFunc函數的第二個參數是接收的函數的類型和doLogin函數的類型是一致的,所以doLogin能正常的傳遞進HandleFunc中。

    其次:我們的關注點應該是下面的HandlerFunc(handler)

    // HandleFunc registers the handler function for the given pattern.
    func (mux *ServeMux) HandleFunc(pattern string, handler func(ResponseWriter, *Request)) {
    	if handler == nil {
    		panic("http: nil handler")
    	}
    	mux.Handle(pattern, HandlerFunc(handler))
    }
    

    跟進這個HandlerFunc(handler) 看到下圖,真相就大白於天下了。golang以一種優雅的方式悄無聲息的為我們完成了一次適配。這麼看來上面的HandlerFunc(handler)並不是函數的調用,而是doLogin轉換成自定義類型。這個自定義類型去實現了Handle接口(因為它重寫了ServeHTTP函數)以閉包的形式完美的將我們的doLogin適配成了Handle類型。

    在往下看Handle方法:

    第一:將pattern和handler註冊進map中

    第二:為了保證整個過程的併發安全,使用鎖保護整個過程。

    // Handle registers the handler for the given pattern.
    // If a handler already exists for pattern, Handle panics.
    func (mux *ServeMux) Handle(pattern string, handler Handler) {
    	mux.mu.Lock()
    	defer mux.mu.Unlock()
    
    	if pattern == "" {
    		panic("http: invalid pattern")
    	}
    	if handler == nil {
    		panic("http: nil handler")
    	}
    	if _, exist := mux.m[pattern]; exist {
    		panic("http: multiple registrations for " + pattern)
    	}
    
    	if mux.m == nil {
    		mux.m = make(map[string]muxEntry)
    	}
    	mux.m[pattern] = muxEntry{h: handler, pattern: pattern}
    
    	if pattern[0] != '/' {
    		mux.hosts = true
    	}
    
    

    啟動服務

    概覽圖:

    和java對比着看,在java一組複雜的邏輯會被封裝成一個class。在golang中對應的就是一組複雜的邏輯會被封裝成一個結構體。

    對應HttpServer肯定也是這樣,http服務器在golang的實現中有自己的結構體。它就是http包下的Server。

    它有一系列描述性屬性。如監聽的地址、寫超時時間、路由器。

    	server := &http.Server{
    		Addr:         ":8081",
    		WriteTimeout: time.Second * 2,
    		Handler:      mux,
    	}
    	log.Fatal(server.ListenAndServe())
    

    我們看它啟動服務的函數:server.ListenAndServe()

    實現的邏輯是使用net包下的Listen函數,獲取給定地址上的tcp連接。

    再將這個tcp連接封裝進 tcpKeepAliveListenner 結構體中。

    在將這個tcpKeepAliveListenner丟進Server的Serve函數中處理

    // ListenAndServe 會監聽開發者給定網絡地址上的tcp連接,當有請求到來時,會調用Serve函數去處理這個連接。
    // 它接收到所有連接都使用 TCP keep-alives相關的配置
    // 
    // 如果構造Server時沒有指定Addr,他就會使用默認值: “:http”
    // 
    // 當Server ShutDown或者是Close,ListenAndServe總是會返回一個非nil的error。
    // 返回的這個Error是 ErrServerClosed
    func (srv *Server) ListenAndServe() error {
    	if srv.shuttingDown() {
    		return ErrServerClosed
    	}
    	addr := srv.Addr
    	if addr == "" {
    		addr = ":http"
    	}
      // 底層藉助於tcp實現
    	ln, err := net.Listen("tcp", addr)
    	if err != nil {
    		return err
    	}
    	return srv.Serve(tcpKeepAliveListener{ln.(*net.TCPListener)})
    }
    
    // tcpKeepAliveListener會為TCP設置一個keep-alive 超時時長。
    // 它通常被 ListenAndServe 和 ListenAndServeTLS使用。
    // 它保證了已經dead的TCP最終都會消失。
    type tcpKeepAliveListener struct {
    	*net.TCPListener
    }
    

    接着去看看Serve方法,上一個函數中獲取到了一個基於tcp的Listener,從這個Listener中可以不斷的獲取出新的連接,下面的方法中使用無限for循環完成這件事。conn獲取到后將連接封裝進httpConn,為了保證不阻塞下一個連接到到來,開啟新的goroutine處理這個http連接。

    func (srv *Server) Serve(l net.Listener) error {
      // 如果有一個包裹了 srv 和 listener 的鈎子函數,就執行它
    	if fn := testHookServerServe; fn != nil {
    		fn(srv, l) // call hook with unwrapped listener
    	}
    	
      // 將tcp的Listener封裝進onceCloseListener,保證連接不會被關閉多次。
    	l = &onceCloseListener{Listener: l}
    	defer l.Close()
     
      // http2相關的配置
    	if err := srv.setupHTTP2_Serve(); err != nil {
    		return err
    	}
    
    	if !srv.trackListener(&l, true) {
    		return ErrServerClosed
    	}
    	defer srv.trackListener(&l, false)
    	
      // 如果沒有接收到請求睡眠多久
    	var tempDelay time.Duration     // how long to sleep on accept failure
    	baseCtx := context.Background() // base is always background, per Issue 16220
    	ctx := context.WithValue(baseCtx, ServerContextKey, srv)
      // 開啟無限循環,嘗試從Listenner中獲取連接。
    	for {
    		rw, e := l.Accept()
        // accpet過程中發生錯屋
    		if e != nil {
    			select {
            // 如果從server的doneChan中可以獲取內容,返回Server關閉了
    			case <-srv.getDoneChan():
    				return ErrServerClosed
    			default:
    			}
          // 如果發生了 net.Error 並且是臨時的錯誤就睡5毫秒,再發生錯誤睡眠的時間*2,上線是1s
    			if ne, ok := e.(net.Error); ok && ne.Temporary() {
    				if tempDelay == 0 {
    					tempDelay = 5 * time.Millisecond
    				} else {
    					tempDelay *= 2
    				}
    				if max := 1 * time.Second; tempDelay > max {
    					tempDelay = max
    				}
    				srv.logf("http: Accept error: %v; retrying in %v", e, tempDelay)
    				time.Sleep(tempDelay)
    				continue
    			}
    			return e
    		}
        // 如果沒有發生錯誤,清空睡眠的時間
    		tempDelay = 0
        // 將接收到連接封裝進httpConn
    		c := srv.newConn(rw)
    		c.setState(c.rwc, StateNew) // before Serve can return
        // 開啟一條新的協程處理這個連接
    		go c.serve(ctx)
    	}
    }
    

    處理請求

    c.serve(ctx)中就會去解析http相關的報文信息~,將http報文解析進Request結構體中。

    部分代碼如下:

    		// 將 server 包裹為 serverHandler 的實例,執行它的 ServeHTTP 方法,處理請求,返迴響應。
    		// serverHandler 委託給 server 的 Handler 或者 DefaultServeMux(默認路由器)
    		// 來處理 "OPTIONS *" 請求。
    		serverHandler{c.server}.ServeHTTP(w, w.req)
    
    // serverHandler delegates to either the server's Handler or
    // DefaultServeMux and also handles "OPTIONS *" requests.
    type serverHandler struct {
    	srv *Server
    }
    
    func (sh serverHandler) ServeHTTP(rw ResponseWriter, req *Request) {
      // 如果沒有定義Handler就使用默認的
    	handler := sh.srv.Handler
    	if handler == nil {
    		handler = DefaultServeMux
    	}
    	if req.RequestURI == "*" && req.Method == "OPTIONS" {
    		handler = globalOptionsHandler{}
    	}
      // 處理請求,返迴響應。
    	handler.ServeHTTP(rw, req)
    }
    

    可以看到,req中包含了我們前面說的pattern,叫做RequestUri,有了它下一步就知道該回調ServeMux中的哪一個函數。

    HttpClient源碼閱讀

    DemoCode

    func main() {
    	// 創建連接池
    	// 創建客戶端,綁定連接池
    	// 發送請求
    	// 讀取響應
    	transport := &http.Transport{
    		DialContext: (&net.Dialer{
    			Timeout:   30 * time.Second, // 連接超時
    			KeepAlive: 30 * time.Second, // 長連接存活的時間
    		}).DialContext,
        // 最大空閑連接數
    		MaxIdleConns:          100,             
        // 超過最大空閑連接數的連接會在IdleConnTimeout后被銷毀
    		IdleConnTimeout:       10 * time.Second, 
    		TLSHandshakeTimeout:   10 * time.Second, // tls握手超時時間
    		ExpectContinueTimeout: 1 * time.Second,  // 100-continue 狀態碼超時時間
    	}
    
    	// 創建客戶端
    	client := &http.Client{
    		Timeout:   time.Second * 10, //請求超時時間
    		Transport: transport,
    	}
    
    	// 請求數據,獲得響應
    	res, err := client.Get("http://localhost:8081/login")
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    	defer res.Body.Close()
      // 處理數據
    	bytes, err := ioutil.ReadAll(res.Body)
    	if err != nil {
    		fmt.Printf("error : %v", err)
    		return
    	}
    	fmt.Printf("Read from http server res:[%v]", string(bytes))
    }
    

    整理思路

    http.Client的代碼其實是很多的,全部很細的過一遍肯定也會難度,下面可能也是只能提及其中的一部分。

    首先明白一件事,我們編寫的HttpClient是在干什麼?(雖然這個問題很傻,但是總得問一下)是在發送Http請求。

    一般我們在開發的時候,更多的編寫的是HttpServer的代碼。是在處理Http請求, 而不是去發送Http請求,Http請求都是是前端通過ajax經由瀏覽器發送到後端的。

    其次,Http請求實際上是建立在tcp連接之上的,所以如果我們去看http.Client肯定能找到net.Dial("tcp",adds)相關的代碼。

    那也就是說,我們要看看,http.Client是如何在和服務端建立連接、發送數據、接收數據的。

    重要的struct

    http.Client中有機幾個比較重要的struct,如下

    http.Client結構體中封裝了和http請求相關的屬性,諸如 cookie,timeout,redirect以及Transport。

    type Client struct {
    	Transport RoundTripper
    	CheckRedirect func(req *Request, via []*Request) error
    	Jar CookieJar
    	Timeout time.Duration
    }
    

    Tranport實現了RoundTrpper接口:

     type RoundTripper interface {   
      // 1、RoundTrip會去執行一個簡單的 Http Trancation,併為requestt返回一個響應
      // 2、RoundTrip不會嘗試去解析response
      // 3、注意:只要返回了Reponse,無論response的狀態碼是多少,RoundTrip返回的結果:err == nil 
      // 4、RoundTrip將請求發送出去后,如果他沒有獲取到response,他會返回一個非空的err。
      // 5、同樣,RoundTrip不會嘗試去解析諸如重定向、認證、cookie這種更高級的協議。 
      // 6、除了消費和關閉請求體之外,RoundTrip不會修改request的其他字段
      // 7、RoundTrip可以在一個單獨的gorountine中讀取request的部分字段。一直到ResponseBody關閉之前,調用者都不能取消,或者重用這個request
      // 8、RoundTrip始終會保證關閉Body(包含在發生err時)。根據實現的不同,在RoundTrip關閉前,關閉Body這件事可能會在一個單獨的goroutine中去做。這就意味着,如果調用者想將請求體用於後續的請求,必須等待知道發生Close
      // 9、請求的URL和Header字段必須是被初始化的。 
    	RoundTrip(*Request) (*Response, error)
    }
    

    看上面RoundTrpper接口,它裏面只有一個方法RoundTrip,方法的作用就是執行一次Http請求,發送Request然後獲取Response。

    RoundTrpper被設計成了一個支持併發的結構體。

    Transport結構體如下:

    type Transport struct {
    	idleMu     sync.Mutex
       // user has requested to close all idle conns
    	wantIdle   bool
      // Transport的作用就是用來建立一個連接,這個idleConn就是Transport維護的空閑連接池。
    	idleConn   map[connectMethodKey][]*persistConn // most recently used at end
    	idleConnCh map[connectMethodKey]chan *persistConn
    }
    

    其中的connectMethodKey也是結構體:

    type connectMethodKey struct {
      // proxy 代理的URL,當他不為空時,就會一直使用這個key 
      // scheme 協議的類型, http https
      // addr 代理的url,也就是下游的url
    	proxy, scheme, addr string
    }
    

    persistConn是一個具體的連接實例,包含連接的上下文。

    type persistConn struct {
      // alt可選地指定TLS NextProto RoundTripper。 
      // 這用於今天的HTTP / 2和以後的將來的協議。 如果非零,則其餘字段未使用。
    	alt RoundTripper
    	t         *Transport
    	cacheKey  connectMethodKey
    	conn      net.Conn
    	tlsState  *tls.ConnectionState
      // 用於從conn中讀取內容
    	br        *bufio.Reader       // from conn
      // 用於往conn中寫內容
    	bw        *bufio.Writer       // to conn
    	nwrite    int64               // bytes written
      // 他是個chan,roundTrip會將readLoop中的內容寫入到reqch中
    	reqch     chan requestAndChan 
      // 他是個chan,roundTrip會將writeLoop中的內容寫到writech中
    	writech   chan writeRequest  
    	closech   chan struct{}       // closed when conn closed
    

    另外補充一個結構體:Request,他用來描述一次http請求的實例,它定義於http包request.go, 裏面封裝了對Http請求相關的屬性

    type Request struct {
       Method string
       URL *url.URL
       Proto      string // "HTTP/1.0"
       ProtoMajor int    // 1
       ProtoMinor int    // 0
       Header Header
       Body io.ReadCloser
       GetBody func() (io.ReadCloser, error)
       ContentLength int64
       TransferEncoding []string
       Close bool
       Host string
       Form url.Values
       PostForm url.Values
       MultipartForm *multipart.Form
       Trailer Header
       RemoteAddr string
       RequestURI string
       TLS *tls.ConnectionState
       Cancel <-chan struct{}
       Response *Response
       ctx context.Context
    }
    

    這幾個結構體共同完成如下圖所示http.Client的工作流程

    流程

    我們想發送一次Http請求。首先我們需要構造一個Request,Request本質上是對Http協議的描述(因為大家使用的都是Http協議,所以將這個Request發送到HttpServer后,HttpServer能識別並解析它)。

    // 從這行代碼開始往下看
    	res, err := client.Get("http://localhost:8081/login")
    
    // 跟進Get
    	req, err := NewRequest("GET", url, nil)
    	if err != nil {
    		return nil, err
    	}
    	return c.Do(req)
    
    // 跟進Do
    	func (c *Client) Do(req *Request) (*Response, error) {
    	return c.do(req)
     } 
    
    // 跟進do,do函數中有下面的邏輯,可以看到執行完send后已經拿到返回值了。所以我們得繼續跟進send方法
      if resp, didTimeout, err = c.send(req, deadline); err != nil 
    
    // 跟進send方法,可以看到send中還有一send方法,入參分別是:request,tranpost,deadline
    // 到現在為止,我們沒有看到有任何和服務端建立連接的動作發生,但是構造的req和擁有連接池的tranport已經見面了~
    	resp, didTimeout, err = send(req, c.transport(), deadline)
    
    // 繼續跟進這個send方法,看到了調用了rt的RoundTrip方法。
    // 這個rt就是我們編寫HttpClient代碼時創建的,綁定在http.Client上的tranport實例。
    // 這個RoundTrip方法的作用我們在上面已經說過了,最直接的作用就是:發送request 並獲取response。
    	resp, err = rt.RoundTrip(req)
    
    

    但是RoundTrip他是個定義在RoundTripper接口中的抽象方法,我們看代碼肯定是要去看具體的實現嘛
    這裏可以使用斷點調試法:在上面最後一行上打上斷點,會進入到他的具體實現中。從圖中可以看到具體的實現在roundtrip中。

    RoundTrip中調用的函數是我們自定義的transport的roundTrip函數, 跟進去如下:

    緊接着我們需要一個conn,這個conn我們通過Transport可以獲取到。conn的類型為persistConn。

    // roundTrip函數中又一個無限for循環
    for {
        // 檢查請求的上下文是否關閉了
    		select {
    		case <-ctx.Done():
    			req.closeBody()
    			return nil, ctx.Err()
    		default:
    		}
    
        // 對傳遞進來的req進行了有一層的封裝,封裝后的這個treq可以被roundTrip修改,所以每次重試都會新建
    		treq := &transportRequest{Request: req, trace: trace}
    		cm, err := t.connectMethodForRequest(treq)
    		if err != nil {
    			req.closeBody()
    			return nil, err
    		}
    
        // 到這裏真的執行從tranport中獲取和對應主機的連接,這個連接可能是http、https、http代理、http代理的高速緩存, 但是無論如何我們都已經準備好了向這個連接發送treq
        // 這裏獲取出來的連接就是我們在上文中提及的persistConn
    		pconn, err := t.getConn(treq, cm)
    		if err != nil {
    			t.setReqCanceler(req, nil)
    			req.closeBody()
    			return nil, err
    		}
    
    		var resp *Response
    		if pconn.alt != nil {
    			// HTTP/2 path.
    			t.decHostConnCount(cm.key()) // don't count cached http2 conns toward conns per host
    			t.setReqCanceler(req, nil)   // not cancelable with CancelRequest
    			resp, err = pconn.alt.RoundTrip(req)
    		} else {
          
          // 調用persistConn的roundTrip方法,發送treq並獲取響應。
    			resp, err = pconn.roundTrip(treq)
    		}
    		if err == nil {
    			return resp, nil
    		}
    		if !pconn.shouldRetryRequest(req, err) {
    			// Issue 16465: return underlying net.Conn.Read error from peek,
    			// as we've historically done.
    			if e, ok := err.(transportReadFromServerError); ok {
    				err = e.err
    			}
    			return nil, err
    		}
    		testHookRoundTripRetried()
    
    		// Rewind the body if we're able to.  (HTTP/2 does this itself so we only
    		// need to do it for HTTP/1.1 connections.)
    		if req.GetBody != nil && pconn.alt == nil {
    			newReq := *req
    			var err error
    			newReq.Body, err = req.GetBody()
    			if err != nil {
    				return nil, err
    			}
    			req = &newReq
    		}
    	}
    

    整理思路:然後看上面代碼中獲取conn和roundTrip的實現細節。

    我們需要一個conn,這個conn可以通過Transport獲取到。conn的類型為persistConn。但是不管怎麼樣,都得先獲取出 persistConn,才能進一步完成發送請求再得到服務端到響應。

    然後關於這個persistConn結構體其實上面已經提及過了。重新貼在下面

    type persistConn struct {
      // alt可選地指定TLS NextProto RoundTripper。 
      // 這用於今天的HTTP / 2和以後的將來的協議。 如果非零,則其餘字段未使用。
    	alt RoundTripper
      
      conn      net.Conn
    	t         *Transport
    	br        *bufio.Reader  // 用於從conn中讀取內容
    	bw        *bufio.Writer  // 用於往conn中寫內容
      // 他是個chan,roundTrip會將readLoop中的內容寫入到reqch中
    	reqch     chan requestAndChan 
      // 他是個chan,roundTrip會將writeLoop中的內容寫到writech中
      
    	nwrite    int64               // bytes written
    	cacheKey  connectMethodKey
    	tlsState  *tls.ConnectionState
    	writech   chan writeRequest  
    	closech   chan struct{}       // closed when conn closed
    

    跟進 t.getConn(treq, cm)代碼如下:

    	// 先嘗試從空閑緩衝池中取得連接
      // 所謂的空閑緩衝池就是Tranport結構體中的: idleConn map[connectMethodKey][]*persistConn 
      // 入參位置的cm如下:
      /* type connectMethod struct {
          // 代理的url,如果沒有代理的話,這個值為nil
    			proxyURL     *url.URL 
    			
    			// 連接所使用的協議 http、https
    			targetScheme string
          
    	    // 如果proxyURL指定了http代理或者是https代理,並且使用的協議是http而不是https。
    	    // 那麼下面的targetAddr就會不包含在connect method key中。
    	    // 因為socket可以復用不同的targetAddr值
    			targetAddr string
    	}*/
    	t.getIdleConn(cm);
    
    	// 空閑緩衝池有的空閑連接的話返回conn,否則進行如下的select
    	select {
        // todo 這裏我還不確定是在干什麼,目前猜測是這樣的:每個服務器能打開的socket句柄是有限的
        // 每次來獲取鏈接的時候,我們就計數+1。當整體的句柄在Host允許範圍內時我們不做任何干涉~
    		case <-t.incHostConnCount(cmKey):
    			// count below conn per host limit; proceed
        
        // 重新嘗試從空閑連接池中獲取連接,因為可能有的連接使用完后被放回連接池了
    		case pc := <-t.getIdleConnCh(cm):
    			if trace != nil && trace.GotConn != nil {
    				trace.GotConn(httptrace.GotConnInfo{Conn: pc.conn, Reused: pc.isReused()})
    			}
    			return pc, nil
        // 請求是否被取消了
    		case <-req.Cancel:
    			return nil, errRequestCanceledConn
        // 請求的上下文是否Done掉了
    		case <-req.Context().Done():
    			return nil, req.Context().Err()
    		case err := <-cancelc:
    			if err == errRequestCanceled {
    				err = errRequestCanceledConn
    			}
    			return nil, err
    		}
    
    	// 開啟新的gorountine新建連接一個連接
    	go func() {
        /**
        *	新建連接,方法底層封裝了tcp client dial相關的邏輯
        *	conn, err := t.dial(ctx, "tcp", cm.addr())
        *	以及根據不同的targetScheme構建不同的request的邏輯。
        */
        // 獲取到persistConn
    		pc, err := t.dialConn(ctx, cm)
        // 將persistConn寫到chan中
    		dialc <- dialRes{pc, err}
    	}()
    
    	// 再嘗試從空閑連接池中獲取
      idleConnCh := t.getIdleConnCh(cm)
    	select {
      // 如果上面的go協程撥號成功了,這裏就能取出值來
    	case v := <-dialc:
    		// Our dial finished.
    		if v.pc != nil {
    			if trace != nil && trace.GotConn != nil && v.pc.alt == nil {
    				trace.GotConn(httptrace.GotConnInfo{Conn: v.pc.conn})
    			}
    			return v.pc, nil
    		}
    		// Our dial failed. See why to return a nicer error
    		// value.
        // 將Host的連接-1
    		t.decHostConnCount(cmKey)
    		select {
        ...
    
    

    transport.dialConn

    下面代碼中的cm長這樣

    // dialConn是Transprot的方法
    // 入參:context上下文, connectMethod
    // 出參:persisnConn
    func (t *Transport) dialConn(ctx context.Context, cm connectMethod) (*persistConn, error) {
    	// 構建將要返回的 persistConn
      pconn := &persistConn{
    		t:             t,
    		cacheKey:      cm.key(),
    		reqch:         make(chan requestAndChan, 1),
    		writech:       make(chan writeRequest, 1),
    		closech:       make(chan struct{}),
    		writeErrCh:    make(chan error, 1),
    		writeLoopDone: make(chan struct{}),
    	}
    	trace := httptrace.ContextClientTrace(ctx)
    	wrapErr := func(err error) error {
    		if cm.proxyURL != nil {
    			// Return a typed error, per Issue 16997
    			return &net.OpError{Op: "proxyconnect", Net: "tcp", Err: err}
    		}
    		return err
    	}
      
      // 判斷cm中使用的協議是否是https
    	if cm.scheme() == "https" && t.DialTLS != nil {
    		var err error
    		pconn.conn, err = t.DialTLS("tcp", cm.addr())
    		if err != nil {
    			return nil, wrapErr(err)
    		}
    		if pconn.conn == nil {
    			return nil, wrapErr(errors.New("net/http: Transport.DialTLS returned (nil, nil)"))
    		}
    		if tc, ok := pconn.conn.(*tls.Conn); ok {
    			// Handshake here, in case DialTLS didn't. TLSNextProto below
    			// depends on it for knowing the connection state.
    			if trace != nil && trace.TLSHandshakeStart != nil {
    				trace.TLSHandshakeStart()
    			}
    			if err := tc.Handshake(); err != nil {
    				go pconn.conn.Close()
    				if trace != nil && trace.TLSHandshakeDone != nil {
    					trace.TLSHandshakeDone(tls.ConnectionState{}, err)
    				}
    				return nil, err
    			}
    			cs := tc.ConnectionState()
    			if trace != nil && trace.TLSHandshakeDone != nil {
    				trace.TLSHandshakeDone(cs, nil)
    			}
    			pconn.tlsState = &cs
    		}
    	} else {
        // 如果不是https協議就來到這裏,使用tcp向httpserver撥號,獲取一個tcp連接。
    		conn, err := t.dial(ctx, "tcp", cm.addr())
    		if err != nil {
    			return nil, wrapErr(err)
    		}
        // 將獲取到tcp連接交給我們的persistConn維護
    		pconn.conn = conn
        
        // 處理https相關邏輯
    		if cm.scheme() == "https" {
    			var firstTLSHost string
    			if firstTLSHost, _, err = net.SplitHostPort(cm.addr()); err != nil {
    				return nil, wrapErr(err)
    			}
    			if err = pconn.addTLS(firstTLSHost, trace); err != nil {
    				return nil, wrapErr(err)
    			}
    		}
    	}
    
    	// Proxy setup.
    	switch {
      // 如果代理URL為空,不做任何處理  
    	case cm.proxyURL == nil:
    		// Do nothing. Not using a proxy.
      //   
    	case cm.proxyURL.Scheme == "socks5":
    		conn := pconn.conn
    		d := socksNewDialer("tcp", conn.RemoteAddr().String())
    		if u := cm.proxyURL.User; u != nil {
    			auth := &socksUsernamePassword{
    				Username: u.Username(),
    			}
    			auth.Password, _ = u.Password()
    			d.AuthMethods = []socksAuthMethod{
    				socksAuthMethodNotRequired,
    				socksAuthMethodUsernamePassword,
    			}
    			d.Authenticate = auth.Authenticate
    		}
    		if _, err := d.DialWithConn(ctx, conn, "tcp", cm.targetAddr); err != nil {
    			conn.Close()
    			return nil, err
    		}
    	case cm.targetScheme == "http":
    		pconn.isProxy = true
    		if pa := cm.proxyAuth(); pa != "" {
    			pconn.mutateHeaderFunc = func(h Header) {
    				h.Set("Proxy-Authorization", pa)
    			}
    		}
    	case cm.targetScheme == "https":
    		conn := pconn.conn
    		hdr := t.ProxyConnectHeader
    		if hdr == nil {
    			hdr = make(Header)
    		}
    		connectReq := &Request{
    			Method: "CONNECT",
    			URL:    &url.URL{Opaque: cm.targetAddr},
    			Host:   cm.targetAddr,
    			Header: hdr,
    		}
    		if pa := cm.proxyAuth(); pa != "" {
    			connectReq.Header.Set("Proxy-Authorization", pa)
    		}
    		connectReq.Write(conn)
    
    		// Read response.
    		// Okay to use and discard buffered reader here, because
    		// TLS server will not speak until spoken to.
    		br := bufio.NewReader(conn)
    		resp, err := ReadResponse(br, connectReq)
    		if err != nil {
    			conn.Close()
    			return nil, err
    		}
    		if resp.StatusCode != 200 {
    			f := strings.SplitN(resp.Status, " ", 2)
    			conn.Close()
    			if len(f) < 2 {
    				return nil, errors.New("unknown status code")
    			}
    			return nil, errors.New(f[1])
    		}
    	}
    
    	if cm.proxyURL != nil && cm.targetScheme == "https" {
    		if err := pconn.addTLS(cm.tlsHost(), trace); err != nil {
    			return nil, err
    		}
    	}
    
    	if s := pconn.tlsState; s != nil && s.NegotiatedProtocolIsMutual && s.NegotiatedProtocol != "" {
    		if next, ok := t.TLSNextProto[s.NegotiatedProtocol]; ok {
    			return &persistConn{alt: next(cm.targetAddr, pconn.conn.(*tls.Conn))}, nil
    		}
    	}
    
    	if t.MaxConnsPerHost > 0 {
    		pconn.conn = &connCloseListener{Conn: pconn.conn, t: t, cmKey: pconn.cacheKey}
    	}
      
      // 初始化persistConn的bufferReader和bufferWriter
    	pconn.br = bufio.NewReader(pconn) // 可以從上面給pconn維護的tcpConn中讀數據
    	pconn.bw = bufio.NewWriter(persistConnWriter{pconn})// 可以往上面pconn維護的tcpConn中寫數據 
      
      // 新開啟兩條和persistConn相關的go協程。
    	go pconn.readLoop()
    	go pconn.writeLoop()
    	return pconn, nil
    }
    

    上面的兩條goroutine 和 br bw共同完成如下圖的流程

    發送請求

    發送req的邏輯在http包的下的tranport包中的func (t *Transport) roundTrip(req *Request) (*Response, error) {}函數中。

    如下:

    	// 發送treq
    	resp, err = pconn.roundTrip(treq)
    
    	// 跟進roundTrip
      // 可以看到他將一個writeRequest結構體類型的實例寫入了writech中
    	// 而這個writech會被上圖中的writeLoop消費,藉助bufferWriter寫入tcp連接中,完成往服務端數據的發送。
    	pc.writech <- writeRequest{req, writeErrCh, continueCh}
    

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※Google地圖已可更新顯示潭子電動車充電站設置地點!!

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※別再煩惱如何寫文案,掌握八大原則!

  • 在 Spring Boot 中使用 HikariCP 連接池

    在 Spring Boot 中使用 HikariCP 連接池

    上次幫小王解決了如何在 Spring Boot 中使用 JDBC 連接 MySQL 后,我就一直在等,等他問我第三個問題,比如說如何在 Spring Boot 中使用 HikariCP 連接池。但我等了四天也沒有等到任何音訊,似乎他從我的世界里消失了,而我卻仍然沉醉在他拍我馬屁的美妙感覺里。

    突然感覺,沒有小王的日子里,好空虛。怎麼辦呢?想來想去還是寫文章度日吧,积極創作的過程中,也許能夠擺脫對小王的苦苦思念。寫什麼好呢?

    想來想去,就寫如何在 Spring Boot 中使用 HikariCP 連接池吧。畢竟實戰項目當中,肯定不能使用 JDBC,連接池是必須的。而 HikariCP 據說非常的快,快到 Spring Boot 2 默認的數據庫連接池也從 Tomcat 切換到了 HikariCP(喜新厭舊的臭毛病能不能改改)。

    HikariCP 的 GitHub 地址如下:

    https://github.com/brettwooldridge/HikariCP

    目前星標 12K,被使用次數更是達到了 43.1K。再來看看它的自我介紹。

    牛逼的不能行啊,原來 Hikari 來源於日語,“光”的意思,這意味着快得像光速一樣嗎?講真,看簡介的感覺就好像在和我的女神“湯唯”握手一樣刺激和震撼。

    既然 Spring Boot 2 已經默認使用了 HikariCP,那麼使用起來也相當的輕鬆愜意,只需要簡單幾個步驟。

    01、初始化 MySQL 數據庫

    既然要連接 MySQL,那麼就需要先在電腦上安裝 MySQL 服務(本文暫且跳過),並且創建數據庫和表。

    CREATE DATABASE `springbootdemo`;
    DROP TABLE IF EXISTS `mysql_datasource`;
    CREATE TABLE `mysql_datasource` (
      `id` varchar(64NOT NULL,
      PRIMARY KEY (`id`)
    ENGINE=InnoDB DEFAULT CHARSET=utf8;

    02、使用 Spring Initlallzr 創建 Spring Boot 項目

    創建一個 Spring Boot 項目非常簡單,通過 Spring Initlallzr(https://start.spring.io/)就可以了。

    勾選 Web、JDBC、MySQL Driver 等三個依賴。

    1)Web 表明該項目是一個 Web 項目,便於我們直接通過 URL 來實操。

    3)MySQL Driver:連接 MySQL 服務器的驅動器。

    5)JDBC:Spring Boot 2 默認使用了 HikariCP,所以 HikariCP 會默認在 spring-boot-starter-jdbc 中附加依賴,因此不需要主動添加 HikariCP 的依賴。

    PS:怎麼證明這一點呢?項目導入成功后,在 pom.xml 文件中,按住鼠標左鍵 + Ctrl 鍵訪問 spring-boot-starter-jdbc 依賴節點,可在 spring-boot-starter-jdbc.pom 文件中查看到 HikariCP 的依賴信息。

    選項選擇完后,就可以點擊【Generate】按鈕生成一個初始化的 Spring Boot 項目了。生成的是一個壓縮包,導入到 IDE 的時候需要先解壓。

    03、編輯 application.properties 文件

    項目導入成功后,等待 Maven 下載依賴,完成后編輯 application.properties 文件,配置 MySQL 數據源信息。

    spring.datasource.url=jdbc:mysql://127.0.0.1:3306/springbootdemo?useUnicode=true&characterEncoding=UTF-8&serverTimezone=UTC
    spring.datasource.username=root
    spring.datasource.password=123456

    是不是有一種似曾相識的感覺(和[上一篇]()中的數據源配置一模一樣)?為什麼呢?答案已經告訴過大家了——默認、默認、默認,重要的事情說三遍,Spring Boot 2 默認使用了 HikariCP 連接池。

    04、編輯 Spring Boot 項目

    為了便於我們查看 HikariCP 的連接信息,我們對 SpringBootMysqlApplication 類進行編輯,增加以下內容。

    @SpringBootApplication
    public class HikariCpDemoApplication implements CommandLineRunner {
        @Autowired
        private DataSource dataSource;

        public static void main(String[] args) {
            SpringApplication.run(HikariCpDemoApplication.class, args);
        }

        @Override
        public void run(String... args) throws Exception {
            Connection conn = dataSource.getConnection();
            conn.close();
        }
    }

    HikariCpDemoApplication 實現了 CommandLineRunner 接口,該接口允許我們在項目啟動的時候加載一些數據或者做一些事情,比如說我們嘗試通過 DataSource 對象與數據源建立連接,這樣就可以在日誌信息中看到 HikariCP 的連接信息。CommandLineRunner 接口有一個方法需要實現,就是我們看到的 run() 方法。

    通過 debug 的方式,我們可以看到,在項目運行的過程中,dataSource 這個 Bean 的類型為 HikariDataSource。

    05、運行 Spring Boot 項目

    接下來,我們直接運行 HikariCpDemoApplication 類,這樣一個 Spring Boot 項目就啟動成功了。

    HikariDataSource 對象的連接信息會被打印出來。也就是說,HikariCP 連接池的配置啟用了。快給自己點個贊。

    06、為什麼 Spring Boot 2.0 選擇 HikariCP 作為默認數據庫連接池

    有幾種基準測試結果可用來比較HikariCP和其他連接池框架(例如c3p0dbcp2tomcatvibur)的性能。例如,HikariCP團隊發布了以下基準(可在此處獲得原始結果):

    HikariCP 團隊為了證明自己性能最佳,特意找了幾個背景對比了下。不幸充當背景的有 c3p0、dbcp2、tomcat 等傳統的連接池。

    從上圖中,我們能感受出背景的尷尬,HikariCP 鶴立雞群了。HikariCP 製作以如此優秀,原因大致有下面這些:

    1)字節碼級別上的優化:要求編譯后的字節碼最少,這樣 CPU 緩存就可以加載更多的程序代碼。

    HikariCP 優化前的代碼片段:

    public final PreparedStatement prepareStatement(String sql, String[] columnNames) throws SQLException
    {
        return PROXY_FACTORY.getProxyPreparedStatement(this, delegate.prepareStatement(sql, columnNames));
    }

    HikariCP 優化后的代碼片段:

    public final PreparedStatement prepareStatement(String sql, String[] columnNames) throws SQLException
    {
        return ProxyFactory.getProxyPreparedStatement(this, delegate.prepareStatement(sql, columnNames));
    }

    以上兩段代碼的差別只有一處,就是 ProxyFactory 替代了 PROXY_FACTORY,這個改動后的字節碼比優化前減少了 3 行指令。具體的分析參照 HikariCP 的 Wiki 文檔。

    2)使用自定義的列表(FastStatementList)代替 ArrayList,可以避免 get() 的時候進行範圍檢查,remove() 的時候從頭到尾的掃描。

    07、鳴謝

    好了,各位讀者朋友們,答應小王的文章終於寫完了。能看到這裏的都是最優秀的程序員,升職加薪就是你了。如果覺得不過癮,還想看到更多,可以 star 二哥的 GitHub【itwanger.github.io】,本文已收錄。

    PS:本文配套的源碼已上傳至 GitHub 【SpringBootDemo.SpringBootMysql】。

    原創不易,如果覺得有點用的話,請不要吝嗇你手中點贊的權力;如果想要第一時間看到二哥更新的文章,請掃描下方的二維碼,關注沉默王二公眾號。我們下篇文章見!

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

  • STM32內存受限情況下攝像頭驅動方式與圖像裁剪的選擇

    STM32內存受限情況下攝像頭驅動方式與圖像裁剪的選擇

    1、STM32圖像接收接口

    使用stm32芯片,128kB RAM,512kB Rom,資源有限,接攝像頭採集圖像,這種情況下,內存利用制約程序設計。

    STM32使用DCMI接口讀取攝像頭,協議如下。行同步信號指示了一行數據完成,場同步信號指示了一幀圖像傳輸完成。所以出現了兩種典型的數據接收方式,按照行信號一行一行處理,按照場信號一次接收一副圖像。

     

    2、按行讀取

    以網絡上流行的野火的demo為例,使用行中斷,用DMA來讀取一行數據。

    //記錄傳輸了多少行
    static uint16_t line_num =0;
    //DMA傳輸完成中斷服務函數
    void DMA2_Stream1_IRQHandler(void)
    {
      if ( DMA_GetITStatus(DMA2_Stream1,DMA_IT_TCIF1) == SET )
      {
       /*行計數*/
      line_num++;
      if (line_num==img_height)
      {
      /*傳輸完一幀,計數複位*/
      line_num=0;
      }
      /*DMA 一行一行傳輸*/
      OV2640_DMA_Config(FSMC_LCD_ADDRESS+(lcd_width*2*(lcd_height-line_num-1)),img_width*2/4);
      DMA_ClearITPendingBit(DMA2_Stream1,DMA_IT_TCIF1);
      }
    }
    
     //幀中斷服務函數,使用幀中斷重置line_num,可防止有時掉數據的時候DMA傳送行數出現偏移
    void DCMI_IRQHandler(void)
    {
      if ( DCMI_GetITStatus (DCMI_IT_FRAME) == SET )
      {
      /*傳輸完一幀,計數複位*/
      line_num=0;
      DCMI_ClearITPendingBit(DCMI_IT_FRAME);
      }
    }

    DMA中斷服務函數中主要是使用了一個靜態變量line_num來記錄已傳輸了多少行數據,每進一次DMA中斷時自加1,由於進入一次中斷就代表傳輸完一行數據,所以line_num的值等於lcd_height時(攝像頭輸出的數據行數),表示傳輸完一幀圖像,line_num複位為0,開始另一幀數據的傳輸。line_num計數完畢后利用前面定義的OV2640_DMA_Config函數配置新的一行DMA數據傳輸,它利用line_num變量計算顯存地址的行偏移,控制DCMI數據被傳送到正確的位置,每次傳輸的都是一行像素的數據量。

    當DCMI接口檢測到攝像頭傳輸的幀同步信號時,會進入DCMI_IRQHandler中斷服務函數,在這個函數中不管line_num原來的值是什麼,它都把line_num直接複位為0,這樣下次再進入DMA中斷服務函數的時候,它會開始新一幀數據的傳輸。這樣可以利用DCMI的硬件同步信號,而不只是依靠DMA自己的傳輸計數,這樣可以避免有時STM32內部DMA傳輸受到阻塞而跟不上外部攝像頭信號導致的數據錯誤。

    圖像按幀讀取比按行讀取效率更高,那麼為什麼要按行讀取呢?上面的例子是把圖像送到LCD,如果是送到內存,按幀讀取就需要芯片有很大的內存空間。以752*480的分辨率為例,需要360kB的RAM空間,遠遠超出了芯片RAM的大小。部分應用不需要攝像頭全尺寸的圖像,只需要中心區域,比如為了避免畸變影響一般只用圖像中間的部分,那麼按行讀取就有一個好處,讀到一行后,可以把不需要的丟棄,只保留中間部分的圖像像素。

    那麼問題來了?為什麼不直接配置攝像頭的屬性,來實現只讀取圖像的中間部分呢,全部讀取出來然後在arm的內存中裁剪丟棄不要的像素,第一浪費了讀取時間,第二浪費了讀取的空間。更優的做法是直接配置攝像頭sensor,使用sensor的裁剪功能輸出需要的像素區域。

     

    3、圖像裁剪–使用STM32 crop功能裁剪

    STM32F4系列的DCMI接口支持裁剪功能,對攝像頭輸出的像素點進行截取,不需要的像素部分不被DCMI傳入內存,從硬件接口一側就丟棄了。

    HAL_DCMI_EnableCrop(&hdcmi);
    HAL_DCMI_ConfigCrop(&hdcmi, CAM_ROW_OFFSET, CAM_COL_OFFSET, IMG_ROW-1, IMG_COL-1);

    裁剪的本質如下所述,從接收到的數據里選擇需要的矩形區域。所以STM32 DCMI裁剪功能可以完成節約內存,只選取需要的圖像存入內存的作用。

    此方法相比於一次讀一行,然後丟棄首尾部分后把需要的區域圖像像素存入buffer后再讀下一行,避免了時序錯誤,代碼簡潔了,DCMI硬件計數丟掉不要的像素,也提高了程序可靠性、可讀性。

    成也蕭何敗也蕭何,如上面所述,STM32的crop完成了選取特定區域圖像的功能,那麼也要付出代價,它是從接收到的圖像數據里進行選擇的,這意味着那些不需要的數據依然會傳輸到MCU一側,只不過MCU的DCMI對數據進行計數是忽略了它而已,那麼問題就來了,哪些不需要的數據的傳輸會帶來什麼問題呢?

    有圖為證,下圖是使用了STM32 crop裁剪的時序圖,通道1啟動採集IO置高,frame中斷里拉低,由於使用dma傳輸,那麼被crop裁剪后dma計數的數據量變少,所以DCMI frame中斷能在行數據傳輸完成前到達,通道1高電平部分就代表一有效分辨率的幀的採集時間。通道2 曝光信號管腳,通道3是行掃描信號。其中通道1下降沿到通道3下降沿4.5ms。代表單片機已經收到crop指定尺寸的圖像,採集有效區域(crop區域)的圖像完成,但是line信號沒有結束還有很多行沒傳輸,即CMOS和DCMI接口要傳輸752*480圖像還沒完成。

     舉例說明,如果使用752*480分辨率採集圖像,你只取中間的360*360視野,有效分辨率是360*360,但是總線上的數據依然是752*480,所以幀率無法提高,多餘的數據按說就不應該傳輸出來,如何破解,問題追到這裏,STM32芯片已經無能為力了,接下來需要在CMOS一側發力了。

     

    4、圖像裁剪–配置CMOS寄存器裁剪

    下圖是MT9V034 攝像頭芯片的寄存器手冊,Reg1–4配置CMOS的行列起點和寬度高度。

    修改寄存器后,攝像頭CMOS就不再向外傳輸多餘的數據,被裁剪丟棄的數據也不會反應在接口上,所以STM32 DCMI接收到的數據都是需要保留的有效區數據,極大地減少了數據輸出,提高了傳輸效率。本人也在STM324芯片上,實現了220*220分辨率120幀的連續採集。

    下面是序圖,通道1高電平代表開始採集和一幀結束,不同於使用STM32 的crop裁剪,使用CMOS寄存器裁剪有效窗口,使得幀結束時行信號也同時結束,後續沒有任何需要傳輸的行數據。

     

    5、一幀數據一次性傳輸

    一幀數據一次全部讀入到MCU的方式,其實是最簡單的驅動編寫方式,缺點就是太占內存,但是對於沒有壓縮功能的cmos芯片來說,一般都無力實現。對部分有jpg壓縮功能的cmos芯片而言,比如OV2640可以使用這種方式,一次性讀出一幀圖像。

    __align(4) u32 jpeg_buf[jpeg_buf_size];    //JPEG buffer
    //JPEG 格式
    const u16 jpeg_img_size_tbl[][2]=
    {
        176,144,    //QCIF
        160,120,    //QQVGA
        352,288,    //CIF
        320,240,    //QVGA
        640,480,    //VGA
        800,600,    //SVGA
        1024,768,    //XGA
        1280,1024,    //SXGA
        1600,1200,    //UXGA
    }; 

    //DCMI 接收數據
    void DCMI_IRQHandler(void)
    {
      if(DCMI_GetITStatus(DCMI_IT_FRAME)==SET)// 一幀數據
      {
        jpeg_data_process();  
        DCMI_ClearITPendingBit(DCMI_IT_FRAME); 
      }
    }

     

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※想知道最厲害的網頁設計公司"嚨底家"!

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※別再煩惱如何寫文案,掌握八大原則!

  • HTML&CSS面試高頻考點(二)

    HTML&CSS面試高頻考點(二)

    HTML&CSS面試高頻考點(一)    

    6. W3C盒模型與怪異盒模型

    • 標準盒模型(W3C標準)
    • 怪異盒模型(IE標準)

    怪異盒模型下盒子的大小=width(content + border + padding) + margin,即真實大小

    *參考標準模式與兼容模式的區別,兼容模式下為怪異盒模型。

    *注意box-sizing可以改變盒模型(box-sizing:border-box即為怪異盒模型)。

    7. 水平垂直居中的方法

    (1)定寬居中

    1. absolute + 負margin

    //父元素
    position: relative;
    //子元素
    position: absolute;
    top: 50%;
    left: 50%;
    //margin設置自身一半的距離
    margin-top: -50px;
    margin-left: -50px;

    2. absolute + margin: auto

    //父元素
    position: relative;
    //子元素
    position: absolute;
    top: 0;
    right: 0;
    bottom: 0;
    left: 0;
    margin: auto;

     3. absolute + calc

    //父元素
    position: relative;
    //子元素
    position: absolute;
    //減去自身一半的寬高
    top: calc(50% - 50px);
    left: calc(50% - 50px);

     *calc() 函數用於動態計算長度值。

     4. min-height: 100vh + flex + margin:auto

    main{   min-height: 100vh;
       /* vh相對於視窗的高度,視窗高度是100vh */
      /* “視區”所指為瀏覽器內部的可視區域大小,   不包含任務欄標題欄以及底部工具欄的瀏覽器區域大小。 */   display: flex;
    } div{   margin: auto;
    }

    (2)不定寬居中

    1. absolute + transform

    //父元素
    position: relative;
    //子元素
    position: absolute;
    top:50%;
    left:50%;
    transform:translate(-50%,-50%);

    2. line-height

    //父元素 .wp { text-align: center; line-height: 300px;
    }
    //子元素
    .box { display: inline-block; vertical-align: middle; line-height: inherit; text-align: left; }

    3. flex布局

    display: flex;//flex布局
    justify-content: center;//使子項目水平居中
    align-items: center;//使子項目垂直居中

    4. table-cell布局

    因為table-cell相當與表格的td,無法設置寬和高,所以嵌套一層,嵌套一層必須設置display: inline-block

    <div class="box">
        <div class="content">
            <div class="inner">
            </div>
        </div>
    </div> .box { //只有這裏可以設置寬高 display: table; //這是嵌套的一層,會被table-cell覆蓋 } .content { display: table-cell; vertical-align: middle;//使子元素垂直居中 text-align: center;//使子元素水平居中 } .inner { display: inline-block; //子元素 }

    8. BFC

     前文鏈接:點擊這裏

    BFC:Block formatting context(塊級格式化上下文),是一個獨立的渲染區域,只有Block-level box參与,與外部區域毫不相干。

    • block-level box:display屬性為block, list-item, table的元素。
    • inline-level box:display屬性為inline, inline-box, inline-table的元素。

    (1)BFC的布局規則

    • 內部box在垂直方向一個個放置;
    • 同一個BFC的兩個相鄰box的margin會發生重疊;
    • 每個盒子的margin左邊與包含塊的border左邊相接觸,即使存在浮動也是如此;
    • BFC區域不會和float box重疊;
    • 計算BFC高度時,浮動元素也參与計算。

    (2)開啟BFC的方法

    • float的值不是none
    • position的值不是static或relative
    • display的值是inline-block, table-cell, flex, table-caption或inline-flex
    • overflow的值不是visible

    (3)BFC的作用

    1. 避免margin塌陷

    根據BFC的布局規則2,我們可以通過設置兩個不同的BFC的方式解決margin塌陷的問題。

    2. 自適應兩欄布局

    根據BFC的布局規則3和4,我們將右側div開啟BFC就可以形成自適應兩欄布局。

    .left { float: left; //左側浮動 }

    .left { float: left;
    } .right { overflow: hidden; //開啟BFC }

    3. 清除浮動

    當不給父節點設置高度的時候,如果子節點設置浮動,父節點會發生高度塌陷。這個時候就要清除浮動。

    根據規則5,只需給父元素激活BFC就可以達到目的。

    .par { overflow: hidden; //父元素開啟BFC } .child { float: left; //子元素浮動 }

    9. 清除浮動

     這篇有寫:點這裏

    10. position屬性

     這篇有寫:點這裏

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【【其他文章推薦】

    ※帶您來了解什麼是 USB CONNECTOR  ?

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    ※如何讓商品強力曝光呢? 網頁設計公司幫您建置最吸引人的網站,提高曝光率!

    ※綠能、環保無空污,成為電動車最新代名詞,目前市場使用率逐漸普及化

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※教你寫出一流的銷售文案?

  • 程序員必備基礎:Git 命令全方位學習

    程序員必備基礎:Git 命令全方位學習

    前言

    掌握Git命令是每位程序員必備的基礎,之前一直是用smartGit工具,直到看到大佬們都是在用Git命令操作的,回想一下,發現有些Git命令我都忘記了,於是寫了這篇博文,複習一下~

    https://github.com/whx123/JavaHome

    公眾號:撿田螺的小男孩

    文章目錄

    • Git是什麼?
    • Git的相關理論基礎
    • 日常開發中,Git的基本常用命令
    • Git進階之分支處理
    • Git進階之處理衝突
    • Git進階之撤銷與回退
    • Git進階之標籤tag
    • Git其他一些經典命令

    Git是什麼

    在回憶Git是什麼的話,我們先來複習這幾個概念哈~

    什麼是版本控制?

    百度百科定義是醬紫的~

    版本控制是指對軟件開發過程中各種程序代碼、配置文件及說明文檔等文件變更的管理,是軟件配置管理的核心思想之一。

    那些年,我們的畢業論文,其實就是版本變更的真實寫照…腦洞一下,版本控制就是這些論文變更的管理~

    什麼是集中化的版本控制系統?

    那麼,集中化的版本控制系統又是什麼呢,說白了,就是有一個集中管理的中央服務器,保存着所有文件的修改歷史版本,而協同開發者通過客戶端連接到這台服務器,從服務器上同步更新或上傳自己的修改。

    什麼是分佈式版本控制系統?

    分佈式版本控制系統,就是遠程倉庫同步所有版本信息到本地的每個用戶。嘻嘻,這裏分三點闡述吧:

    • 用戶在本地就可以查看所有的歷史版本信息,但是偶爾要從遠程更新一下,因為可能別的用戶有文件修改提交到遠程哦。
    • 用戶即使離線也可以本地提交,push推送到遠程服務器才需要聯網。
    • 每個用戶都保存了歷史版本,所以只要有一個用戶設備沒問題,就可以恢複數據啦~

    什麼是Git?

    Git是免費、開源的分佈式版本控制系統,可以有效、高速地處理從很小到非常大的項目版本管理。

    Git的相關理論基礎

    • Git的四大工作區域
    • Git的工作流程
    • Git文件的四種狀態
    • 一張圖解釋Git的工作原理

    Git的四大工作區域

    先複習Git的幾個工作區域哈:

    • Workspace:你電腦本地看到的文件和目錄,在Git的版本控制下,構成了工作區。
    • Index/Stage:暫存區,一般存放在 .git目錄下,即.git/index,它又叫待提交更新區,用於臨時存放你未提交的改動。比如,你執行git add,這些改動就添加到這個區域啦。
    • Repository:本地倉庫,你執行git clone 地址,就是把遠程倉庫克隆到本地倉庫。它是一個存放在本地的版本庫,其中HEAD指向最新放入倉庫的版本。當你執行git commit,文件改動就到本地倉庫來了~
    • Remote:遠程倉庫,就是類似github,碼雲等網站所提供的倉庫,可以理解為遠程數據交換的倉庫~

    Git的工作流程

    上一小節介紹完Git的四大工作區域,這一小節呢,介紹Git的工作流程咯,把git的操作命令和幾個工作區域結合起來,個人覺得更容易理解一些吧,哈哈,看圖:

    git 的正向工作流程一般就這樣:

    • 從遠程倉庫拉取文件代碼回來;
    • 在工作目錄,增刪改查文件;
    • 把改動的文件放入暫存區;
    • 將暫存區的文件提交本地倉庫;
    • 將本地倉庫的文件推送到遠程倉庫;

    Git文件的四種狀態

    根據一個文件是否已加入版本控制,可以把文件狀態分為:Tracked(已跟蹤)和Untracked(未跟蹤),而tracked(已跟蹤)又包括三種工作狀態:Unmodified,Modified,Staged

    • Untracked: 文件還沒有加入到git庫,還沒參与版本控制,即未跟蹤狀態。這時候的文件,通過git add 狀態,可以變為Staged狀態
    • Unmodified:文件已經加入git庫, 但是呢,還沒修改, 就是說版本庫中的文件快照內容與文件夾中還完全一致。 Unmodified的文件如果被修改, 就會變為Modified. 如果使用git remove移出版本庫, 則成為Untracked文件。
    • Modified:文件被修改了,就進入modified狀態啦,文件這個狀態通過stage命令可以進入staged狀態
    • staged:暫存狀態. 執行git commit則將修改同步到庫中, 這時庫中的文件和本地文件又變為一致, 文件為Unmodified狀態.

    一張圖解釋Git的工作原理

    日常開發中,Git的基本常用命令

    • git clone
    • git checkout -b dev
    • git add
    • git commit
    • git log
    • git diff
    • git status
    • git pull/git fetch
    • git push

    這個圖只是模擬一下git基本命令使用的大概流程哈~

    git clone

    當我們要進行開發,第一步就是克隆遠程版本庫到本地呢

    git clone url  克隆遠程版本庫
    

    git checkout -b dev

    克隆完之後呢,開發新需求的話,我們需要新建一個開發分支,比如新建開發分支dev

    創建分支:

    git checkout -b dev   創建開發分支dev,並切換到該分支下
    

    git add

    git add的使用格式:

    git add .	添加當前目錄的所有文件到暫存區
    git add [dir]	添加指定目錄到暫存區,包括子目錄
    git add [file1]	添加指定文件到暫存區
    

    有了開發分支dev之後,我們就可以開始開發啦,假設我們開發完HelloWorld.java,可以把它加到暫存區,命令如下

    git add Hello.java  把HelloWorld.java文件添加到暫存區去
    

    git commit

    git commit的使用格式:

    git commit -m [message] 提交暫存區到倉庫區,message為說明信息
    git commit [file1] -m [message] 提交暫存區的指定文件到本地倉庫
    git commit --amend -m [message] 使用一次新的commit,替代上一次提交
    

    把HelloWorld.java文件加到暫存區后,我們接着可以提交到本地倉庫啦~

    git commit -m 'helloworld開發'
    

    git status

    git status,表示查看工作區狀態,使用命令格式:

    git status  查看當前工作區暫存區變動
    git status -s  查看當前工作區暫存區變動,概要信息
    git status  --show-stash 查詢工作區中是否有stash(暫存的文件)
    

    當你忘記是否已把代碼文件添加到暫存區或者是否提交到本地倉庫,都可以用git status看看哦~

    git log

    git log,這個命令用得應該比較多,表示查看提交歷史/提交日誌~

    git log  查看提交歷史
    git log --oneline 以精簡模式显示查看提交歷史
    git log -p <file> 查看指定文件的提交歷史
    git blame <file> 一列表方式查看指定文件的提交歷史
    

    嘻嘻,看看dev分支上的提交歷史吧要回滾代碼就經常用它喵喵提交歷史

    git diff

    git diff 显示暫存區和工作區的差異
    git diff filepath   filepath路徑文件中,工作區與暫存區的比較差異
    git diff HEAD filepath 工作區與HEAD ( 當前工作分支)的比較差異
    git diff branchName filepath 當前分支的文件與branchName分支的文件的比較差異
    git diff commitId filepath 與某一次提交的比較差異
    

    如果你想對比一下你改了哪些內容,可以用git diff對比一下文件修改差異哦

    git pull/git fetch

    git pull  拉取遠程倉庫所有分支更新併合併到本地分支。
    git pull origin master 將遠程master分支合併到當前本地master分支
    git pull origin master:master 將遠程master分支合併到當前本地master分支,冒號後面表示本地分支
    
    git fetch --all  拉取所有遠端的最新代碼
    git fetch origin master 拉取遠程最新master分支代碼
    

    我們一般都會用git pull拉取最新代碼看看的,解決一下衝突,再推送代碼到遠程倉庫的。

    有些夥伴可能對使用git pull還是git fetch有點疑惑,其實
    git pull = git fetch+ git merge。pull的話,拉取遠程分支並與本地分支合併,fetch只是拉遠程分支,怎麼合併,可以自己再做選擇。

    git push

    git push 可以推送本地分支、標籤到遠程倉庫,也可以刪除遠程分支哦。

    git push origin master 將本地分支的更新全部推送到遠程倉庫master分支。
    git push origin -d <branchname>   刪除遠程branchname分支
    git push --tags 推送所有標籤
    

    如果我們在dev開發完,或者就想把文件推送到遠程倉庫,給別的夥伴看看,就可以使用git push origin dev~

    Git進階之分支處理

    Git一般都是存在多個分支的,開發分支,回歸測試分支以及主幹分支等,所以Git分支處理的命令也需要很熟悉的呀~

    • git branch
    • git checkout
    • git merge

    git branch

    git branch用處多多呢,比如新建分支、查看分支、刪除分支等等

    新建分支:

    git checkout -b dev2  新建一個分支,並且切換到新的分支dev2
    git branch dev2 新建一個分支,但是仍停留在原來分支
    

    查看分支:

    git branch    查看本地所有的分支
    git branch -r  查看所有遠程的分支
    git branch -a  查看所有遠程分支和本地分支
    

    刪除分支:

    git branch -D <branchname>  刪除本地branchname分支
    

    git checkout

    切換分支:

    git checkout master 切換到master分支
    

    git merge

    我們在開發分支dev開發、測試完成在發布之前,我們一般需要把開發分支dev代碼合併到master,所以git merge也是程序員必備的一個命令。

    git merge master  在當前分支上合併master分支過來
    git merge --no-ff origin/dev  在當前分支上合併遠程分支dev
    git merge --abort 終止本次merge,並回到merge前的狀態
    

    比如,你開發完需求后,發版全需要把代碼合到主幹master分支,如下:

    Git進階之處理衝突

    Git版本控制,還是多個人一起搞的,多個分支並存的,這就難免會有衝突出現~

    Git合併分支,衝突出現

    同一個文件,在合併分支的時候,如果同一行被多個分支或者不同人都修改了,合併的時候就會出現衝突。

    舉個粟子吧,我們現在在dev分支,修改HelloWorld.java文件,假設修改了第三行,並且commit提交到本地倉庫,修改內容如下:

    public class HelloWorld {
        public static void main(String[] args) {
            System.out.println("Hello,撿田螺的小男孩!");
        }
    }
    

    我們切回到master分支,也修改HelloWorld.java同一位置內容,如下:

    public class HelloWorld {
        public static void main(String[] args) {
            System.out.println("Hello,jay!!");
        }
    }
    

    再然後呢,我們提交一下master分支的這個改動,並把dev分支合併過下,就出現衝突啦,如圖所示:

    Git解決衝突

    Git 解決衝突步驟如下:

    • 查看衝突文件內容
    • 確定衝突內容保留哪些部分,修改文件
    • 重新提交,done

    1.查看衝突文件內容

    git merge提示衝突后,我們切換到對應文件,看看衝突內容哈,,如下:

    2.確定衝突內容保留哪些部分,修改文件

    • Git用<<<<<<<,=======,>>>>>>>標記出不同分支的內容,
    • <<<<<<<HEAD是指主分支修改的內容,>>>>>>> dev是指dev分支上修改的內容

    所以呢,我們確定到底保留哪個分支內容,還是兩個分支內容都保留呢,然後再去修改文件衝突內容~

    3.修改完衝突文件內容,我們重新提交,衝突done

    Git進階之撤銷與回退

    Git的撤銷與回退,在日常工作中使用的比較頻繁。比如我們想將某個修改后的文件撤銷到上一個版本,或者想撤銷某次多餘的提交,都要用到git的撤銷和回退操作。

    代碼在Git的每個工作區域都是用哪些命令撤銷或者回退的呢,如下圖所示:

    有關於Git的撤銷與回退,一般就以下幾個核心命令

    • git checkout
    • git reset
    • git revert

    git checkout

    如果文件還在工作區,還沒添加到暫存區,可以使用git checkout撤銷

    git checkout [file]  丟棄某個文件file
    git checkout .  丟棄所有文件
    

    以下demo,使用git checkout — test.txt 撤銷了暫存區test.txt的修改

    git reset

    git reset的理解

    git reset的作用是修改HEAD的位置,即將HEAD指向的位置改變為之前存在的某個版本.

    為了更好地理解git reset,我們來回顧一下,Git的版本管理及HEAD的理解

    Git的所有提交,會連成一條時間軸線,這就是分支。如果當前分支是master,HEAD指針一般指向當前分支,如下:

    假設執行git reset,回退到版本二之後,版本三不見了哦,如下:

    git reset的使用

    Git Reset的幾種使用模式

    git reset HEAD --file
    回退暫存區里的某個文件,回退到當前版本工作區狀態
    git reset –-soft 目標版本號 可以把版本庫上的提交回退到暫存區,修改記錄保留
    git reset –-mixed 目標版本號 可以把版本庫上的提交回退到工作區,修改記錄保留
    git reset –-hard  可以把版本庫上的提交徹底回退,修改的記錄全部revert。
    

    先看一個粟子demo吧,代碼git add到暫存區,並未commit提交,就以下醬紫回退,如下:

    git reset HEAD file 取消暫存
    git checkout file 撤銷修改
    

    再看另外一個粟子吧,代碼已經git commit了,但是還沒有push:

    git log  獲取到想要回退的commit_id
    git reset --hard commit_id  想回到過去,回到過去的commit_id
    

    如果代碼已經push到遠程倉庫了呢,也可以使用reset回滾哦(這裏大家可以自己操作實踐一下哦)~

    git log
    git reset --hard commit_id
    git push origin HEAD --force
    

    git revert

    與git reset不同的是,revert複製了那個想要回退到的歷史版本,將它加在當前分支的最前端。

    revert之前:

    revert 之後:

    當然,如果代碼已經推送到遠程的話,還可以考慮revert回滾呢

    git log  得到你需要回退一次提交的commit id
    git revert -n <commit_id>  撤銷指定的版本,撤銷也會作為一次提交進行保存
    

    Git進階之標籤tag

    打tag就是對發布的版本標註一個版本號,如果版本發布有問題,就把該版本拉取出來,修復bug,再合回去。

    git tag  列出所有tag
    git tag [tag] 新建一個tag在當前commit
    git tag [tag] [commit] 新建一個tag在指定commit
    git tag -d [tag] 刪除本地tag
    git push origin [tag] 推送tag到遠程
    git show [tag] 查看tag
    git checkout -b [branch] [tag] 新建一個分支,指向某個tag
    

    Git其他一些經典命令

    git rebase

    rebase又稱為衍合,是合併的另外一種選擇。

    假設有兩個分支master和test

          D---E test
          /
     A---B---C---F--- master
    

    執行 git merge test得到的結果

           D--------E
          /          \
     A---B---C---F----G---   test, master
    

    執行git rebase test,得到的結果

    A---B---D---E---C‘---F‘---   test, master
    

    rebase好處是: 獲得更優雅的提交樹,可以線性的看到每一次提交,並且沒有增加提交節點。所以很多時候,看到有些夥伴都是這個命令拉代碼:git pull –rebase

    git stash

    stash命令可用於臨時保存和恢復修改

    git stash  把當前的工作隱藏起來 等以後恢復現場後繼續工作
    git stash list 显示保存的工作進度列表
    git stash pop stash@{num} 恢復工作進度到工作區
    git stash show :显示做了哪些改動
    git stash drop stash@{num} :刪除一條保存的工作進度
    git stash clear 刪除所有緩存的stash。
    

    git reflog

    显示當前分支的最近幾次提交

    git blame filepath

    git blame 記錄了某個文件的更改歷史和更改人,可以查看背鍋人,哈哈

    git remote

    git remote   查看關聯的遠程倉庫的名稱
    git remote add url   添加一個遠程倉庫
    git remote show [remote] 显示某個遠程倉庫的信息
    

    參考與感謝

    感謝各位前輩的文章:

    • 一個小時學會Git
    • 【Git】(1)—工作區、暫存區、版本庫、遠程倉庫
    • Git Reset 三種模式
    • Git恢復之前版本的兩種方法reset、revert(圖文詳解)
    • Git撤銷&回滾操作(git reset 和 get revert)
    • 為什麼要使用git pull –rebase?

    公眾號

    • 歡迎關注我個人公眾號,交個朋友,一起學習哈~
    • 如果文章有錯誤,歡迎指出哈,感激不盡~

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※為什麼 USB CONNECTOR 是電子產業重要的元件?

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※台北網頁設計公司全省服務真心推薦

    ※想知道最厲害的網頁設計公司"嚨底家"!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※推薦評價好的iphone維修中心

  • SpringSceurity(5)—短信驗證碼登陸功能

    SpringSceurity(5)—短信驗證碼登陸功能

    SpringSceurity(5)—短信驗證碼登陸功能

    有關SpringSceurity系列之前有寫文章

    1、SpringSecurity(1)—認證+授權代碼實現

    2、SpringSecurity(2)—記住我功能實現

    3、SpringSceurity(3)—圖形驗證碼功能實現

    4、SpringSceurity(4)—短信驗證碼功能實現

    一、短信登錄驗證機制原理分析

    了解短信驗證碼的登陸機制之前,我們首先是要了解用戶賬號密碼登陸的機制是如何的,我們來簡要分析一下Spring Security是如何驗證基於用戶名和密碼登錄方式的,

    分析完畢之後,再一起思考如何將短信登錄驗證方式集成到Spring Security中。

    1、賬號密碼登陸的流程

    一般賬號密碼登陸都有附帶 圖形驗證碼記住我功能 ,那麼它的大致流程是這樣的。

    1、 用戶在輸入用戶名,賬號、圖片驗證碼後點擊登陸。那麼對於springSceurity首先會進入短信驗證碼Filter,因為在配置的時候會把它配置在
    UsernamePasswordAuthenticationFilter之前,把當前的驗證碼的信息跟存在session的圖片驗證碼的驗證碼進行校驗。
    
    2、短信驗證碼通過後,進入 UsernamePasswordAuthenticationFilter 中,根據輸入的用戶名和密碼信息,構造出一個暫時沒有鑒權的
     UsernamePasswordAuthenticationToken,並將 UsernamePasswordAuthenticationToken 交給 AuthenticationManager 處理。
    
    3、AuthenticationManager 本身並不做驗證處理,他通過 for-each 遍歷找到符合當前登錄方式的一個 AuthenticationProvider,並交給它進行驗證處理
    ,對於用戶名密碼登錄方式,這個 Provider 就是 DaoAuthenticationProvider。
    
    4、在這個 Provider 中進行一系列的驗證處理,如果驗證通過,就會重新構造一個添加了鑒權的 UsernamePasswordAuthenticationToken,並將這個
     token 傳回到 UsernamePasswordAuthenticationFilter 中。
    
    5、在該 Filter 的父類 AbstractAuthenticationProcessingFilter 中,會根據上一步驗證的結果,跳轉到 successHandler 或者是 failureHandler。
    

    流程圖

    2、短信驗證碼登陸流程

    因為短信登錄的方式並沒有集成到Spring Security中,所以往往還需要我們自己開發短信登錄邏輯,將其集成到Spring Security中,那麼這裏我們就模仿賬號

    密碼登陸來實現短信驗證碼登陸。

    1、用戶名密碼登錄有個 UsernamePasswordAuthenticationFilter,我們搞一個SmsAuthenticationFilter,代碼粘過來改一改。
    2、用戶名密碼登錄需要UsernamePasswordAuthenticationToken,我們搞一個SmsAuthenticationToken,代碼粘過來改一改。
    3、用戶名密碼登錄需要DaoAuthenticationProvider,我們模仿它也 implenments AuthenticationProvider,叫做 SmsAuthenticationProvider。
    

    這個圖是網上找到,自己不想畫了

    我們自己搞了上面三個類以後,想要實現的效果如上圖所示。當我們使用短信驗證碼登錄的時候:

    1、先經過 SmsAuthenticationFilter,構造一個沒有鑒權的 SmsAuthenticationToken,然後交給 AuthenticationManager處理。
    
    2、AuthenticationManager 通過 for-each 挑選出一個合適的 provider 進行處理,當然我們希望這個 provider 要是 SmsAuthenticationProvider。
    
    3、驗證通過後,重新構造一個有鑒權的SmsAuthenticationToken,並返回給SmsAuthenticationFilter。
    filter 根據上一步的驗證結果,跳轉到成功或者失敗的處理邏輯。
    

    二、代碼實現

    1、SmsAuthenticationToken

    首先我們編寫 SmsAuthenticationToken,這裏直接參考 UsernamePasswordAuthenticationToken 源碼,直接粘過來,改一改。

    說明

    principal 原本代表用戶名,這裏保留,只是代表了手機號碼。
    credentials 原本代碼密碼,短信登錄用不到,直接刪掉。
    SmsCodeAuthenticationToken() 兩個構造方法一個是構造沒有鑒權的,一個是構造有鑒權的。
    剩下的幾個方法去除無用屬性即可。
    

    代碼

    public class SmsCodeAuthenticationToken extends AbstractAuthenticationToken {
    
        private static final long serialVersionUID = SpringSecurityCoreVersion.SERIAL_VERSION_UID;
    
        /**
         * 在 UsernamePasswordAuthenticationToken 中該字段代表登錄的用戶名,
         * 在這裏就代表登錄的手機號碼
         */
        private final Object principal;
    
        /**
         * 構建一個沒有鑒權的 SmsCodeAuthenticationToken
         */
        public SmsCodeAuthenticationToken(Object principal) {
            super(null);
            this.principal = principal;
            setAuthenticated(false);
        }
    
        /**
         * 構建擁有鑒權的 SmsCodeAuthenticationToken
         */
        public SmsCodeAuthenticationToken(Object principal, Collection<? extends GrantedAuthority> authorities) {
            super(authorities);
            this.principal = principal;
            // must use super, as we override
            super.setAuthenticated(true);
        }
    
        @Override
        public Object getCredentials() {
            return null;
        }
    
        @Override
        public Object getPrincipal() {
            return this.principal;
        }
    
        @Override
        public void setAuthenticated(boolean isAuthenticated) throws IllegalArgumentException {
            if (isAuthenticated) {
                throw new IllegalArgumentException(
                        "Cannot set this token to trusted - use constructor which takes a GrantedAuthority list instead");
            }
    
            super.setAuthenticated(false);
        }
    
        @Override
        public void eraseCredentials() {
            super.eraseCredentials();
        }
    }
    

    2、SmsAuthenticationFilter

    然後編寫 SmsAuthenticationFilter,參考 UsernamePasswordAuthenticationFilter 的源碼,直接粘過來,改一改。

    說明

    原本的靜態字段有 usernamepassword,都幹掉,換成我們的手機號字段。
    SmsCodeAuthenticationFilter() 中指定了這個 filter 的攔截 Url,我指定為 post 方式的 /sms/login
    剩下來的方法把無效的刪刪改改就好了。

    代碼

    public class SmsCodeAuthenticationFilter extends AbstractAuthenticationProcessingFilter {
        /**
         * form表單中手機號碼的字段name
         */
        public static final String SPRING_SECURITY_FORM_MOBILE_KEY = "mobile";
    
        private String mobileParameter = "mobile";
        /**
         * 是否僅 POST 方式
         */
        private boolean postOnly = true;
    
        public SmsCodeAuthenticationFilter() {
            //短信驗證碼的地址為/sms/login 請求也是post
            super(new AntPathRequestMatcher("/sms/login", "POST"));
        }
    
        @Override
        public Authentication attemptAuthentication(HttpServletRequest request, HttpServletResponse response) throws AuthenticationException {
            if (postOnly && !request.getMethod().equals("POST")) {
                throw new AuthenticationServiceException(
                        "Authentication method not supported: " + request.getMethod());
            }
    
            String mobile = obtainMobile(request);
            if (mobile == null) {
                mobile = "";
            }
    
            mobile = mobile.trim();
    
            SmsCodeAuthenticationToken authRequest = new SmsCodeAuthenticationToken(mobile);
    
            // Allow subclasses to set the "details" property
            setDetails(request, authRequest);
    
            return this.getAuthenticationManager().authenticate(authRequest);
        }
    
        protected String obtainMobile(HttpServletRequest request) {
            return request.getParameter(mobileParameter);
        }
    
        protected void setDetails(HttpServletRequest request, SmsCodeAuthenticationToken authRequest) {
            authRequest.setDetails(authenticationDetailsSource.buildDetails(request));
        }
    
        public String getMobileParameter() {
            return mobileParameter;
        }
    
        public void setMobileParameter(String mobileParameter) {
            Assert.hasText(mobileParameter, "Mobile parameter must not be empty or null");
            this.mobileParameter = mobileParameter;
        }
    
        public void setPostOnly(boolean postOnly) {
            this.postOnly = postOnly;
        }
    }
    

    3、SmsAuthenticationProvider

    這個方法比較重要,這個方法首先能夠在使用短信驗證碼登陸時候被 AuthenticationManager 挑中,其次要在這個類中處理驗證邏輯。

    說明

    實現 AuthenticationProvider 接口,實現 authenticate() 和 supports() 方法。

    代碼

    public class SmsCodeAuthenticationProvider implements AuthenticationProvider {
    
        private UserDetailsService userDetailsService;
    
        /**
         * 處理session工具類
         */
        private SessionStrategy sessionStrategy = new HttpSessionSessionStrategy();
    
        String SESSION_KEY_PREFIX = "SESSION_KEY_FOR_CODE_SMS";
    
        @Override
        public Authentication authenticate(Authentication authentication) throws AuthenticationException {
            SmsCodeAuthenticationToken authenticationToken = (SmsCodeAuthenticationToken) authentication;
    
            String mobile = (String) authenticationToken.getPrincipal();
    
            checkSmsCode(mobile);
    
            UserDetails userDetails = userDetailsService.loadUserByUsername(mobile);
            // 此時鑒權成功后,應當重新 new 一個擁有鑒權的 authenticationResult 返回
            SmsCodeAuthenticationToken authenticationResult = new SmsCodeAuthenticationToken(userDetails, userDetails.getAuthorities());
            authenticationResult.setDetails(authenticationToken.getDetails());
    
            return authenticationResult;
        }
    
        private void checkSmsCode(String mobile) {
            HttpServletRequest request = ((ServletRequestAttributes) RequestContextHolder.getRequestAttributes()).getRequest();
            // 從session中獲取圖片驗證碼
            SmsCode smsCodeInSession = (SmsCode) sessionStrategy.getAttribute(new ServletWebRequest(request), SESSION_KEY_PREFIX);
            String inputCode = request.getParameter("smsCode");
            if(smsCodeInSession == null) {
                throw new BadCredentialsException("未檢測到申請驗證碼");
            }
    
            String mobileSsion = smsCodeInSession.getMobile();
            if(!Objects.equals(mobile,mobileSsion)) {
                throw new BadCredentialsException("手機號碼不正確");
            }
    
            String codeSsion = smsCodeInSession.getCode();
            if(!Objects.equals(codeSsion,inputCode)) {
                throw new BadCredentialsException("驗證碼錯誤");
            }
        }
    
        @Override
        public boolean supports(Class<?> authentication) {
            // 判斷 authentication 是不是 SmsCodeAuthenticationToken 的子類或子接口
            return SmsCodeAuthenticationToken.class.isAssignableFrom(authentication);
        }
    
        public UserDetailsService getUserDetailsService() {
            return userDetailsService;
        }
    
        public void setUserDetailsService(UserDetailsService userDetailsService) {
            this.userDetailsService = userDetailsService;
        }
    }
    

    4、SmsCodeAuthenticationSecurityConfig

    既然自定義了攔截器,可以需要在配置里做改動。

    代碼

    @Component
    public class SmsCodeAuthenticationSecurityConfig extends SecurityConfigurerAdapter<DefaultSecurityFilterChain, HttpSecurity> {
        @Autowired
        private SmsUserService smsUserService;
        @Autowired
        private AuthenctiationSuccessHandler authenctiationSuccessHandler;
        @Autowired
        private AuthenctiationFailHandler authenctiationFailHandler;
    
        @Override
        public void configure(HttpSecurity http) {
            SmsCodeAuthenticationFilter smsCodeAuthenticationFilter = new SmsCodeAuthenticationFilter();
            smsCodeAuthenticationFilter.setAuthenticationManager(http.getSharedObject(AuthenticationManager.class));
            smsCodeAuthenticationFilter.setAuthenticationSuccessHandler(authenctiationSuccessHandler);
            smsCodeAuthenticationFilter.setAuthenticationFailureHandler(authenctiationFailHandler);
    
            SmsCodeAuthenticationProvider smsCodeAuthenticationProvider = new SmsCodeAuthenticationProvider();
            //需要將通過用戶名查詢用戶信息的接口換成通過手機號碼實現
            smsCodeAuthenticationProvider.setUserDetailsService(smsUserService);
    
            http.authenticationProvider(smsCodeAuthenticationProvider)
                    .addFilterAfter(smsCodeAuthenticationFilter, UsernamePasswordAuthenticationFilter.class);
        }
    }
    

    5、SmsUserService

    因為用戶名,密碼登陸最終是通過用戶名查詢用戶信息,而手機驗證碼登陸是通過手機登陸,所以這裏需要自己再實現一個SmsUserService

    @Service
    @Slf4j
    public class SmsUserService implements UserDetailsService {
    
        @Autowired
        private UserMapper userMapper;
    
        @Autowired
        private RolesUserMapper rolesUserMapper;
    
        @Autowired
        private RolesMapper rolesMapper;
    
        /**
         * 手機號查詢用戶
         */
        @Override
        public UserDetails loadUserByUsername(String mobile) throws UsernameNotFoundException {
            log.info("手機號查詢用戶,手機號碼 = {}",mobile);
            //TODO 這裏我沒有寫通過手機號去查用戶信息的sql,因為一開始我建user表的時候,沒有建mobile字段,現在我也不想臨時加上去
            //TODO 所以這裏暫且寫死用用戶名去查詢用戶信息(理解就好)
            User user = userMapper.findOneByUsername("小小");
            if (user == null) {
                throw new UsernameNotFoundException("未查詢到用戶信息");
            }
            //獲取用戶關聯角色信息 如果為空說明用戶並未關聯角色
            List<RolesUser> userList = rolesUserMapper.findAllByUid(user.getId());
            if (CollectionUtils.isEmpty(userList)) {
                return user;
            }
            //獲取角色ID集合
            List<Integer> ridList = userList.stream().map(RolesUser::getRid).collect(Collectors.toList());
            List<Roles> rolesList = rolesMapper.findByIdIn(ridList);
            //插入用戶角色信息
            user.setRoles(rolesList);
            return user;
        }
    }
    
    

    6、總結

    到這裏思路就很清晰了,我這裡在總結下。

    1、首先從獲取驗證的時候,就已經把當前驗證碼信息存到session,這個信息包含驗證碼和手機號碼。
    
    2、用戶輸入驗證登陸,這裡是直接寫在SmsAuthenticationFilter中先校驗驗證碼、手機號是否正確,再去查詢用戶信息。我們也可以拆開成用戶名密碼登陸那樣一個
    過濾器專門驗證驗證碼和手機號是否正確,正確在走驗證碼登陸過濾器。
    
    3、在SmsAuthenticationFilter流程中也有關鍵的一步,就是用戶名密碼登陸是自定義UserService實現UserDetailsService后,通過用戶名查詢用戶名信息而這裡是
    通過手機號查詢用戶信息,所以還需要自定義SmsUserService實現UserDetailsService后。
    
    

    三、測試

    1、獲取驗證碼

    獲取驗證碼的手機號是 15612345678 。因為這裏沒有接第三方的短信SDK,只是在後台輸出。

    向手機號為:15612345678的用戶發送驗證碼:254792
    
    

    2、登陸

    1)驗證碼輸入不正確

    發現登陸失敗,同樣如果手機號碼輸入不對也是登陸失敗

    2)登陸成功

    當手機號碼 和 短信驗證碼都正確的情況下 ,登陸就成功了。

    參考

    1、Spring Security技術棧開發企業級認證與授權(JoJo)

    2、SpringBoot 集成 Spring Security(8)——短信驗證碼登錄

    別人罵我胖,我會生氣,因為我心裏承認了我胖。別人說我矮,我就會覺得好笑,因為我心裏知道我不可能矮。這就是我們為什麼會對別人的攻擊生氣。
    攻我盾者,乃我內心之矛(21)
    

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【【其他文章推薦】

    ※帶您來了解什麼是 USB CONNECTOR  ?

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    ※如何讓商品強力曝光呢? 網頁設計公司幫您建置最吸引人的網站,提高曝光率!

    ※綠能、環保無空污,成為電動車最新代名詞,目前市場使用率逐漸普及化

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※教你寫出一流的銷售文案?