標籤: 南投搬家公司費用

  • 010.OpenShift綜合實驗及應用

    010.OpenShift綜合實驗及應用

    實驗一 安裝OpenShift

    1.1 前置準備

    [student@workstation ~]$ lab review-install setup

    1.2 配置規劃

    OpenShift集群有三個節點:

    • master.lab.example.com:OpenShift master節點,是一個不可調度pod的節點。
    • node1.lab.example.com:一個OpenShift節點,它可以同時運行應用程序和基礎設施pod。
    • node2.lab.example.com:另一個OpenShift節點,它可以同時運行應用程序和基礎設施pod。

    所有節點都使用帶有overlay2驅動程序的OverlayFS來存儲Docker,每個節點中的第二個磁盤(vdb)保留給Docker存儲。

    所有節點都將使用基於rpm的安裝,使用release v3.9和OpenShift image tag version v3.9.14。

    路由的默認域是apps.lab.example.com。Classroom DNS服務器已經配置為將此域中的所有主機名解析為node1.lab.example.com。

    OpenShift集群使用的所有容器image都存儲在registry.lab.example.com提供的私有倉庫中。

    使用兩個基於HTPasswd身份驗證的初始用戶:developer和admin,起密碼都是redhat,developer作為普通用戶,admin作為集群管理員。

    services.lab.example.com中的NFS卷作為OpenShift內部倉庫的持久存儲支持。

    services.lab.example.com也為集群存儲提供NFS服務。

    etcd也部署在master節點上,同時存儲使用services.lab.example.com主機提供的NFS共享存儲。

    集群必須與Internet斷開連接,即使用離線包形式。

    內部OpenShift倉庫應該由NFS持久存儲支持,存儲位於services.lab.example.com。

    master API和控制台將在端口443上運行。

    安裝OpenShift所需的RPM包由已經在所有主機上使用Yum配置文件定義完成。

    /home/student/DO280/labs/review-install文件夾為OpenShift集群的安裝提供了一個部分完成的Ansible目錄文件。這個文件夾中包含了執行安裝前和安裝後步驟所需的Ansible playbook。

    測試應用程序由Git服務器http://services.lab.example.com/phphelloworld提供。這是一個簡單的“hello, world”應用程序。可以使用Source-to-Image來部署這個應用程序,以驗證OpenShift集群是否已部署成功。

    1.3 確認Ansible

      1 [student@workstation ~]$ cd /home/student/DO280/labs/review-install/
      2 [student@workstation review-install]$ sudo yum -y install ansible
      3 [student@workstation review-install]$ ansible --version
      4 [student@workstation review-install]$ cat ansible.cfg
      5 [defaults]
      6 remote_user = student
      7 inventory = ./inventory
      8 log_path = ./ansible.log
      9 
     10 [privilege_escalation]
     11 become = yes
     12 become_user = root
     13 become_method = sudo

    1.4 檢查Inventory

      1 [student@workstation review-install]$ cp inventory.preinstall inventory		#此為準備工作的Inventory
      2 [student@workstation review-install]$ cat inventory
      3 [workstations]
      4 workstation.lab.example.com
      5 
      6 [nfs]
      7 services.lab.example.com
      8 
      9 [masters]
     10 master.lab.example.com
     11 
     12 [etcd]
     13 master.lab.example.com
     14 
     15 [nodes]
     16 master.lab.example.com
     17 node1.lab.example.com
     18 node2.lab.example.com
     19 
     20 [OSEv3:children]
     21 masters
     22 etcd
     23 nodes
     24 nfs
     25 
     26 #Variables needed by the prepare_install.yml playbook.
     27 [nodes:vars]
     28 registry_local=registry.lab.example.com
     29 use_overlay2_driver=true
     30 insecure_registry=false
     31 run_docker_offline=true
     32 docker_storage_device=/dev/vdb

    提示:

    Inventory定義了六個主機組:

    • nfs:為集群存儲提供nfs服務的環境中的vm;
    • masters:OpenShift集群中用作master角色的節點;
    • etcd:用於OpenShift集群的etcd服務的節點,本環境中使用master節點;
    • node:OpenShift集群中的node節點;
    • OSEv3:組成OpenShift集群的所有接待,包括master、etcd、node或nfs組中的節點。

    注意:默認情況下,docker使用在線倉庫下載容器映像。本環境內部無網絡,因此將docker倉庫配置為內部私有倉庫。在yml中使用變量引入倉庫配置。

    此外,安裝會在每個主機上配置docker守護進程,以使用overlay2 image驅動程序存儲容器映像。Docker支持許多不同的image驅動。如AUFS、Btrfs、Device mapper、OverlayFS。

    1.5 確認節點

      1 [student@workstation review-install]$ cat ping.yml
      2 ---
      3 - name: Verify Connectivity
      4   hosts: all
      5   gather_facts: no
      6   tasks:
      7     - name: "Test connectivity to machines."
      8       shell: "whoami"
      9       changed_when: false
     10 [student@workstation review-install]$ ansible-playbook -v ping.yml

    1.6 準備工作

      1 [student@workstation review-install]$ cat prepare_install.yml
      2 ---
      3 - name: "Host Preparation: Docker tasks"
      4   hosts: nodes
      5   roles:
      6     - docker-storage
      7     - docker-registry-cert
      8     - openshift-node
      9 
     10   #Tasks below were not handled by the roles above.
     11   tasks:
     12     - name: Student Account - Docker Access
     13       user:
     14         name: student
     15         groups: docker
     16         append: yes
     17 
     18 ...
     19 [student@workstation review-install]$ ansible-playbook prepare_install.yml

    提示:如上yml引入了三個role,具體role內容參考《002.OpenShift安裝與部署》2.5步驟。

    1.7 確認驗證

      1 [student@workstation review-install]$ ssh node1 'docker pull rhel7:latest' #驗證是否可以正常pull image

    1.8 檢查Inventory

      1 [student@workstation review-install]$ cp inventory.partial inventory		#此為正常安裝的完整Inventory
      2 [student@workstation review-install]$ cat inventory
      3 [workstations]
      4 workstation.lab.example.com
      5 
      6 [nfs]
      7 services.lab.example.com
      8 
      9 [masters]
     10 master.lab.example.com
     11 
     12 [etcd]
     13 master.lab.example.com
     14 
     15 [nodes]
     16 master.lab.example.com
     17 node1.lab.example.com openshift_node_labels="{'region':'infra', 'node-role.kubernetes.io/compute':'true'}"
     18 node2.lab.example.com openshift_node_labels="{'region':'infra', 'node-role.kubernetes.io/compute':'true'}"
     19 
     20 [OSEv3:children]
     21 masters
     22 etcd
     23 nodes
     24 nfs
     25 
     26 #Variables needed by the prepare_install.yml playbook.
     27 [nodes:vars]
     28 registry_local=registry.lab.example.com
     29 use_overlay2_driver=true
     30 insecure_registry=false
     31 run_docker_offline=true
     32 docker_storage_device=/dev/vdb
     33 
     34 
     35 [OSEv3:vars]
     36 #General Variables
     37 openshift_disable_check=disk_availability,docker_storage,memory_availability
     38 openshift_deployment_type=openshift-enterprise
     39 openshift_release=v3.9
     40 openshift_image_tag=v3.9.14
     41 
     42 #OpenShift Networking Variables
     43 os_firewall_use_firewalld=true
     44 openshift_master_api_port=443
     45 openshift_master_console_port=443
     46 #default subdomain
     47 openshift_master_default_subdomain=apps.lab.example.com
     48 
     49 #Cluster Authentication Variables
     50 openshift_master_identity_providers=[{'name': 'htpasswd_auth', 'login': 'true', 'challenge': 'true', 'kind': 'HTPasswdPasswordIdentityProvider', 'filename': '/etc/origin/master/htpasswd'}]
     51 openshift_master_htpasswd_users={'admin': '$apr1$4ZbKL26l$3eKL/6AQM8O94lRwTAu611', 'developer': '$apr1$4ZbKL26l$3eKL/6AQM8O94lRwTAu611'}
     52 
     53 #Need to enable NFS
     54 openshift_enable_unsupported_configurations=true
     55 #Registry Configuration Variables
     56 openshift_hosted_registry_storage_kind=nfs
     57 openshift_hosted_registry_storage_access_modes=['ReadWriteMany']
     58 openshift_hosted_registry_storage_nfs_directory=/exports
     59 openshift_hosted_registry_storage_nfs_options='*(rw,root_squash)'
     60 openshift_hosted_registry_storage_volume_name=registry
     61 openshift_hosted_registry_storage_volume_size=40Gi
     62 
     63 #etcd Configuration Variables
     64 openshift_hosted_etcd_storage_kind=nfs
     65 openshift_hosted_etcd_storage_nfs_options="*(rw,root_squash,sync,no_wdelay)"
     66 openshift_hosted_etcd_storage_nfs_directory=/exports
     67 openshift_hosted_etcd_storage_volume_name=etcd-vol2
     68 openshift_hosted_etcd_storage_access_modes=["ReadWriteOnce"]
     69 openshift_hosted_etcd_storage_volume_size=1G
     70 openshift_hosted_etcd_storage_labels={'storage': 'etcd'}
     71 
     72 #Modifications Needed for a Disconnected Install
     73 oreg_url=registry.lab.example.com/openshift3/ose-${component}:${version}
     74 openshift_examples_modify_imagestreams=true
     75 openshift_docker_additional_registries=registry.lab.example.com
     76 openshift_docker_blocked_registries=registry.access.redhat.com,docker.io
     77 openshift_web_console_prefix=registry.lab.example.com/openshift3/ose-
     78 openshift_cockpit_deployer_prefix='registry.lab.example.com/openshift3/'
     79 openshift_service_catalog_image_prefix=registry.lab.example.com/openshift3/ose-
     80 template_service_broker_prefix=registry.lab.example.com/openshift3/ose-
     81 ansible_service_broker_image_prefix=registry.lab.example.com/openshift3/ose-
     82 ansible_service_broker_etcd_image_prefix=registry.lab.example.com/rhel7/
     83 [student@workstation review-install]$ lab review-install verify		#本環境使用腳本驗證

    1.9 安裝OpenShift Ansible playbook

      1 [student@workstation review-install]$ rpm -qa | grep atomic-openshift-utils
      2 [student@workstation review-install]$ sudo yum -y install atomic-openshift-utils

    1.10 Ansible安裝OpenShift

      1 [student@workstation review-install]$ ansible-playbook \
      2 /usr/share/ansible/openshift-ansible/playbooks/prerequisites.yml

      1 [student@workstation review-install]$ ansible-playbook \
      2 /usr/share/ansible/openshift-ansible/playbooks/deploy_cluster.yml

    1.11 確認驗證

    通過web控制台使用developer用戶訪問https://master.lab.example.com,驗證集群已成功配置。

    1.12 授權

      1 [student@workstation review-install]$ ssh root@master
      2 [root@master ~]# oc whoami
      3 system:admin
      4 [root@master ~]# oc adm policy add-cluster-role-to-user cluster-admin admin

    提示:master節點的root用戶,默認為集群管理員。

    1.13 登錄測試

      1 [student@workstation ~]$ oc login -u admin -p redhat \
      2 https://master.lab.example.com
      3 [student@workstation ~]$ oc get nodes			#驗證節點情況

    1.14 驗證pod

      1 [student@workstation ~]$ oc get pods -n default #查看內部pod

    1.15 測試S2I

      1 [student@workstation ~]$ oc login -u developer -p redhat \
      2 https://master.lab.example.com
      3 [student@workstation ~]$ oc new-project test-s2i	#創建項目
      4 [student@workstation ~]$ oc new-app --name=hello \
      5 php:5.6~http://services.lab.example.com/php-helloworld

    1.16 測試服務

      1 [student@workstation ~]$ oc get pods			#查看部署情況
      2 NAME            READY     STATUS    RESTARTS   AGE
      3 hello-1-build   1/1       Running   0          39s
      4 [student@workstation ~]$ oc expose svc hello		#暴露服務
      5 [student@workstation ~]$ curl hello-test-s2i.apps.lab.example.com	#測試訪問
      6 Hello, World! php version is 5.6.25

    1.17 實驗判斷

      1 [student@workstation ~]$ lab review-install grade #本環境使用腳本判斷
      2 [student@workstation ~]$ oc delete project test-s2i #刪除測試項目

    實驗二 部署一個應用

    2.1 前置準備

      1 [student@workstation ~]$ lab review-deploy setup

    2.2 應用規劃

    部署一個TODO LIST應用,包含以下三個容器:

    一個MySQL數據庫容器,它在TODO列表中存儲關於任務的數據。

    一個Apache httpd web服務器前端容器(todoui),它具有應用程序的靜態HTML、CSS和Javascript。

    基於Node.js的API後端容器(todoapi),將RESTful接口公開給前端容器。todoapi容器連接到MySQL數據庫容器來管理應用程序中的數據

    2.3 設置策略

      1 [student@workstation ~]$ oc login -u admin -p redhat https://master.lab.example.com
      2 [student@workstation ~]$ oc adm policy remove-cluster-role-from-group \
      3 self-provisioner system:authenticated system:authenticated:oauth
      4 #將項目創建限製為僅集群管理員角色,普通用戶不能創建新項目。

    2.4 創建項目

      1 [student@workstation ~]$ oc new-project todoapp
      2 [student@workstation ~]$ oc policy add-role-to-user edit developer	#授予developer用戶可訪問權限的角色edit

    2.5 設置quota

      1 [student@workstation ~]$ oc project todoapp
      2 [student@workstation ~]$ oc create quota todoapp-quota --hard=pods=1	#設置pod的quota

    2.6 創建應用

      1 [student@workstation ~]$ oc login -u developer -p redhat \
      2 https://master.lab.example.com						#使用developer登錄
      3 [student@workstation ~]$ oc new-app --name=hello \
      4 php:5.6~http://services.lab.example.com/php-helloworld			#創建應用
      5 [student@workstation ~]$ oc logs -f bc/hello				#查看build log

    2.7 查看部署

      1 [student@workstation ~]$ oc get pods
      2 NAME             READY     STATUS      RESTARTS   AGE
      3 hello-1-build    0/1       Completed   0          2m
      4 hello-1-deploy   1/1       Running     0          1m
      5 [student@workstation ~]$ oc get events
      6 ……
      7 2m          2m           7         hello.15b54ba822fc1029            DeploymentConfig
      8 Warning   FailedCreate            deployer-controller              Error creating deployer pod: pods "hello-1-deploy" is forbidden: exceeded quota: todoapp-quota, requested: pods=1, used: pods=1, limited: pods=
      9 [student@workstation ~]$ oc describe quota
     10 Name:       todoapp-quota
     11 Namespace:  todoapp
     12 Resource    Used  Hard
     13 --------    ----  ----
     14 pods        1     1

    結論:由於pod的硬quota限制,導致部署失敗。

    2.8 擴展quota

      1 [student@workstation ~]$ oc rollout cancel dc hello	#修正quota前取消dc
      2 [student@workstation ~]$ oc login -u admin -p redhat
      3 [student@workstation ~]$ oc project todoapp
      4 [student@workstation ~]$ oc patch resourcequota/todoapp-quota --patch '{"spec":{"hard":{"pods":"10"}}}'

    提示:也可以使用oc edit resourcequota todoapp-quota命令修改quota配置。

      1 [student@workstation ~]$ oc login -u developer -p redhat
      2 [student@workstation ~]$ oc describe quota		#確認quota
      3 Name:       todoapp-quota
      4 Namespace:  todoapp
      5 Resource    Used  Hard
      6 --------    ----  ----
      7 pods        0     10

    2.9 重新部署

      1 [student@workstation ~]$ oc rollout latest dc/hello
      2 [student@workstation ~]$ oc get pods			#確認部署成功
      3 NAME            READY     STATUS      RESTARTS   AGE
      4 hello-1-build   0/1       Completed   0          9m
      5 hello-2-qklrr   1/1       Running     0          12s
      6 [student@workstation ~]$ oc delete all -l app=hello	#刪除hello

    2.10 配置NFS

      1 [kiosk@foundation0 ~]$ ssh root@services
      2 [root@services ~]# mkdir -p /var/export/dbvol
      3 [root@services ~]# chown nfsnobody:nfsnobody /var/export/dbvol
      4 [root@services ~]# chmod 700 /var/export/dbvol
      5 [root@services ~]# echo "/var/export/dbvol *(rw,async,all_squash)" > /etc/exports.d/dbvol.exports
      6 [root@services ~]# exportfs -a
      7 [root@services ~]# showmount -e

    提示:本實驗使用services上的NFS提供的共享存儲為後續實驗提供持久性存儲。

    2.11 測試NFS

      1 [kiosk@foundation0 ~]$ ssh root@node1
      2 [root@node1 ~]# mount -t nfs services.lab.example.com:/var/export/dbvol /mnt
      3 [root@node1 ~]# ls -la /mnt ; mount | grep /mnt		#測試是否能正常掛載

    提示:建議node2做同樣測試,測試完畢需要卸載,後續使用持久卷會自動進行掛載。

    2.12 創建PV

      1 [student@workstation ~]$ vim /home/student/DO280/labs/review-deploy/todoapi/openshift/mysql-pv.yaml
      2 apiVersion: v1
      3 kind: PersistentVolume
      4 metadata:
      5  name: mysql-pv
      6 spec:
      7  capacity:
      8   storage: 2G
      9  accessModes:
     10   -  ReadWriteMany
     11  nfs:
     12   path: /var/export/dbvol
     13   server: services.lab.example.com
     14 [student@workstation ~]$ oc login -u admin -p redhat
     15 [student@workstation ~]$ oc create -f /home/student/DO280/labs/review-deploy/todoapi/openshift/mysql-pv.yaml
     16 [student@workstation ~]$ oc get pv

    2.13 導入模板

      1 [student@workstation ~]$ oc apply -n openshift -f /home/student/DO280/labs/review-deploy/todoapi/openshift/nodejs-mysql-template.yaml

    提示:模板文件見附件。

    2.14 使用dockerfile創建image

      1 [student@workstation ~]$ vim /home/student/DO280/labs/review-deploy/todoui/Dockerfile
      2 FROM  rhel7:7.5
      3 
      4 MAINTAINER Red Hat Training <training@redhat.com>
      5 
      6 # DocumentRoot for Apache
      7 ENV HOME /var/www/html
      8 
      9 # Need this for installing HTTPD from classroom yum repo
     10 ADD training.repo /etc/yum.repos.d/training.repo
     11 RUN yum downgrade -y krb5-libs libstdc++ libcom_err && \
     12     yum install -y --setopt=tsflags=nodocs \
     13     httpd \
     14     openssl-devel \
     15     procps-ng \
     16     which && \
     17     yum clean all -y && \
     18     rm -rf /var/cache/yum
     19 
     20 # Custom HTTPD conf file to log to stdout as well as change port to 8080
     21 COPY conf/httpd.conf /etc/httpd/conf/httpd.conf
     22 
     23 # Copy front end static assets to HTTPD DocRoot
     24 COPY src/ ${HOME}/
     25 
     26 # We run on port 8080 to avoid running container as root
     27 EXPOSE 8080
     28 
     29 # This stuff is needed to make HTTPD run on OpenShift and avoid
     30 # permissions issues
     31 RUN rm -rf /run/httpd && mkdir /run/httpd && chmod -R a+rwx /run/httpd
     32 
     33 # Run as apache user and not root
     34 USER 1001
     35 
     36 # Launch apache daemon
     37 CMD /usr/sbin/apachectl -DFOREGROUND
     38 [student@workstation ~]$ cd /home/student/DO280/labs/review-deploy/todoui/
     39 [student@workstation todoui]$ docker build -t todoapp/todoui .
     40 [student@workstation todoui]$ docker images
     41 REPOSITORY                       TAG                 IMAGE ID            CREATED             SIZE
     42 todoapp/todoui                   latest              0249e1c69e38        39 seconds ago      239 MB
     43 registry.lab.example.com/rhel7   7.5                 4bbd153adf84        12 months ago       201 MB

    2.15 推送倉庫

      1 [student@workstation todoui]$ docker tag todoapp/todoui:latest \
      2 registry.lab.example.com/todoapp/todoui:latest
      3 [student@workstation todoui]$ docker push \
      4 registry.lab.example.com/todoapp/todoui:latest

    提示:將從dockerfile創建的image打標,然後push至內部倉庫。

    2.16 導入IS

      1 [student@workstation todoui]$ oc whoami -c
      2 todoapp/master-lab-example-com:443/admin
      3 [student@workstation todoui]$ oc import-image todoui \
      4 --from=registry.lab.example.com/todoapp/todoui \
      5 --confirm -n todoapp					#將docker image導入OpenShift的Image Streams
      6 [student@workstation todoui]$ oc get is -n todoapp
      7 NAME      DOCKER REPO                                       TAGS      UPDATED
      8 todoui    docker-registry.default.svc:5000/todoapp/todoui   latest    13 seconds ago
      9 [student@workstation todoui]$ oc describe is todoui -n todoapp	#查看is

    2.17 創建應用

    瀏覽器登錄https://master.lab.example.com,選擇todoapp的項目。

    查看目錄。

    語言——>JavaScript——Node.js + MySQL (Persistent)。

    參考下錶建立應用:

    名稱
    Git Repository URL http://services.lab.example.com/todoapi
    Application Hostname todoapi.apps.lab.example.com
    MySQL Username todoapp
    MySQL Password todoapp
    Database name todoappdb
    Database Administrator Password redhat

    create進行創建。

    Overview進行查看。

    2.18 測試數據庫

      1 [student@workstation ~]$ oc port-forward mysql-1-6hq4d 3306:3306		#保持端口轉發
      2 [student@workstation ~]$ mysql -h127.0.0.1 -u todoapp -ptodoapp todoappdb < /home/student/DO280/labs/review-deploy/todoapi/sql/db.sql
      3 #導入測試數據至數據庫
      4 [student@workstation ~]$ mysql -h127.0.0.1 -u todoapp -ptodoapp todoappdb -e "select id, description, case when done = 1 then 'TRUE' else 'FALSE' END as done from Item;"
      5 #查看是否導入成功

    2.19 訪問測試

      1 [student@workstation ~]$ curl -s http://todoapi.apps.lab.example.com/todo/api/host | python -m json.tool	#curl訪問
      2 {
      3     "hostname": "todoapi-1-kxlnx",
      4     "ip": "10.128.0.12"
      5 }
      6 [student@workstation ~]$ curl -s http://todoapi.apps.lab.example.com/todo/api/items | python -m json.tool	#curl訪問

    2.20 創建應用

      1 [student@workstation ~]$ oc new-app --name=todoui -i todoui	#使用todoui is創建應用
      2 [student@workstation ~]$ oc get pods
      3 NAME              READY     STATUS      RESTARTS   AGE
      4 mysql-1-6hq4d     1/1       Running     0          9m
      5 todoapi-1-build   0/1       Completed   0          9m
      6 todoapi-1-kxlnx   1/1       Running     0          8m
      7 todoui-1-wwg28    1/1       Running     0          32s

    2.21 暴露服務

      1 [student@workstation ~]$ oc expose svc todoui --hostname=todo.apps.lab.example.com

    瀏覽器訪問:http://todo.apps.lab.example.com

    2.22 實驗判斷

      1 [student@workstation ~]$ lab review-deploy grade #本環境使用腳本判斷

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※教你寫出一流的銷售文案?

  • 新技術如何驅動混合動力汽車市場化-第三屆混合動力汽車技術峰會

    新技術如何驅動混合動力汽車市場化-第三屆混合動力汽車技術峰會

    在中國日益嚴重的環境污染壓力和“霧霾”陰影籠罩下,混合動力及純電動汽車的發展形成了勢在必行的趨勢。即使《節能與新能源汽車產業發展規劃》以及四部委聯合發佈的《關於繼續開展新能源汽車推廣應用工作的通知》中明確了純電動以及插電式混合動力汽車的補貼政策,第二批新能源汽車試點運行城市也出臺在即,但新能源汽車產業的前景仍然未能明朗化,標準不統一,基礎建設不健全,電池技術受到局限的電動車以及補貼政策不明確的混合動力汽車都面臨各自發展的瓶頸。在全球並未形成一種成熟應用模式的狀況下,中國應該走出怎樣的一條有自我特色的路線圖。

    目前,全球能源和環境系統面臨巨大的挑戰,汽車作為石油消耗和二氧化碳排放的大戶,需要進行革命性的變革。目前全球新能源汽車發展已經形成了共識,從長期來看,包括純電動、燃料電池技術在內的純電驅動將是新能源汽車的主要技術方向,在短期內,油電混合、插電式混合動力將是重要的過渡路線。目前來看,全球新能源汽車的發展還面臨著一些共同的難題,例如關鍵技術的突破、汽車工業的轉型、基礎設施的建設以及消費者的接受度等。

    為了提升中國混合動力汽車技術發展,幫助整車廠獲得一手的技術和市場訊息,第三屆混合動力汽車技術峰會茲定於2014年6月26日至27日,在虹橋喜來登上海太平洋大飯店舉行,主題為“技術驅動混合動力汽車市場化”。

    市場方面,中國汽車技術研究中心的高級工程師張銅柱將在此次會議上對電動汽車分標委工作及標準最新制修訂情況做相關發言,介紹工作組成立背景、工作組籌備情況、成員構成、工作內容及工作計畫等。中國化學與物理電源行業協會副秘書長劉彥龍將會就新能源汽車用動力電池市場需求發表演講,深度分析目前國內外鋰電池的發展處於一個什麼狀態,決定鋰電池未來應用之路的關鍵是什麼。中國機電產品進出口商會汽車分會秘書長孟凡一將會對中國汽車進出口情況進行回顧及展望,並分析在全球經濟活動較弱以及國際貿易保護主義抬頭的態勢下,2014年國際汽車市場的總體形勢和客觀上嚴重影響我國汽車出口行業的諸多不確定因素。

    技術方面,精進電動創始人兼CTO蔡蔚將會對汽車電動化的動力總成與動力總成的電機系統做相關介紹,講述他觀點中混合動力汽車長期存在的基礎,動力總成的拓撲結構,混合動力變速箱的分析與比較,以及動力總成對電機系統要求與電機系同的開發及產業化。上海電驅動股份有限公司技術中心主任徐延東將結合領先的Demo project解析混合動力電機控制器集成裝置及其技術解決方案。其他技術題目還包括底盤,控制器軟硬體,逆變器,插電式混合動力,增程式混合動力汽車以及超級電容等領域的領先技術。

    歷屆混合動力汽車技術峰會得到了發改委能源研究所、中國汽車工業協會專家委員會、上海汽車工程學會、中國汽車技術研究中心、中國電源產業創新聯盟、上海交通大學汽車工程研究院、汽車安全與節能國家重點實驗室、中國北方車輛研究所動力電池實驗室等組織的大力支持。

    更多詳情請聯繫第三屆混合動力汽車技術峰會組委會
    朱小姐電話:+86 21 61808505*212
    郵箱:

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理
    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※回頭車貨運收費標準

  • 日本4大車廠傳籌組合資公司 以大量擴增國內充電設施

    據日經新聞12日報導,為了加快電動車(EV)、插電式油電混合車(PHV)的普及速度,豐田汽車(Toyota)、本田汽車(Honda)、日產汽車(Nissan)和三菱汽車(Mitsubishi)等日本4大車廠將出資合組一家從事充電設備整備業務的新公司,以藉此加快日本充電設施的整備速度。

    該家合資新公司將在5月底設立,出資比重預估各為25%,今後並計劃將設備整備對象擴及至燃料電池車(FCV)上。

    EV用充電器分為快速充電器(僅需約30分鐘就可將EV電力充到8成滿)和普通充電器兩種,截至2014年3月底為止,日本國內的快速充電器和普通充電器數量分別為2千座、4千座。而上述日本4大車廠已於2013年7月同意攜手合作擴增充電器數量,目標為新增4千座快速充電器和8千座普通充電器。

    報導稱,設置一座快速充電器的費用最高達500萬日圓,故若要達到上述目標,預估需300億日圓資金,惟因日本政府最高可補助3/2的設置費用,故上述4大車廠計劃透過新公司平均負擔所需的剩餘費用,藉此可讓加油站、便利超商等充電器設置業者所需負擔的費用變為零、可望進一步加快充電器的普及速度。

    此外,合資新公司還將努力提高充電器使用費徵收公司的收費系統相容性,以打消顧客對其便利性的顧慮。

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※想知道最厲害的網頁設計公司"嚨底家"!

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※別再煩惱如何寫文案,掌握八大原則!

  • 雷諾計畫2016年啟動在華生産 純電動汽車也在考慮之列

    據日經新聞今(23)日報導,法國車企雷諾(Renault)將從2016年開始啟動在華生産,並與組成聯盟的日産汽車(Nissan)在採購和生産等廣泛領域展開合作,通過共享日産的採購網等舉措來削減成本,以提高價格競爭力。值得注意的是,雷諾還將考慮在中國生産純電動汽車(EV)。

    在正在舉行的北京國際車展上,雷諾亞太區董事長吉爾斯•諾曼德(Gilles Normand)表示,「(在中國)起步較晚的雷諾要想脫穎而出,如何推進本地化生産非常重要」。

    雷諾將積極利用日産的採購網等,將零部件的本地採購率提高至85%左右。德國福斯(VW)和美國通用汽車(GM)等主要企業已經進駐中國,而本地採購率被認為達到80~90%。

    雷諾去年12月從中國政府獲得了工廠建設許可,距離其計劃發佈已有9年。諾曼德表示,亞太地區汽車銷量佔世界的45%,而雷諾全球份額中僅有約10%來自亞太,「希望提高存在感」。

    雷諾在中國已經與東風汽車建立了合資公司。工廠位於湖北省武漢市,將於2016年開始生産多功能運動車(SUV)等,年産能在15萬輛左右。該公司首席執行官(CEO)卡洛斯•戈恩表示,將來希望擴大至年産60~70萬輛。

    中國目前面臨著嚴重的大氣污染問題。諾曼德表示,「在中國無法避開環境問題」,針對純電動車的生産,「公司內部正在進行各方面討論」,承認正在考慮純電動車的本地化生産。

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理
    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※回頭車貨運收費標準

  • 比亞迪交付首部於美國工廠生產的純電動大巴

    據中新社報導,昨(28)日,比亞迪(BYD)首部在美國蘭卡斯特電動汽車工廠組裝制造的電動大巴車下線並交付使用。該工廠是美國首個中國獨資的清潔能源汽車工廠,於去年5月在加州南部城市蘭卡斯特落成。

    新生產的電動大巴整車長12米,最多可以乘坐60名乘客,續航裏程155英裏(約250公裏),充電時間需3-5個小時。

    加州州長傑瑞-布朗表示,比亞迪的清潔能源大巴為加州環境向好發展以及中美經貿合作發展起到了良好的促進作用。

    盡管比亞迪開拓美國市場的過程並非一帆風順,但在加州各級政府和合作夥伴的共同努力下,比亞迪成功生產出首輛美國本土制造、無污染、零排放、全電動的大巴。

    這不僅有利于創造就業,促進經濟增長,造福當地社區及加州,同時也樹立起了中國投資者的良好形象,有利于進一步增強中國投資者對于加州的投資信心。

    中國駐洛杉磯總領館卞立新代總領事表示,當前,中美關係進入了一個新的發展時期,經貿合作已成為兩國關係的最大亮點。據統計,去年來南加州投資的中國企業比前一年增長76%。

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※教你寫出一流的銷售文案?

  • 併發編程 —— 線程池

    併發編程 —— 線程池

    概述

    在程序中,我們會用各種池化技術來緩存創建昂貴的對象,比如線程池、連接池、內存池。一般是預先創建一些對象放入池中,使用的時候直接取出使用,用完歸還以便復用,還會通過一定的策略調整池中緩存對象的數量,實現池的動態伸縮。

    由於線程的創建比較昂貴,隨意、沒有控制地創建大量線程會造成性能問題,因此短平快的任務一般考慮使用線程池來處理,而不是直接創建線程。

    那麼,如何正確的創建並正確的使用線程池呢,這篇文章就來細看下。

    線程池

    雖然在 Java 語言中創建線程看上去就像創建一個對象一樣簡單,只需要 new Thread() 就可以了,但實際上創建線程遠不是創建一個對象那麼簡單。

    創建對象,僅僅是在 JVM 的堆里分配一塊內存而已;而創建一個線程,卻需要調用操作系統內核的 API,然後操作系統要為線程分配一系列的資源,這個成本就很高了。所以線程是一個重量級的對象,應該避免頻繁創建和銷毀,一般就是採用線程池來避免頻繁的創建和銷毀線程。

     

    線程池原理

    Java 通過用戶線程與內核線程結合的 1:1 線程模型來實現,Java 將線程的調度和管理設置在了用戶態。在 HotSpot VM 的線程模型中,Java 線程被一對一映射為內核線程。Java 在使用線程執行程序時,需要創建一個內核線程;當該 Java 線程被終止時,這個內核線程也會被回收。因此 Java 線程的創建與銷毀將會消耗一定的計算機資源,從而增加系統的性能開銷。

    除此之外,大量創建線程同樣會給系統帶來性能問題,因為內存和 CPU 資源都將被線程搶佔,如果處理不當,就會發生內存溢出、CPU 使用率超負荷等問題。

    為了解決上述兩類問題,Java 提供了線程池概念,對於頻繁創建線程的業務場景,線程池可以創建固定的線程數量,並且在操作系統底層,輕量級進程將會把這些線程映射到內核。

    線程池可以提高線程復用,又可以固定最大線程使用量,防止無限制地創建線程。當程序提交一個任務需要一個線程時,會去線程池中查找是否有空閑的線程,若有,則直接使用線程池中的線程工作,若沒有,會去判斷當前已創建的線程數量是否超過最大線程數量,如未超過,則創建新線程,如已超過,則進行排隊等待或者直接拋出異常。

     

    線程池是一種生產者 – 消費者模式

    線程池的設計,普遍採用的都是生產者 – 消費者模式。線程池的使用方是生產者,線程池本身是消費者。

    原理實現大致如下:

     1 package com.lyyzoo.test.concurrent.executor;  2 
     3 import java.util.ArrayList;  4 import java.util.List;  5 import java.util.concurrent.BlockingQueue;  6 import java.util.concurrent.LinkedBlockingQueue;  7 
     8 /**
     9  * @author bojiangzhou 2020/02/12 10  */
    11 public class CustomThreadPool { 12 
    13     public static void main(String[] args) { 14         // 使用有界阻塞隊列 創建線程池
    15         CustomThreadPool pool = new CustomThreadPool(2, new LinkedBlockingQueue<>(10)); 16         pool.execute(() -> { 17             System.out.println("提交了一個任務"); 18  }); 19  } 20 
    21     // 利用阻塞隊列實現生產者-消費者模式
    22     final BlockingQueue<Runnable> workQueue; 23     // 保存內部工作線程
    24     final List<Thread> threads = new ArrayList<>(); 25 
    26     public CustomThreadPool(int coreSize, BlockingQueue<Runnable> workQueue) { 27         this.workQueue = workQueue; 28         // 創建工作線程
    29         for (int i = 0; i < coreSize; i++) { 30             WorkerThread work = new WorkerThread(); 31  work.start(); 32  threads.add(work); 33  } 34  } 35 
    36     // 生產者 提交任務
    37     public void execute(Runnable command) { 38         try { 39             // 隊列已滿,put 會一直等待
    40  workQueue.put(command); 41         } catch (InterruptedException e) { 42  e.printStackTrace(); 43  } 44  } 45 
    46     /**
    47  * 工作線程負責消費任務,並執行任務 48      */
    49     class WorkerThread extends Thread { 50  @Override 51         public void run() { 52             // 循環取任務並執行,take 取不到任務會一直等待
    53             while (true) { 54                 try { 55                     Runnable runnable = workQueue.take(); 56  runnable.run(); 57                 } catch (InterruptedException e) { 58  e.printStackTrace(); 59  } 60  } 61  } 62  } 63 }

    ThreadPoolExecutor

    線程池參數說明

    Java 提供的線程池相關的工具類中,最核心的是 ThreadPoolExecutor,通過名字也能看出來,它強調的是 Executor,而不是一般意義上的池化資源。

    ThreadPoolExecutor 的構造函數非常複雜,這個最完備的構造函數有 7 個參數:

     

    各個參數的含義如下:

    • corePoolSize:表示線程池保有的最小線程數。
    • maximumPoolSize:表示線程池創建的最大線程數。
    • keepAliveTime & unit:如果一個線程空閑了 keepAliveTime & unit 這麼久,而且線程池的線程數大於 corePoolSize ,那麼這個空閑的線程就要被回收了。
    • workQueue:工作隊列,一般定義有界阻塞隊列。
    • threadFactory:通過這個參數你可以自定義如何創建線程,例如你可以給線程指定一個有意義的名字。
    • handler:通過這個參數可以自定義任務的拒絕策略。如果線程池中所有的線程都在忙碌,並且工作隊列也滿了(前提是工作隊列是有界隊列),那麼此時提交任務,線程池就會拒絕接收。ThreadPoolExecutor 已經提供了以下 4 種拒絕策略。
      •   CallerRunsPolicy:提交任務的線程自己去執行該任務。
      •   AbortPolicy:默認的拒絕策略,會 throws RejectedExecutionException。
      •   DiscardPolicy:直接丟棄任務,沒有任何異常拋出。
      •   DiscardOldestPolicy:丟棄最老的任務,其實就是把最早進入工作隊列的任務丟棄,然後把新任務加入到工作隊列。

     

    ThreadPoolExecutor 構造完成后,還可以通過如下方法定製默認行為:

    • executor.allowCoreThreadTimeOut(true):將包括“核心線程”在內的,沒有任務分配的所有線程,在等待 keepAliveTime 時間后回收掉。
    • executor.prestartAllCoreThreads():創建線程池后,立即創建核心數個工作線程;線程池默認是在任務來時才創建工作線程。

     

    創建線程池示例:

     1 public void test() throws InterruptedException {  2     ThreadPoolExecutor poolExecutor = new ThreadPoolExecutor(  3             // 核心線程數
     4             2,  5             // 最大線程數
     6             16,  7             // 線程空閑時間
     8             60, TimeUnit.SECONDS,  9             // 使用有界阻塞隊列
    10             new LinkedBlockingQueue<>(1024), 11             // 定義線程創建方式,可自定線程名稱
    12             new ThreadFactoryBuilder().setNameFormat("executor-%d").build(), 13             // 自定義拒絕策略,一般和降級策略配合使用
    14             (r, executor) -> { 15                 // 隊列已滿,拒絕執行
    16                 throw new RejectedExecutionException("Task " + r.toString() +
    17                         " rejected from " + executor.toString()); 18  } 19  ); 20 
    21     poolExecutor.submit(() -> { 22         LOGGER.info("submit task"); 23  }); 24 }

     

    線程池的線程分配流程

    任務提交后的大致流程如下圖所示。提交任務后,如果線程數小於 corePoolSize,則創建新線程執行任務,無論當前線程池的線程是否空閑都會創建新的線程。

    當創建的線程數等於 corePoolSize 時,提交的任務會被加入到設置的阻塞隊列中。

    當隊列滿了,則會創建非核心線程執行任務,直到線程池中的線程數量等於 maximumPoolSize。

    當線程數量已經等於 maximumPoolSize 時, 新提交的任務無法加入到等待隊列,也無法創建非核心線程直接執行,如果沒有為線程池設置拒絕策略,這時線程池就會拋出 RejectedExecutionException 異常,即默認拒絕接受任務。

     

    線程池默認的拒絕策略就是丟棄任務,所以我們在設置有界隊列時,需要考慮設置合理的拒絕策略,要考慮到高峰時期任務的數量,避免任務被丟棄而影響業務流程。

     

    強烈建議使用有界隊列

    創建 ThreadPoolExecutor 時強烈建議使用有界隊列。如果設置為無界隊列,那麼一般最大線程數的設置是不起作用的,而且遇到任務高峰時,如果一直往隊列添加任務,容易出現OOM,拋出如下異常。

    Exception in thread "http-nio-45678-ClientPoller" java.lang.OutOfMemoryError: GC overhead limit exceeded

     

    使用有界隊列時,需要注意,當任務過多時,線程池會觸發執行拒絕策略,線程池默認的拒絕策略會拋出 RejectedExecutionException,這是個運行時異常,對於運行時異常編譯器並不強制 catch 它,所以開發人員很容易忽略,因此默認拒絕策略要慎重使用。如果線程池處理的任務非常重要,建議自定義自己的拒絕策略;並且在實際工作中,自定義的拒絕策略往往和降級策略配合使用。

     

    監控線程池的狀態

    建議用一些監控手段來觀察線程池的狀態。線程池這個組件往往會表現得任勞任怨、默默無聞,除非是出現了拒絕策略,否則壓力再大都不會拋出一個異常。如果我們能提前觀察到線程池隊列的積壓,或者線程數量的快速膨脹,往往可以提早發現並解決問題。

     1 public static void displayThreadPoolStatus(ThreadPoolExecutor threadPool, String threadPoolName, long period, TimeUnit unit) {
     2     Executors.newSingleThreadScheduledExecutor().scheduleAtFixedRate(() -> {
     3         LOGGER.info("[>>ExecutorStatus<<] ThreadPool Name: [{}], Pool Status: [shutdown={}, Terminated={}], Pool Thread Size: {}, Active Thread Count: {}, Task Count: {}, Tasks Completed: {}, Tasks in Queue: {}",
     4                 threadPoolName,
     5                 threadPool.isShutdown(), threadPool.isTerminated(), // 線程是否被終止
     6                 threadPool.getPoolSize(), // 線程池線程數量
     7                 threadPool.getActiveCount(), // 工作線程數
     8                 threadPool.getTaskCount(), // 總任務數
     9                 threadPool.getCompletedTaskCount(), // 已完成的任務數
    10                 threadPool.getQueue().size()); // 線程池中線程的數量
    11     }, 0, period, unit);
    12 }

    線程池任務提交方式

    提交任務可以通過 execute 和 submit 方法提交任務,下面就來看下它們的區別。

    submit 方法簽名:

    execute 方法簽名:

     

    使用 execute 提交任務

    使用 execute 提交任務,線程池內拋出異常會導致線程退出,線程池只能重新創建一個線程。如果每個異步任務都以異常結束,那麼線程池可能完全起不到線程重用的作用。

    而且主線程無法捕獲(catch)到線程池內拋出的異常。因為沒有手動捕獲異常進行處理,ThreadGroup 幫我們進行了未捕獲異常的默認處理,向標準錯誤輸出打印了出現異常的線程名稱和異常信息。顯然,這種沒有以統一的錯誤日誌格式記錄錯誤信息打印出來的形式,對生產級代碼是不合適的。

     

    如下,execute 提交任務,拋出異常后,從線程名稱可以看出,老線程退出,創建了新的線程。

    ThreadGroup 處理未捕獲異常:直接輸出到 System.err

     

    解決方式:

    • 以 execute 方法提交到線程池的異步任務,最好在任務內部做好異常處理;
    • 設置自定義的異常處理程序作為保底,比如在聲明線程池時自定義線程池的未捕獲異常處理程序。或者設置全局的默認未捕獲異常處理程序。
     1 // 自定義線程池的未捕獲異常處理程序
     2 ThreadPoolExecutor executor = new ThreadPoolExecutor(8, 8,  3         30, TimeUnit.MINUTES,  4         new LinkedBlockingQueue<>(),  5         new ThreadFactoryBuilder()  6                 .setNameFormat("pool-%d")  7                 .setUncaughtExceptionHandler((Thread t, Throwable e) -> {  8                     log.error("pool happen exception, thread is {}", t, e);  9  }) 10  .build()); 11                 
    12 // 設置全局的默認未捕獲異常處理程序
    13 static { 14     Thread.setDefaultUncaughtExceptionHandler((thread, throwable)-> { 15         log.error("Thread {} got exception", thread, throwable) 16  }); 17 }  

    定義的異常處理程序將未捕獲的異常信息打印到標準日誌中了,老線程同樣會退出。如果要避免這個問題,就需要使用 submit 方法提交任務。

     

    使用 submit 提交任務

    使用 submit,線程不會退出,但是異常不會記錄,會被生吞掉。查看 FutureTask 源碼可以發現,在執行任務出現異常之後,異常存到了一個 outcome 字段中,只有在調用 get 方法獲取 FutureTask 結果的時候,才會以 ExecutionException 的形式重新拋出異常。所以我們可以通過捕獲 get 方法拋出的異常來判斷線程的任務是否拋出了異常。

     

    submit 提交任務,可以通過 Future 獲取返回結果,如果拋出異常,可以捕獲 ExecutionException 得到異常棧信息。通過線程名稱可以看出,老線程也沒有退出。

    需要注意的是,使用 submit 時,setUncaughtExceptionHandler 設置的異常處理器不會生效。

     

    submit 與 execute 的區別

    execute提交的是Runnable類型的任務,而submit提交的是Callable或者Runnable類型的任務;

    execute的提交沒有返回值,而submit的提交會返回一個Future類型的對象;

    execute提交的時候,如果有異常,就會直接拋出異常,而submit在遇到異常的時候,通常不會立馬拋出異常,而是會將異常暫時存儲起來,等待你調用Future.get()方法的時候,才會拋出異常;

    execute 提交的任務拋出異常,老線程會退出,線程池會立即創建一個新的線程。submit 提交的任務拋出異常,老線程不會退出;

    線程池設置的 UncaughtExceptionHandler 對 execute 提交的任務生效,對 submit 提交的任務不生效。

    線程數設置多少合適

    創建多少線程合適,要看多線程具體的應用場景。我們的程序一般都是 CPU 計算和 I/O 操作交叉執行的,由於 I/O 設備的速度相對於 CPU 來說都很慢,所以大部分情況下,I/O 操作執行的時間相對於 CPU 計算來說都非常長,這種場景我們一般都稱為 I/O 密集型計算;和 I/O 密集型計算相對的就是 CPU 密集型計算了,CPU 密集型計算大部分場景下都是純 CPU 計算。I/O 密集型程序和 CPU 密集型程序,計算最佳線程數的方法是不同的。

     

    CPU 密集型計算

    多線程本質上是提升多核 CPU 的利用率,所以對於一個 4 核的 CPU,每個核一個線程,理論上創建 4 個線程就可以了,再多創建線程也只是增加線程切換的成本。所以,對於 CPU 密集型的計算場景,理論上“線程的數量 = CPU 核數”就是最合適的。不過在工程上,線程的數量一般會設置為“CPU 核數 +1”,這樣的話,當線程因為偶爾的內存頁失效或其他原因導致阻塞時,這個額外的線程可以頂上,從而保證 CPU 的利用率。

     

    I/O 密集型的計算場景

    如果 CPU 計算和 I/O 操作的耗時是 1:1,那麼 2 個線程是最合適的。如果 CPU 計算和 I/O 操作的耗時是 1:2,那設置 3 個線程是合適的,如下圖所示:CPU 在 A、B、C 三個線程之間切換,對於線程 A,當 CPU 從 B、C 切換回來時,線程 A 正好執行完 I/O 操作。這樣 CPU 和 I/O 設備的利用率都達到了 100%。

    會發現,對於 I/O 密集型計算場景,最佳的線程數是與程序中 CPU 計算和 I/O 操作的耗時比相關的,可以總結出這樣一個公式:最佳線程數 =1 +(I/O 耗時 / CPU 耗時)

    對於多核 CPU,需要等比擴大,計算公式如下:最佳線程數 =CPU 核數 * [ 1 +(I/O 耗時 / CPU 耗時)]

     

    線程池線程數設置 

    可通過如下方式獲取CPU核數:

    1 /**
    2  * 獲取返回CPU核數 3  * 4  * @return 返回CPU核數,默認為8 5  */
    6 public static int getCpuProcessors() { 7     return Runtime.getRuntime() != null && Runtime.getRuntime().availableProcessors() > 0 ?
    8             Runtime.getRuntime().availableProcessors() : 8; 9 }

     

    在一些非核心業務中,我們可以將核心線程數設置小一些,最大線程數量設置為CPU核心數量,阻塞隊列大小根據具體場景設置;不要過大,防止大量任務進入等待隊列而超時,應儘快創建非核心線程執行任務;也不要過小,避免隊列滿了任務被拒絕丟棄。

     1 public ThreadPoolExecutor executor() {  2     int coreSize = getCpuProcessors();  3     ThreadPoolExecutor executor = new ThreadPoolExecutor(  4             2, coreSize,  5             10, TimeUnit.MINUTES,  6             new LinkedBlockingQueue<>(512),  7             new ThreadFactoryBuilder().setNameFormat("executor-%d").build(), 10             new ThreadPoolExecutor.AbortPolicy() 11  );14 
    15     return executor; 16 }

     

    在一些核心業務中,核心線程數設置為CPU核心數,最大線程數可根據公式 最佳線程數 =CPU 核數 * [ 1 +(I/O 耗時 / CPU 耗時)] 來計算。阻塞隊列可以根據具體業務場景設置,如果線程處理業務非常迅速,我們可以考慮將阻塞隊列設置大一些,處理的請求吞吐量會大些;如果線程處理業務非常耗時,阻塞隊列設置小些,防止請求在阻塞隊列中等待過長時間而導致請求已超時。

    public ThreadPoolExecutor executor() { int coreSize = getCpuProcessors(); ThreadPoolExecutor executor = new ThreadPoolExecutor( coreSize, coreSize * 8, 30, TimeUnit.MINUTES, new LinkedBlockingQueue<>(1024), new ThreadFactoryBuilder().setNameFormat("executor-%d").build(), new ThreadPoolExecutor.AbortPolicy() );return executor; }

     

    注意:一般不要將 corePoolSize 設置為 0,例如下面的線程池,使用了無界隊列,雖 maximumPoolSize > 0,但實際上只會有一個工作線程,因為其它任務都加入等待隊列了。

    1 ThreadPoolExecutor executor = new ThreadPoolExecutor(0, 5, 30, TimeUnit.SECONDS, 3         new LinkedBlockingQueue<>(), 4         new ThreadFactoryBuilder().setNameFormat("test-%d").build() 5 );

     

    線程池如何優先啟用非核心線程

    如果想讓線程池激進一點,優先開啟更多的線程,而把隊列當成一個後備方案,可以自定義隊列,重寫 offer 方法,因為線程池是通過 offer 方法將任務放入隊列。

     

    通過重寫隊列的 offer 方法,直接返回 false,造成這個隊列已滿的假象,線程池在工作隊列滿了無法入隊的情況下會擴容線程池。直到線程數達到最大線程數,就會觸發拒絕策略,此時再通過自定義的拒絕策略將任務通過隊列的 put 方法放入隊列中。這樣就可以優先開啟更多線程,而不是進入隊列了。

     1 public static void main(String[] args) {  2     // ThreadPoolExecutor 通過 offer 將元素放入隊列,重載隊列的 offer 方法,直接返回 false,造成隊列已滿的假象  3     // 隊列滿時,會創建新的線程直到達到 maximumPoolSize,之後會觸發執行拒絕策略
     4     LinkedBlockingQueue<Runnable> queue = new LinkedBlockingQueue<Runnable>() {  5         private static final long serialVersionUID = 8303142475890427046L;  6 
     7  @Override  8         public boolean offer(Runnable e) {  9             return false; 10  } 11  }; 12 
    13     // 當線程達到 maximumPoolSize 時會觸發拒絕策略,此時將任務 put 到隊列中
    14     RejectedExecutionHandler rejectedExecutionHandler = new RejectedExecutionHandler() { 15  @Override 16         public void rejectedExecution(Runnable r, ThreadPoolExecutor executor) { 17             try { 18                 // 任務拒絕時,通過 put 放入隊列
    19  queue.put(r); 20             } catch (InterruptedException e) { 21  Thread.currentThread().interrupt(); 22  } 23  } 24  }; 25 
    26     // 構造線程池
    27     ThreadPoolExecutor executor = new ThreadPoolExecutor(2, 4, 28             600, TimeUnit.SECONDS, 29  queue, 30             new ThreadFactoryBuilder().setNameFormat("demo-%d").build(), 31  rejectedExecutionHandler); 32 
    33     IntStream.rangeClosed(1, 50).forEach(i -> { 34         executor.submit(() -> { 35             log.info("start..."); 36             sleep(9000); 37  }); 38  }); 39 }

    優雅的終止線程和線程池

    優雅地終止線程

    在程序中,我們不能隨便中斷一個線程,因為這是極其不安全的操作,我們無法知道這個線程正運行在什麼狀態,它可能持有某把鎖,強行中斷可能導致鎖不能釋放的問題;或者線程可能在操作數據庫,強行中斷導致數據不一致混亂的問題。正因此,JAVA里將Thread的stop方法設置為過時,以禁止大家使用。

    優雅地終止線程,不是自己終止自己,而是在一個線程 T1 中,終止線程 T2;這裏所謂的“優雅”,指的是給 T2 一個機會料理後事,而不是被一劍封喉。兩階段終止模式,就是將終止過程分成兩個階段,其中第一個階段主要是線程 T1 向線程 T2發送終止指令,而第二階段則是線程 T2響應終止指令。

    Java 線程進入終止狀態的前提是線程進入 RUNNABLE 狀態,而實際上線程也可能處在休眠狀態,也就是說,我們要想終止一個線程,首先要把線程的狀態從休眠狀態轉換到 RUNNABLE 狀態。如何做到呢?這個要靠 Java Thread 類提供的 interrupt() 方法,它可以將休眠狀態的線程轉換到 RUNNABLE 狀態。

    線程轉換到 RUNNABLE 狀態之後,我們如何再將其終止呢?RUNNABLE 狀態轉換到終止狀態,優雅的方式是讓 Java 線程自己執行完 run() 方法,所以一般我們採用的方法是設置一個標誌位,然後線程會在合適的時機檢查這個標誌位,如果發現符合終止條件,則自動退出 run() 方法。這個過程其實就是第二階段:響應終止指令。終止指令,其實包括兩方面內容:interrupt() 方法和線程終止的標誌位。

    如果我們在線程內捕獲中斷異常(如Thread.sleep()拋出了中斷一次)之後,需通過 Thread.currentThread().interrupt() 重新設置線程的中斷狀態,因為 JVM 的異常處理會清除線程的中斷狀態。

     

    建議自己設置線程終止標誌位,避免線程內調用第三方類庫的方法未處理線程中斷狀態,如下所示。

     1 public class InterruptDemo {  2 
     3     /**
     4  * 輸出:調用 interrupt() 時,只是設置了線程中斷標識,線程依舊會繼續執行當前方法,執行完之後再退出線程。  5  * do something...  6  * continue do something...  7  * do something...  8  * continue do something...  9  * do something... 10  * 線程被中斷... 11  * continue do something... 12      */
    13     public static void main(String[] args) throws InterruptedException { 14         Proxy proxy = new Proxy(); 15  proxy.start(); 16 
    17         Thread.sleep(6000); 18  proxy.stop(); 19  } 20 
    21     static class Proxy { 22         // 自定義線程終止標誌位
    23         private volatile boolean terminated = false; 24 
    25         private boolean started = false; 26 
    27  Thread t; 28 
    29         public synchronized void start() { 30             if (started) { 31                 return; 32  } 33             started = true; 34             terminated = false; 35 
    36             t = new Thread(() -> { 37                 while (!terminated) { // 取代 while (true)
    38                     System.out.println("do something..."); 39                     try { 40                         Thread.sleep(2000); 41                     } catch (InterruptedException e) { 42                         // 如果其它線程中斷此線程,拋出異常時,需重新設置線程中斷狀態,因為 JVM 的異常處理會清除線程的中斷狀態。
    43                         System.out.println("線程被中斷..."); 44  Thread.currentThread().interrupt(); 45  } 46                     System.out.println("continue do something..."); 47  } 48                 started = false; 49  }); 50  t.start(); 51  } 52 
    53         public synchronized void stop() { 54             // 設置中斷標誌
    55             terminated = true; 56  t.interrupt(); 57  } 58  } 59 
    60 }

     

    優雅的終止線程池

    線程池提供了兩個方法來中斷線程池:shutdown() 和 shutdownNow()。

    shutdown():是一種很保守的關閉線程池的方法。線程池執行 shutdown() 后,就會拒絕接收新的任務,但是會等待線程池中正在執行的任務和已經進入阻塞隊列的任務都執行完之後才最終關閉線程池。

    shutdownNow():相對激進一些,線程池執行 shutdownNow() 后,會拒絕接收新的任務,同時還會中斷線程池中正在執行的任務,已經進入阻塞隊列的任務也被剝奪了執行的機會,不過這些被剝奪執行機會的任務會作為 shutdownNow() 方法的返回值返回。因為 shutdownNow() 方法會中斷正在執行的線程,所以提交到線程池的任務,如果需要優雅地結束,就需要正確地處理線程中斷。如果提交到線程池的任務不允許取消,那就不能使用 shutdownNow() 方法終止線程池。

     

    如果想在jvm關閉的時候進行內存清理、對象銷毀等操作,或者僅僅想起個線程然後這個線程不會退出,可以使用Runtime.addShutdownHook。

    這個方法的作用就是在JVM中增加一個關閉的鈎子。當程序正常退出、系統調用 System.exit 方法或者虛擬機被關閉時才會執行系統中已經設置的所有鈎子,當系統執行完這些鈎子后,JVM才會關閉。

    利用這個性質,就可以在這個最後執行的線程中把線程池優雅的關閉掉。雖然jvm關閉了,但優雅關閉線程池總是好的,特別是涉及到服務端的 tcp 連接。

     1 /**
     2  * 添加Hook在Jvm關閉時優雅的關閉線程池  3  *  4  * @param threadPool 線程池  5  * @param threadPoolName 線程池名稱  6  */
     7 public static void hookShutdownThreadPool(ExecutorService threadPool, String threadPoolName) {  8     Runtime.getRuntime().addShutdownHook(new Thread(() -> {  9         LOGGER.info("[>>ExecutorShutdown<<] Start to shutdown the thead pool: [{}]", threadPoolName); 10         // 使新任務無法提交
    11  threadPool.shutdown(); 12         try { 13             // 等待未完成任務結束
    14             if (!threadPool.awaitTermination(60, TimeUnit.SECONDS)) { 15                 threadPool.shutdownNow(); // 取消當前執行的任務
    16                 LOGGER.warn("[>>ExecutorShutdown<<] Interrupt the worker, which may cause some task inconsistent. Please check the biz logs."); 17 
    18                 // 等待任務取消的響應
    19                 if (!threadPool.awaitTermination(60, TimeUnit.SECONDS)) { 20                     LOGGER.error("[>>ExecutorShutdown<<] Thread pool can't be shutdown even with interrupting worker threads, which may cause some task inconsistent. Please check the biz logs."); 21  } 22  } 23         } catch (InterruptedException ie) { 24             // 重新取消當前線程進行中斷
    25  threadPool.shutdownNow(); 26             LOGGER.error("[>>ExecutorShutdown<<] The current server thread is interrupted when it is trying to stop the worker threads. This may leave an inconsistent state. Please check the biz logs."); 27 
    28             // 保留中斷狀態
    29  Thread.currentThread().interrupt(); 30  } 31 
    32         LOGGER.info("[>>ExecutorShutdown<<] Finally shutdown the thead pool: [{}]", threadPoolName); 33  })); 34 }

    Executors

    考慮到 ThreadPoolExecutor 的構造函數實在是有些複雜,所以 Java 併發包里提供了一個線程池的靜態工廠類 Executors,利用 Executors 你可以快速創建線程池。

    但《阿里巴巴 Java 開發手冊》中提到,禁止使用這些方法來創建線程池,而應該手動 new ThreadPoolExecutor 來創建線程池。最重要的原因是:Executors 提供的很多方法默認使用的都是無界的 LinkedBlockingQueue,高負載情境下,無界隊列很容易導致 OOM,而 OOM 會導致所有請求都無法處理,這是致命問題。最典型的就是 newFixedThreadPool 和 newCachedThreadPool,可能因為資源耗盡導致 OOM 問題。

     

    newCachedThreadPool

    具有緩存性質的線程池,線程最大空閑時間60s,線程可重複利用,沒有最大線程數限制。使用的是 SynchronousQueue 無容量阻塞隊列,沒有最大線程數限制。這意味着,只要有請求到來,就必須找到一條工作線程來處理,如果當前沒有空閑的線程就再創建一條新的。

    高併發情況下,大量的任務進來後會創建大量的線程,導致OOM(無法創建本地線程):

    1 [11:30:30.487] [http-nio-45678-exec-1] [ERROR] [.a.c.c.C.[.[.[/].[dispatcherServlet]:175 ] - Servlet.service() for servlet [dispatcherServlet] in context with path [] threw exception [Handler dispatch failed; 2     nested exception is java.lang.OutOfMemoryError: unable to create new native thread] with root cause 3 java.lang.OutOfMemoryError: unable to create new native thread 

     

    newFixedThreadPool

    具有固定數量的線程池,核心線程數等於最大線程數,超出最大線程數進行等待。使用的是 LinkedBlockingQueue 無界阻塞隊列。雖然使用 newFixedThreadPool 可以把工作線程控制在固定的數量上,但任務隊列是無界的。如果任務較多並且執行較慢的話,隊列可能會快速積壓,撐爆內存導致 OOM。

    如果一直往這個無界隊列中添加任務,不久就會出現OOM異常(內存佔滿):

    1 Exception in thread "http-nio-45678-ClientPoller" 
    2     java.lang.OutOfMemoryError: GC overhead limit exceeded

     

    newSingleThreadExecutor

    核心線程數與最大線程數均為1,可用於當鎖控制同步。使用的是 LinkedBlockingQueue 無界阻塞隊列。

     

    newScheduledThreadPool

    具有時間調度性的線程池,必須初始化核心線程數。

    沒有最大線程數限制,線程最大空閑時間為0,空閑線程執行完即銷毀。底層使用 DelayedWorkQueue 實現延遲特性。

    線程池創建正確姿勢

    最後,總結一下,從如下的一些方面考慮如何正確地創建線程池。

    線程池配置

    我們需要根據自己的場景、併發情況來評估線程池的幾個核心參數,包括核心線程數、最大線程數、線程回收策略、工作隊列的類型,以及拒絕策略,確保線程池的工作行為符合需求,一般都需要設置有界的工作隊列和可控的線程數。

    要根據任務的“輕重緩急”來指定線程池的核心參數,包括線程數、回收策略和任務隊列:

    • 對於執行比較慢、數量不大的 IO 任務,要考慮更多的線程數,而不需要太大的隊列。
    • 對於吞吐量較大的計算型任務,線程數量不宜過多,可以是 CPU 核數或核數 *2(理由是,線程一定調度到某個 CPU 進行執行,如果任務本身是 CPU 綁定的任務,那麼過多的線程只會增加線程切換的開銷,並不能提升吞吐量),但可能需要較長的隊列來做緩衝。

     

    任何時候,都應該為自定義線程池指定有意義的名稱,以方便排查問題。當出現線程數量暴增、線程死鎖、線程佔用大量 CPU、線程執行出現異常等問題時,我們往往會抓取線程棧。此時,有意義的線程名稱,就可以方便我們定位問題。

    除了建議手動聲明線程池以外,還建議用一些監控手段來觀察線程池的狀態。如果我們能提前觀察到線程池隊列的積壓,或者線程數量的快速膨脹,往往可以提早發現並解決問題。

     

    確認線程池本身是不是復用的

    既然使用了線程池就需要確保線程池是在復用的,每次 new 一個線程池出來可能比不用線程池還糟糕。如果你沒有直接聲明線程池而是使用其他同學提供的類庫來獲得一個線程池,請務必查看源碼,以確認線程池的實例化方式和配置是符合預期的。

     

    斟酌線程池的混用策略

    不要盲目復用線程池,別人定義的線程池屬性不一定適合你的任務,而且混用會相互干擾。

    另外,Java 8 的 parallel stream 背後是共享同一個 ForkJoinPool,默認并行度是 CPU 核數 -1。對於 CPU 綁定的任務來說,使用這樣的配置比較合適,但如果集合操作涉及同步 IO 操作的話(比如數據庫操作、外部服務調用等),建議自定義一個 ForkJoinPool(或普通線程池)。因此在使用 Java8 的并行流時,建議只用在計算密集型的任務,IO密集型的任務建議自定義線程池來提交任務,避免影響其它業務。

     

    CommonExecutor

    如下是我自己封裝的一個線程池工具類,還提供了執行批量任務的方法,關於批量任務後面再單獨寫篇文章來介紹。

     1 package org.hzero.core.util;  2 
     3 import java.util.ArrayList;  4 import java.util.Collections;  5 import java.util.List;  6 import java.util.concurrent.*;  7 import java.util.stream.Collectors;  8 import javax.annotation.Nonnull;  9 
     10 import com.google.common.util.concurrent.ThreadFactoryBuilder;  11 import org.apache.commons.collections4.CollectionUtils;  12 import org.apache.commons.lang3.RandomUtils;  13 import org.slf4j.Logger;  14 import org.slf4j.LoggerFactory;  15 import org.springframework.dao.DuplicateKeyException;  16 
     17 import io.choerodon.core.exception.CommonException;  18 
     19 import org.hzero.core.base.BaseConstants;  20 
     21 /**
     22  * @author bojiangzhou 2020/02/24  23  */
     24 public class CommonExecutor {  25 
     26     private static final Logger LOGGER = LoggerFactory.getLogger(CommonExecutor.class);  27 
     28     private static final ThreadPoolExecutor BASE_EXECUTOR;  29 
     30     static {  31         BASE_EXECUTOR = buildThreadFirstExecutor("BaseExecutor");  32  }  33 
     34     /**
     35  * 構建線程優先的線程池  36  * <p>  37  * 線程池默認是當核心線程數滿了后,將任務添加到工作隊列中,當工作隊列滿了之後,再創建線程直到達到最大線程數。  38  *  39  * <p>  40  * 線程優先的線程池,就是在核心線程滿了之後,繼續創建線程,直到達到最大線程數之後,再把任務添加到工作隊列中。  41  *  42  * <p>  43  * 此方法默認設置核心線程數為 CPU 核數,最大線程數為 8倍 CPU 核數,空閑線程超過 5 分鐘銷毀,工作隊列大小為 65536。  44  *  45  * @param poolName 線程池名稱  46  * @return ThreadPoolExecutor  47      */
     48     public static ThreadPoolExecutor buildThreadFirstExecutor(String poolName) {  49         int coreSize = CommonExecutor.getCpuProcessors();  50         int maxSize = coreSize * 8;  51         return buildThreadFirstExecutor(coreSize, maxSize, 5, TimeUnit.MINUTES, 1 << 16, poolName);  52  }  53 
     54     /**
     55  * 構建線程優先的線程池  56  * <p>  57  * 線程池默認是當核心線程數滿了后,將任務添加到工作隊列中,當工作隊列滿了之後,再創建線程直到達到最大線程數。  58  *  59  * <p>  60  * 線程優先的線程池,就是在核心線程滿了之後,繼續創建線程,直到達到最大線程數之後,再把任務添加到工作隊列中。  61  *  62  * @param corePoolSize 核心線程數  63  * @param maximumPoolSize 最大線程數  64  * @param keepAliveTime 空閑線程的空閑時間  65  * @param unit 時間單位  66  * @param workQueueSize 工作隊列容量大小  67  * @param poolName 線程池名稱  68  * @return ThreadPoolExecutor  69      */
     70     public static ThreadPoolExecutor buildThreadFirstExecutor(int corePoolSize,  71                                                               int maximumPoolSize,  72                                                               long keepAliveTime,  73  TimeUnit unit,  74                                                               int workQueueSize,  75  String poolName) {  76         // 自定義隊列,優先開啟更多線程,而不是放入隊列
     77         LinkedBlockingQueue<Runnable> queue = new LinkedBlockingQueue<Runnable>(workQueueSize) {  78             private static final long serialVersionUID = 5075561696269543041L;  79 
     80  @Override  81             public boolean offer(@Nonnull Runnable o) {  82                 return false; // 造成隊列已滿的假象
     83  }  84  };  85 
     86         // 當線程達到 maximumPoolSize 時會觸發拒絕策略,此時將任務 put 到隊列中
     87         RejectedExecutionHandler rejectedExecutionHandler = (runnable, executor) -> {  88             try {  89                 // 任務拒絕時,通過 offer 放入隊列
     90  queue.put(runnable);  91             } catch (InterruptedException e) {  92                 LOGGER.warn("{} Queue offer interrupted. ", poolName, e);  93  Thread.currentThread().interrupt();  94  }  95  };  96 
     97         ThreadPoolExecutor executor = new ThreadPoolExecutor(  98  corePoolSize, maximumPoolSize,  99  keepAliveTime, unit, 100  queue, 101                 new ThreadFactoryBuilder() 102                         .setNameFormat(poolName + "-%d") 103                         .setUncaughtExceptionHandler((Thread thread, Throwable throwable) -> { 104                             LOGGER.error("{} catching the uncaught exception, ThreadName: [{}]", poolName, thread.toString(), throwable); 105  }) 106  .build(), 107  rejectedExecutionHandler 108  ); 109 
    110  CommonExecutor.displayThreadPoolStatus(executor, poolName); 111  CommonExecutor.hookShutdownThreadPool(executor, poolName); 112         return executor; 113  } 114 
    115     /**
    116  * 批量提交異步任務,使用默認的線程池
    117 * 118 * @param tasks 將任務轉化為 AsyncTask 批量提交 119 */ 120 public static <T> List<T> batchExecuteAsync(List<AsyncTask<T>> tasks, @Nonnull String taskName) { 121 return batchExecuteAsync(tasks, BASE_EXECUTOR, taskName); 122 } 123 124 /** 125 * 批量提交異步任務,執行失敗可拋出異常或返回異常編碼即可 <br> 126 * <p> 127 * 需注意提交的異步任務無法控制事務,一般需容忍產生一些垃圾數據的情況下才能使用異步任務,異步任務執行失敗將拋出異常,主線程可回滾事務. 128 * <p> 129 * 異步任務失敗后,將取消剩餘的任務執行. 130 * 131 * @param tasks 將任務轉化為 AsyncTask 批量提交 132 * @param executor 線程池,需自行根據業務場景創建相應的線程池 133 * @return 返回執行結果 134 */ 135 public static <T> List<T> batchExecuteAsync(@Nonnull List<AsyncTask<T>> tasks, @Nonnull ThreadPoolExecutor executor, @Nonnull String taskName) { 136 if (CollectionUtils.isEmpty(tasks)) { 137 return Collections.emptyList(); 138 } 139 140 int size = tasks.size(); 141 142 List<Callable<T>> callables = tasks.stream().map(t -> (Callable<T>) () -> { 143 try { 144 T r = t.doExecute(); 145 146 LOGGER.debug("[>>Executor<<] Async task execute success. ThreadName: [{}], BatchTaskName: [{}], SubTaskName: [{}]", 147 Thread.currentThread().getName(), taskName, t.taskName()); 148 return r; 149 } catch (Throwable e) { 150 LOGGER.warn("[>>Executor<<] Async task execute error. ThreadName: [{}], BatchTaskName: [{}], SubTaskName: [{}], exception: {}", 151 Thread.currentThread().getName(), taskName, t.taskName(), e.getMessage()); 152 throw e; 153 } 154 }).collect(Collectors.toList()); 155 156 CompletionService<T> cs = new ExecutorCompletionService<>(executor, new LinkedBlockingQueue<>(size)); 157 List<Future<T>> futures = new ArrayList<>(size); 158 LOGGER.info("[>>Executor<<] Start async tasks, BatchTaskName: [{}], TaskSize: [{}]", taskName, size); 159 160 for (Callable<T> task : callables) { 161 futures.add(cs.submit(task)); 162 } 163 164 List<T> resultList = new ArrayList<>(size); 165 for (int i = 0; i < size; i++) { 166 try { 167 Future<T> future = cs.poll(6, TimeUnit.MINUTES); 168 if (future != null) { 169 T result = future.get(); 170 resultList.add(result); 171 LOGGER.debug("[>>Executor<<] Async task [{}] - [{}] execute success, result: {}", taskName, i, result); 172 } else { 173 cancelTask(futures); 174 LOGGER.error("[>>Executor<<] Async task [{}] - [{}] execute timeout, then cancel other tasks.", taskName, i); 175 throw new CommonException(BaseConstants.ErrorCode.TIMEOUT); 176 } 177 } catch (ExecutionException e) { 178 LOGGER.warn("[>>Executor<<] Async task [{}] - [{}] execute error, then cancel other tasks.", taskName, i, e); 179 cancelTask(futures); 180 Throwable throwable = e.getCause(); 181 if (throwable instanceof CommonException) { 182 throw (CommonException) throwable; 183 } else if (throwable instanceof DuplicateKeyException) { 184 throw (DuplicateKeyException) throwable; 185 } else { 186 throw new CommonException("error.executorError", e.getCause().getMessage()); 187 } 188 } catch (InterruptedException e) { 189 cancelTask(futures); 190 Thread.currentThread().interrupt(); // 重置中斷標識 191 LOGGER.error("[>>Executor<<] Async task [{}] - [{}] were interrupted.", taskName, i); 192 throw new CommonException(BaseConstants.ErrorCode.ERROR); 193 } 194 } 195 LOGGER.info("[>>Executor<<] Finish async tasks , BatchTaskName: [{}], TaskSize: [{}]", taskName, size); 196 return resultList; 197 } 198 199 /** 200 * 根據一定周期輸出線程池的狀態 201 * 202 * @param threadPool 線程池 203 * @param threadPoolName 線程池名稱 204 */ 205 public static void displayThreadPoolStatus(ThreadPoolExecutor threadPool, String threadPoolName) { 206 displayThreadPoolStatus(threadPool, threadPoolName, RandomUtils.nextInt(60, 600), TimeUnit.SECONDS); 207 } 208 209 /** 210 * 根據一定周期輸出線程池的狀態 211 * 212 * @param threadPool 線程池 213 * @param threadPoolName 線程池名稱 214 * @param period 周期 215 * @param unit 時間單位 216 */ 217 public static void displayThreadPoolStatus(ThreadPoolExecutor threadPool, String threadPoolName, long period, TimeUnit unit) { 218 Executors.newSingleThreadScheduledExecutor().scheduleAtFixedRate(() -> { 219 LOGGER.info("[>>ExecutorStatus<<] ThreadPool Name: [{}], Pool Status: [shutdown={}, Terminated={}], Pool Thread Size: {}, Active Thread Count: {}, Task Count: {}, Tasks Completed: {}, Tasks in Queue: {}", 220 threadPoolName, 221 threadPool.isShutdown(), threadPool.isTerminated(), // 線程是否被終止 222 threadPool.getPoolSize(), // 線程池線程數量 223 threadPool.getActiveCount(), // 工作線程數 224 threadPool.getTaskCount(), // 總任務數 225 threadPool.getCompletedTaskCount(), // 已完成的任務數 226 threadPool.getQueue().size()); // 線程池中線程的數量 227 }, 0, period, unit); 228 } 229 230 /** 231 * 添加Hook在Jvm關閉時優雅的關閉線程池 232 * 233 * @param threadPool 線程池 234 * @param threadPoolName 線程池名稱 235 */ 236 public static void hookShutdownThreadPool(ExecutorService threadPool, String threadPoolName) { 237 Runtime.getRuntime().addShutdownHook(new Thread(() -> { 238 LOGGER.info("[>>ExecutorShutdown<<] Start to shutdown the thead pool: [{}]", threadPoolName); 239 // 使新任務無法提交 240 threadPool.shutdown(); 241 try { 242 // 等待未完成任務結束 243 if (!threadPool.awaitTermination(60, TimeUnit.SECONDS)) { 244 threadPool.shutdownNow(); // 取消當前執行的任務 245 LOGGER.warn("[>>ExecutorShutdown<<] Interrupt the worker, which may cause some task inconsistent. Please check the biz logs."); 246 247 // 等待任務取消的響應 248 if (!threadPool.awaitTermination(60, TimeUnit.SECONDS)) { 249 LOGGER.error("[>>ExecutorShutdown<<] Thread pool can't be shutdown even with interrupting worker threads, which may cause some task inconsistent. Please check the biz logs."); 250 } 251 } 252 } catch (InterruptedException ie) { 253 // 重新取消當前線程進行中斷 254 threadPool.shutdownNow(); 255 LOGGER.error("[>>ExecutorShutdown<<] The current server thread is interrupted when it is trying to stop the worker threads. This may leave an inconsistent state. Please check the biz logs."); 256 257 // 保留中斷狀態 258 Thread.currentThread().interrupt(); 259 } 260 261 LOGGER.info("[>>ExecutorShutdown<<] Finally shutdown the thead pool: [{}]", threadPoolName); 262 })); 263 } 264 265 /** 266 * 獲取返回CPU核數 267 * 268 * @return 返回CPU核數,默認為8 269 */ 270 public static int getCpuProcessors() { 271 return Runtime.getRuntime() != null && Runtime.getRuntime().availableProcessors() > 0 ? 272 Runtime.getRuntime().availableProcessors() : 8; 273 } 274 275 private static <T> void cancelTask(List<Future<T>> futures) { 276 for (Future<T> future : futures) { 277 if (!future.isDone()) { 278 future.cancel(true); 279 } 280 } 281 } 282 283 }

    AsyncTask:

     1 package org.hzero.core.util;  2 
     3 import java.util.UUID;  4 
     5 public interface AsyncTask<T> {  6 
     7     default String taskName() {  8         return UUID.randomUUID().toString();  9  } 10 
    11  T doExecute(); 12 }

     

    ————————————————————————————————————–

     

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理
    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※回頭車貨運收費標準

  • C++ Primer Plus(三)

    完整閱讀C++ Primer Plus 

      系統重新學習C++語言部分,記錄重要但易被忽略的,關鍵但易被遺忘的。

     

    使用類

      1、不能重載的運算符

     1 sizeof       sizeof運算符
     2 .            成員運算符
     3 .*           成員指針運算符
     4 ::           作用域解析運算符
     5 ?:           條件運算符
     6 typeid       一個RTTI運算符
     7 const_cast         強制類型轉換運算符
     8 dynamic_cast       強制類型轉換運算符
     9 reinterpret_cast   強制類型轉換運算符
    10 static_cast       強制類型轉換運算符

      2、只能通過成員函數重載的運算符

    1 =         賦值運算符
    2 ()        函數調用運算符
    3 []        下標運算符
    4 ->        通過指針訪問類成員的運算符

      3、關於類的類型轉換函數,C++11支持對其使用explicit關鍵字,使其無法進行隱式類型轉換。

      4、對於定義了一個以上的轉換函數的類,編譯器在某些情況下(如將一個對象直接賦值給一個基本類型,或用cout輸出時)無法確定應該使用哪一個轉換函數(進行隱式類型轉換),因此將出現二義性錯誤,但只有一個轉換函數時,編譯器只能選擇這一個,因此不會出錯。

     

    類和動態內存分配

      5、將新對象显示地初始化為現有對象時將調用拷貝構造函數,默認的拷貝構造函數將除靜態成員以外的所有成員按值賦值。

    1 String a(b);
    2 String a = b;
    3 String a = String(b);
    4 String * a = new String(b);

      將已有的對象賦值給另一個已有的對象時,會調用賦值構造函數。

      6、靜態成員函數不與特定的對象關聯,因此只能使用靜態數據成員(單例模式)。

      7、對於使用定位new運算符創建的對象,應顯式地調用其析構函數,需要注意的是,在析構時,對象的析構順序應該與創建順序相反,因為晚創建的對象可能依賴於早創建的對象,另外,只有當所有對象被銷毀后,才能釋放存儲這些對象地緩衝區。

      8、只有構造函數可以使用初始化列表語法,對於const類成員(C++11之前)和聲明為引用的類成員,必須使用這種語法,因為它們只能在被創建時初始化。

     

    類繼承

      9、 公有繼承是最常用的繼承方式,它建立一種is-a關係,即派生類對象也是一個基類對象,可以對基類對象執行的任何操作,也可以對派生類對象執行。公有繼承不建立has-a關係;公有繼承不建立is-like-a關係;公有繼承不建立is-implemented-as-a(作為……來實現)關係;公有繼承不建立uses-a關係。在C++中,完全可以使用公有繼承來實現has-a、is-implemented-as-a或use-a關係,然而這樣做通常會導致編程方面的問題,因此,還是堅持使用is-a關係吧。

      10、 在基類的方法中使用關鍵字virtual可使該方法在基類已經所有派生類(包括從派生類派生出來的類)中是虛的,也就是說只要函數名相同,只需要在基類中聲明為虛函數,那它的派生類中,包括派生派生類中的這個函數都是虛函數,但為了可讀性,一般派生類中的虛函數也用virtual聲明。

      11、如果重新定義繼承的方法,應確保與原來的原型完全相同,但如果返回類型是基類引用或指針,則可以修改為指向派生類的引用或指針,這種特性被稱為返回類型協變,因為允許返回類型隨類類型的變化而變化。

      12、如果基類聲明被重載了,則應在派生類中重新定義所有的基類版本,如果只在派生類中只定義了一個版本,則另外的版本將被隱藏。

      13、C++允許純虛函數有定義,但不能在類內定義,可以在實現文件中定義。

      14、當基類和派生類都為至少一個成員採用了動態內存分配時,派生類的析構函數,拷貝構造函數,賦值構造函數都必須使用相應的基類方法來處理基類元素。對於析構函數,這是自動完成的;對於拷貝構造函數,是通過初始化列表中調用積累的拷貝構造函數完成的;對於賦值構造函數是通過使用作用域解析運算符显示地調用基類的賦值構造函數完成的。

      15、當派生類的友元函數需要訪問基類中的非公有成員時,做法是在派生類的友元函數中將派生類的引用強制類型轉換為基類的引用。

     

    C++中的代碼重用

      16、當類的初始化列表包含多個項目時,這些項目的初始化順序為聲明它們的順序,而不是他們在初始化列表中的順序,如果代碼使用一個成員的值作為另一個成員初始化表達式的一部分時,初始化順序就需要引起注意。

      17、在繼承時,private是默認值,因此忽略訪問限定符也將導致私有繼承。

      18、在私有繼承時,訪問基類方法,需要使用類名加作用域解析運算符訪問;訪問基類對象(例如將基類對象當作返回值時),可以將派生類強制類型轉換為基類;訪問基類友元函數時,因為友元函數不屬於成員函數,因此不能顯式地限定函數名去訪問,可以通過顯式地轉換為基類來調用正確的函數。

      19、通常,應該使用包含來建立has-a關係,如果新類需要訪問原有類的保護成員,或需要重新定義虛函數,則應使用私有繼承。

      20、對於指向對象的類或引用中的隱式向上轉換,公有繼承直接支持,保護繼承只在派生類中支持,私有繼承不支持。

      21、如果要使私有繼承的基類中的私有函數可以在派生類外訪問,可以聲明一個公有函數,再去調用基類的私有函數,另外還可以使用using聲明:

    1 class A:private B
    2 {
    3 public:
    4     using B:foo; // 只需要有函數簽名即可,所有重載版本都可以使用
    5 }

      另一種老式的方法是將基類方法名放在派生類的共有部分。

      22、在多重繼承中,如果出現了菱形繼承,頂端的基類應該使用虛繼承,防止底端的派生類包含兩份基類,同時,在構造函數的初始化列表裡應該顯式地調用頂端基類的構造函數,對於虛基類必須這樣做,否則將使用虛基類的默認構造函數,並且此時的虛基類無法通過中間的派生類去完成構造,但對於非虛基類,這是非法的。

      23、在混合使用虛基類和非虛基類,類通過多條虛途徑和非虛途徑繼承某個特定的基類時,該類將包含,一個表示所有的虛途徑即基類子對象和分別表示各條非虛途徑的多個基類子對象。

      24、使用非虛基類時,二義性的規則很簡單,只要類從不同類那裡繼承了同名的成員,使用時沒有用類名限定,則一定會導致二義性,但虛基類時不一定會導致二義性,如果某個名稱優先於其他名稱,則使用它。優先的規則是,派生類中的名稱優先於直接或間接祖先類中的相同名稱。

      25、有間接虛基類的派生類包含直接調用間接基類構造函數的構造函數,這對於間接非虛基類是非法的。

      26、 在類模板中,模板代碼不能修改參數的值,也不能使用參數得地址,在實例化時,用作表達式參數的值必須是常量表達式。

      27、使用關鍵字template並指出所需類型來聲明類時,編譯器將生成類聲明的顯式實例化,聲明必須位於模板定義所在的命名空間中。

      28、C++允許部分具體化:

    1 template <class T1, class T2> class Pair{};  // 一般版本
    2 template <class T1> class Pair<T1, int>{};    // 部分顯式具體化版本

      template后的<>中是沒有被具體化的參數,如果指定所有的類型,template后的<>將為空,這會導致顯式具體化。

      29、如果有多個版本可以選擇,編譯器將選擇具體化最高的版本,部分具體化特性使得能夠設置各種限制。

    1 template<T> class Feeb{};
    2 template<T*> class Feeb{}; // 也可以為指針提供特殊版本來部分具體化
    3 
    4 template<class T1, class T2, class T3> class Trio{}; //一般版本
    5 template<class T1, class T2> class Trio<T1, T2, T2>{}; // 使用T2設置T3
    6 template<class T1> class Trio<T1, T1*, T1*>{}; // 使用T1的指針來設置T2和T3

      30、較老的編譯器不支持模板成員,而另一些編譯器支持模板成員,但是不支持在類外面的定義。如果支持類外定義,則必須通過作用域解析運算符指出是哪個類的成員,並且使用嵌套模板的聲明方式。

    1 template<typename T>
    2 template<typename V>  // 嵌套方式  

      31、 對於模板類的非模板友元函數,它不是通過對象調用的,因為它不是成員函數,它可以訪問全局對象,可以使用全局指針訪問非全局對象,可以創建自己的對象,可以訪問獨立於對象的模板類靜態數據成員。

      32、在聲明模板類的約束模板友元函數(友元函數也是模板函數)時,需要在類中聲明具體化的友元函數,同時也需要在類外聲明並且給出友元函數的定義。

      33、除了使用typedef對模板進行重命名,C++11新增了別名

    1 template<typename T>
    2 using arrtype = std::array<T,12>;
    3 arrtype<int> days;

      這種語法也適用於非模板,用於非模板時,它和typedef等價。

     

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※教你寫出一流的銷售文案?

  • 布袋蓮洗刷惡名 成為肯亞再生能源金礦

    摘錄自2019年9月30日聯合報報導

    布袋蓮為原產於南美洲的水生植物,20世紀初首次出現於非洲。自從布袋蓮開始在1900年從南非開普敦開始向外蔓延,並開始堵塞主要水壩和河流後,科學家稱它為「世界最嚴重的水生雜草」。布袋蓮常因阻塞重要水道且難以根除而遭到敵視,但它在非洲肯亞卻有助提供更乾淨的能源,進而保護居民健康。

    英國衛報報導,在肯亞基蘇木郡(Kisumu)維多利亞湖的Winam灣岸邊附近,大量布袋蓮腐爛在湖邊,但那些逐漸腐壞的蠟質葉片卻是可再生能源的金礦。事實證明,布袋蓮不僅繁殖能力出眾,它的葉子還含有高比例的碳和氮。早期研究預測,僅約4公斤的乾燥布袋蓮,就能滿足一個大家庭的日常能源需求。

    肯亞學者證實,布袋蓮能將有機物轉化為甲烷(沼氣的主要成分)、二氧化碳及水。因為沼氣容易燃燒,一般天然氣能做的事情它都能辦到,像是煮飯、加熱或作為動力來源。Dunga村2018年獲贈兩個沼氣池,能為村莊60%人口提供服務,現在肯亞約有50個沼氣池。

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※回頭車貨運收費標準

  • 中國新鑽井平台是否進入南海 越南密切關注

    摘錄自2019年10月3日中央社報導

    中國新鑽井平台「海洋石油982」傳出在海上準備運作,或許會在南海使用。越南政府今天表示,正在查證這個消息,強調各方在南海的任何行動都要遵守1982年聯合國海洋法公約。

    越南外交部今天在河內舉行例行記者會,發言人黎氏秋恆(Le Thi Thu Hang)回答記者提問時表示,越南相關部門密切關注且正在查證中華人民共和國可能將「海洋石油982」鑽井平台駛入南海海域(越稱東海)的消息。

    黎氏秋恆說:「越南認為,(各方)在東海的任何行動都要遵守1982年聯合國海洋法公約,包括遵守沿海國家主權、主權權利和管轄權在內,為維護區域和平與穩定做出切實貢獻。」

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※教你寫出一流的銷售文案?

  • 日本岩手、宮城水產品可望出口 歐盟:最快2019年內解禁

    摘錄自2019年10月05日東森新聞日本報導

    日本2011年4月發生9.0地震,福島第一核電站因此放射性物質外洩,成為嚴重的核災事故,讓各國紛紛對日本核災地區設下禁令,不願讓汙染物入國。如今,日本政府表示,歐盟在今年內將會放寬對日本食品的進口限制。

    綜合日媒報導,日本執政黨相關人士5日指出,歐盟委員會主席容克(Jean-Claude Juncker)於之前的布魯塞爾會談時向日本首相安倍晉三透露,歐盟很快就會放寬對日本食品的進口限制,尤其是取消岩手、宮城縣的水產品進口禁令。

    事實上,歐盟早在2017年就取消對福島縣大米的禁令,不過日本仍然致力於說服其他國家,包括歐盟、中國、韓國及美國等,希望解除福島食品的禁令,也強調日本出口食品時都會通過嚴格檢驗,出口品絕對安全。

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※回頭車貨運收費標準