標籤: 網頁設計公司

  • RabbitMQ入門,我是動了心的

    RabbitMQ入門,我是動了心的

    人一輩子最值得炫耀的不應該是你的財富有多少(雖然這話說得有點違心,呵呵),而是你的學習能力。技術更新迭代的速度非常快,那作為程序員,我們就應該擁有一顆擁抱變化的心,积極地跟進。

    在 RabbitMQ 入門之前,我已經入門了 Redis、Elasticsearch 和 MongoDB,這讓我感覺自己富有極客精神,非常良好。

    小夥伴們在繼續閱讀之前,我必須要聲明一點,我對 RabbitMQ 並沒有進行很深入的研究,僅僅是因為要用,就學一下。但作為一名負責任的技術博主,我是動了心的,這篇入門教程,小夥伴們讀完后絕對會感到滿意,忍不住無情地點贊,以及赤裸裸地轉發。

    當然了,小夥伴們遇到文章中有錯誤的地方,不要手下留情,可以組團過來捶我,但要保證一點,不要打臉,我怕毀容。

    01、RabbitMQ 是什麼

    首先,我知道,Rabbit 是一隻兔子(哎呀媽呀,忍不住秀了一波自己的英語功底),可愛的形象已經躍然於我的腦海中了。那 MQ 又是什麼呢?是 Message Queue 的首字母縮寫,也就是說 RabbitMQ 是一款開源的消息隊列系統。

    RabbitMQ 的主要特點在於健壯性好、易於使用、高性能、高併發、集群易擴展,以及強大的開源社區支持。反正就是很牛逼的樣子。

    九年前我做大宗期貨交易的時候,也需要消息推送,那時候還不知道去找這種現成的中間件,就用自定義的隊列實現,結果搞了不少 bug,有些到現在還沒有解決,真的是不堪回首的往事啊。

    下圖是 RabbitMQ 的消息模型圖(來源於網絡,侵刪),小夥伴們來感受下。

    1)P 是 Producer,代表生產者,也就是消息的發送者,可以將消息發送到 X

    2)X 是 Exchange(為啥不是 E,我也很好奇),代表交換機,可以接受生產者發送的消息,並根據路由將消息發送給指定的隊列

    3)Q 是 Queue,也就是隊列,存放交換機發送來的消息

    4)C 是 Consumer,代表消費者,也就是消息的接受者,從隊列中獲取消息

    聽我這樣一解釋,是不是對 RabbitMQ 的印象就很具象化了?小夥伴們,學起來吧!

    02、安裝 Erlang

    咦,怎麼不是安裝 RabbitMQ 啊?先來看看官方的解釋。

    英文看不太懂,沒關係,我來補充兩人話。RabbitMQ 服務器是用 Erlang 語言編寫的,它的安裝包里並沒有集成 Erlang 的環境,因此需要先安裝 Erlang。小夥伴們不要擔心,Erlang 安裝起來沒有任何難度。

    Erlang 下載地址如下:

    https://erlang.org/download/otp_versions_tree.html

    最新的版本是 23.0.1,我選擇的是 64 位的版本,104M 左右。下載完就可以雙擊運行安裝,傻瓜式的。

    需要注意的是,我安裝的過程中,電腦重啟了一次,好像要安裝一個什麼庫,重啟之前忘記保存圖片了(sorry)。重啟后,重新雙擊運行 otp_win64_23.0.1.exe 文件完成 Erlang 安裝。

    03、安裝 RabbitMQ

    Erlang 安裝成功后,就可以安裝 RabbitMQ 了。下載地址如下所示:

    https://www.rabbitmq.com/install-windows.html

    找到下圖中的位置,選擇紅色框中的文件進行下載。

    安裝包只有 16.5M 大小,還是非常輕量級的。下載完后直接雙擊運行 exe 文件就可以傻瓜式地安裝了。

    安裝成功后,就可以將 RabbitMQ 作為 Windows 服務啟動,可以從“開始”菜單管理 RabbitMQ Windows 服務。

    點擊「RabbitMQ Command Prompt (sbin dir)」,進入命令行,輸入 rabbitmqctl.bat status 可確認 RabbitMQ 的啟動狀態。

    可以看到 RabbitMQ 一些狀態信息:

    • 進程 ID,也就是 PID 為 2816
    • 操作系統為 Windows
    • 當前的版本號為 3.8.4
    • Erlang 的配置信息

    命令行界面看起來不夠優雅,因此我們可以輸入以下命令來啟用客戶端管理 UI 插件:

    rabbitmq-plugins enable rabbitmq_management

    看到以下信息就可以確認插件啟用成功了。

    在瀏覽器地址欄輸入 http://localhost:15672/ 可以進入管理端界面,如下圖所示:

    04、在 Java 中使用 RabbitMQ

    有些小夥伴可能會問,“二哥,我是一名 Java 程序員,我該如何在 Java 中使用 RabbitMQ 呢?”這個問題問得好,這就來,這就來。

    第一步,在項目中添加 RabbitMQ 客戶端依賴:

    <dependency>
        <groupId>com.rabbitmq</groupId>
        <artifactId>amqp-client</artifactId>
        <version>5.9.0</version>
    </dependency>

    第二步,我們來模擬一個最簡單的場景,一個生產者發送消息到隊列中,一個消費者從隊列中讀取消息並打印。

    官方對 RabbitMQ 有一個很好的解釋,我就“拿來主義”的用一下。在我上高中的年代,同學們之間最流行的交流方式不是 QQ、微信,甚至短信這些,而是書信。因為那時候還沒有智能手機,況且上學期間學校也是命令禁用手機的,所以書信是情感表達的最好方式。好懷念啊。

    假如我向女朋友小巷寫了一封情書,內容如下所示:

    致小巷
    你好呀,小巷。
    你走了以後我每天都感到很悶,就像堂吉訶德一樣,每天想念托波索的達辛妮亞。我現在已經養成了一種習慣,就是每兩三天就要找你說幾句不想對別人說的話。
    。。。。。。
    王二,5月20日

    那這封情書要寄給小巷,我就需要跑到郵局,買上郵票,投遞到郵箱當中。女朋友要收到這封情書,就需要郵遞員盡心儘力,不要弄丟了。

    RabbitMQ 就像郵局一樣,只不過處理的不是郵件,而是消息。之前解釋過了,P 就是生產者,C 就是消費者。

    新建生產者類 Wanger :

    public class Wanger {
        private final static String QUEUE_NAME = "love";
        public static void main(String[] args) throws IOException, TimeoutException {
            ConnectionFactory factory = new ConnectionFactory();

            try (Connection connection = factory.newConnection();
                 Channel channel = connection.createChannel()) {
                channel.queueDeclare(QUEUE_NAME, falsefalsefalsenull);
                String message = "小巷,我喜歡你。";
                channel.basicPublish("", QUEUE_NAME, null, message.getBytes(StandardCharsets.UTF_8));
                System.out.println(" [王二] 發送 '" + message + "'");
            }
        }
    }

    1)QUEUE_NAME 為隊列名,也就是說,生產者發送的消息會放到 love 隊列中。

    2)通過以下方式創建服務器連接:

    ConnectionFactory factory = new ConnectionFactory();
    try (Connection connection = factory.newConnection();
                 Channel channel = connection.createChannel()) {

    ConnectionFactory 是一個非常方便的工廠類,可用來創建到 RabbitMQ 的默認連接(主機名為“localhost”)。然後,創建一個通道( Channel)來發送消息。

    Connection 和 Channel 類都實現了 Closeable 接口,所以可以使用 try-with-resource 語句,如果有小夥伴對 try-with-resource 語句不太熟悉,可以查看我之前寫的我去文章。

    3)在發送消息的時候,必須設置隊列名稱,通過 queueDeclare() 方法設置。

    4)basicPublish() 方法用於發布消息:

    • 第一個參數為交換機(exchange),當前場景不需要,因此設置為空字符串;
    • 第二個參數為路由關鍵字(routingKey),暫時使用隊列名填充;
    • 第三個參數為消息的其他參數(BasicProperties),暫時不配置;
    • 第四個參數為消息的主體,這裏為 UTF-8 格式的字節數組,可以有效地杜絕中文亂碼。

    生產者類有了,接下來新建消費者類 XiaoXiang:

    public class XiaoXiang {
        private final static String QUEUE_NAME = "love";
        public static void main(String[] args) throws IOException, TimeoutException {
            ConnectionFactory factory = new ConnectionFactory();
            Connection connection = factory.newConnection();
            Channel channel = connection.createChannel();

            channel.queueDeclare(QUEUE_NAME, falsefalsefalsenull);
            System.out.println("等待接收消息");

            DeliverCallback deliverCallback = (consumerTag, delivery) -> {
                String message = new String(delivery.getBody(), "UTF-8");
                System.out.println(" [小巷] 接收到的消息 '" + message + "'");
            };
            channel.basicConsume(QUEUE_NAME, true, deliverCallback, consumerTag -> { });
        }
    }

    1)創建通道的代碼和生產者差不多,只不過沒有使用 try-with-resource 語句來自動關閉連接和通道,因為我們希望消費者能夠一直保持連接,直到我們強制關閉它。

    2)在接收消息的時候,必須設置隊列名稱,通過 queueDeclare() 方法設置。

    3)由於 RabbitMQ 將會通過異步的方式向我們推送消息,因此我們需要提供了一個回調,該回調將對消息進行緩衝,直到我們做好準備接收它們為止。

    DeliverCallback deliverCallback = (consumerTag, delivery) -> {
        String message = new String(delivery.getBody(), "UTF-8");
        System.out.println(" [小巷] 接收到的消息 '" + message + "'");
    };

    basicConsume() 方法用於接收消息:

    • 第一個參數為隊列名(queue),和生產者相匹配(love)。

    • 第二個參數為 autoAck,如果為 true 的話,表明服務器要一次性交付消息。怎麼理解這個概念呢?小夥伴們可以在運行消費者類 XiaoXiang 類之前,先多次運行生產者類 Wanger,向隊列中發送多個消息,等到消費者類啟動后,你就會看到多條消息一次性接收到了,就像下面這樣。

    等待接收消息
     [小巷] 接收到的消息 '小巷,我喜歡你。'
     [小巷] 接收到的消息 '小巷,我喜歡你。'
     [小巷] 接收到的消息 '小巷,我喜歡你。'
    • 第三個參數為 DeliverCallback,也就是消息的回調函數。

    • 第四個參數為 CancelCallback,我暫時沒搞清楚是幹嘛的。

    在消息發送的過程中,也可以使用 RabbitMQ 的管理面板查看到消息的走勢圖,如下所示。

    05、鳴謝

    好了,我親愛的小夥伴們,以上就是本文的全部內容了,是不是看完后很想實操一把 RabbitMQ,趕快行動吧!如果你在學習的過程中遇到了問題,歡迎隨時和我交流,雖然我也是個菜鳥,但我有熱情啊。

    另外,如果你想寫入門級別的文章,這篇就是最好的範例。

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※教你寫出一流的銷售文案?

  • Tensorflow2 自定義數據集圖片完成圖片分類任務

    Tensorflow2 自定義數據集圖片完成圖片分類任務

    對於自定義數據集的圖片任務,通用流程一般分為以下幾個步驟:

    • Load data

    • Train-Val-Test

    • Build model

    • Transfer Learning

    其中大部分精力會花在數據的準備和預處理上,本文用一種較為通用的數據處理手段,並通過手動構建,簡單模型, 層數較深的resnet網絡,和基於VGG19的遷移學習。

    你可以通過這個例子,快速搭建網絡,並訓練處一個較為滿意的結果。

    1. Load data

    數據集來自Pokemon的5分類數據, 每一種的圖片數量為200多張,是一個較小型的數據集。

    官方項目鏈接:

    Keras and Convolutional Neural Networks (CNNs)

    1.1 數據集介紹

    Pokemon文件夾中包含5個子文件,其中每個子文件夾名為對應的類別名。文件夾中包含有png, jpeg的圖片文件。

    1.2 解題思路

    • 由於文件夾中沒有劃分,訓練集和測試集,所以需要構建一個csv文件讀取所有的文件,及其類別

    • shuffle數據集以後,劃分Train_val_test

    • 對數據進行預處理, 數據標準化,數據增強, 可視化處理

    “””python
    # 創建数字編碼錶

      import os
      import glob
      import random
      import csv
      import tensorflow as tf
      from tensorflow import keras
      import matplotlib.pyplot as plt
      import time
      
      
      def load_csv(root, filename, name2label):
          """
          將分散在各文件夾中的圖片, 轉換為圖片和label對應的一個dataset文件, 格式為csv
          :param root: 文件路徑(每個子文件夾中的文件屬於一類)
          :param filename: 文件名
          :param name2label: 類名編碼錶  {'類名1':0, '類名2':1..}
          :return: images, labels
          """
          # 判斷是否csv文件已經生成
          if not os.path.exists(os.path.join(root, filename)):  # join-將路徑與文件名何為一個路徑並返回(沒有會生成新路徑)
              images = []  # 存的是文件路徑
              for name in name2label.keys():
                  # pokemon\pikachu\00000001.png
                  # glob.glob() 利用通配符檢索路徑內的文件,類似於正則表達式
                  images += glob.glob(os.path.join(root, name, '*'))  # png, jpg, jpeg
              print(name2label)
              print(len(images), images)
      
              random.shuffle(images)
      
              with open(os.path.join(root, filename), 'w', newline='') as f:
                  writer = csv.writer(f)
                  for img in images:
                      name = img.split(os.sep)[1]  # os.sep 表示分隔符 window-'\\' , linux-'/'
                      label = name2label[name]  # 0, 1, 2..
                      # 'pokemon\\bulbasaur\\00000000.png', 0
                      writer.writerow([img, label])  # 如果不設定newline='', 2個數據會分為2行寫
                  print('write into csv file:', filename)
      
          # 讀取現有文件
          images, labels = [], []
          with open(os.path.join(root, filename)) as f:
              reader = csv.reader(f)
              for row in reader:
                  # 'pokemon\\bulbasaur\\00000000.png', 0
                  img, label = row
                  label = int(label)  # str-> int
                  images.append(img)
                  labels.append(label)
      
          assert len(images) == len(labels)
      
          return images, labels
      
      
      def load_pokemon(root, mode='train'):
          """
          # 創建数字編碼錶
          :param root: root path
          :param mode: train, valid, test
          :return: images, labels, name2label
          """
      
          name2label = {}  # {'bulbasaur': 0, 'charmander': 1, 'mewtwo': 2, 'pikachu': 3, 'squirtle': 4}
          for name in sorted(os.listdir(os.path.join(root))):
              # sorted() 是為了復現結果的一致性
              # os.listdir - 返迴路徑下的所有文件(文件夾,文件)列表
              if not os.path.isdir(os.path.join(root, name)):  # 是否為文件夾且是否存在
                  continue
              # 每個類別編碼一個数字
              name2label[name] = len(name2label)
      
          # 讀取label
          images, labels = load_csv(root, 'images.csv', name2label)
      
          # 劃分數據集 [6:2:2]
          if mode == 'train':
              images = images[:int(0.6 * len(images))]
              labels = labels[:int(0.6 * len(labels))]  # len(images) == len(labels)
      
          elif mode == 'valid':
              images = images[int(0.6 * len(images)):int(0.8 * len(images))]
              labels = labels[int(0.6 * len(labels)):int(0.8 * len(labels))]
      
          else:
              images = images[int(0.8 * len(images)):]
              labels = labels[int(0.8 * len(labels)):]
      
          return images, labels, name2label
      
      
      # imagenet 數據集均值, 方差
      img_mean = tf.constant([0.485, 0.456, 0.406])  # 3 channel
      img_std = tf.constant([0.229, 0.224, 0.225])
      
      def normalization(x, mean=img_mean, std=img_std):
          # [224, 224, 3]
          x = (x - mean) / std
          return x
      
      def denormalization(x, mean=img_mean, std=img_std):
          x = x * std + mean
          return x
      
      
      def preprocess(x, y):
          # x: path, y: label
          x = tf.io.read_file(x)  # 2進制
          # x = tf.image.decode_image(x)
          x = tf.image.decode_jpeg(x, channels=3)  # RGBA
          x = tf.image.resize(x, [244, 244])
      
          # data augmentation
          # x = tf.image.random_flip_up_down(x)
          x = tf.image.random_flip_left_right(x)
          x = tf.image.random_crop(x, [224, 224, 3])  # 模型縮減比例不宜過大,否則會增大訓練難度
      
          x = tf.cast(x, dtype=tf.float32) / 255. # unit8 -> float32
          # U[0,1] -> N(0,1)  # 提高訓練準確度
          x = normalization(x)
      
          y = tf.convert_to_tensor(y)
      
          return x, y
      
      def main():
          images, labels, name2label = load_pokemon('pokemon', 'train')
          print('images:', len(images), images)
          print('labels:', len(labels), labels)
          # print(name2label)
      
          # .map()函數要位於.batch()之前, 否則 x=tf.io.read_file()會一次讀取一個batch的圖片,從而報錯
          db = tf.data.Dataset.from_tensor_slices((images, labels)).map(preprocess).shuffle(1000).batch(32)
      
          # tf.summary()
          # 提供了各類方法(支持各種多種格式)用於保存訓練過程中產生的數據(比如loss_value、accuracy、整個variable),
          # 這些數據以日誌文件的形式保存到指定的文件夾中。
      
          # 數據可視化:而tensorboard可以將tf.summary()
          # 記錄下來的日誌可視化,根據記錄的數據格式,生成折線圖、統計直方圖、圖片列表等多種圖。
          # tf.summary()
          # 通過遞增的方式更新日誌,這讓我們可以邊訓練邊使用tensorboard讀取日誌進行可視化,從而實時監控訓練過程。
          writer = tf.summary.create_file_writer('logs')
          for step, (x, y) in enumerate(db):
              with writer.as_default():
                  x = denormalization(x)
                  tf.summary.image('img', x, step=step, max_outputs=9)  # STEP:默認選項,指的是橫軸显示的是訓練迭代次數
      
                  time.sleep(5)
      
      
      
      if __name__ == '__main__':
          main()
    

    “””

    2. 構建模型進行訓練

    2.1 自定義小型網絡

    由於數據集數量較少,大型網絡的訓練中往往會出現過擬合情況,這裏就定義了一個2層卷積的小型網絡。
    引入early_stopping回調函數后,3個epoch沒有較大變化的情況下,模型訓練的準確率為0.8547

    “””
    # 1. 自定義小型網絡
    model = keras.Sequential([
    layers.Conv2D(16, 5, 3),
    layers.MaxPool2D(3, 3),
    layers.ReLU(),
    layers.Conv2D(64, 5, 3),
    layers.MaxPool2D(2, 2),
    layers.ReLU(),
    layers.Flatten(),
    layers.Dense(64),
    layers.ReLU(),
    layers.Dense(5)
    ])

      model.build(input_shape=(None, 224, 224, 3))  
      model.summary()
      
      early_stopping = EarlyStopping(
          monitor='val_loss',
          patience=3,
          min_delta=0.001
      )
      
      
      model.compile(optimizer=optimizers.Adam(lr=1e-3),
                     loss=losses.CategoricalCrossentropy(from_logits=True),
                     metrics=['accuracy'])
      model.fit(db_train, validation_data=db_val, validation_freq=1, epochs=100,
                 callbacks=[early_stopping])
      model.evaluate(db_test)
    

    “””

    2.2 自定義的Resnet網絡

    resnet 網絡對於層次較深的網絡的可訓練型提升很大,主要是通過一個identity layer保證了深層次網絡的訓練效果不會弱於淺層網絡。
    其他文章中有詳細介紹resnet的搭建,這裏就不做贅述, 這裏構建了一個resnet18網絡, 準確率0.7607。

    “””
    import os

      import numpy as np
      import tensorflow as tf
      from tensorflow import keras
      from tensorflow.keras import layers
      
      tf.random.set_seed(22)
      np.random.seed(22)
      os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
      assert tf.__version__.startswith('2.')
      
      
      class ResnetBlock(keras.Model):
      
          def __init__(self, channels, strides=1):
              super(ResnetBlock, self).__init__()
      
              self.channels = channels
              self.strides = strides
      
              self.conv1 = layers.Conv2D(channels, 3, strides=strides,
                                         padding=[[0, 0], [1, 1], [1, 1], [0, 0]])
              self.bn1 = keras.layers.BatchNormalization()
              self.conv2 = layers.Conv2D(channels, 3, strides=1,
                                         padding=[[0, 0], [1, 1], [1, 1], [0, 0]])
              self.bn2 = keras.layers.BatchNormalization()
      
              if strides != 1:
                  self.down_conv = layers.Conv2D(channels, 1, strides=strides, padding='valid')
                  self.down_bn = tf.keras.layers.BatchNormalization()
      
          def call(self, inputs, training=None):
              residual = inputs
      
              x = self.conv1(inputs)
              x = tf.nn.relu(x)
              x = self.bn1(x, training=training)
              x = self.conv2(x)
              x = tf.nn.relu(x)
              x = self.bn2(x, training=training)
      
              # 殘差連接
              if self.strides != 1:
                  residual = self.down_conv(inputs)
                  residual = tf.nn.relu(residual)
                  residual = self.down_bn(residual, training=training)
      
              x = x + residual
              x = tf.nn.relu(x)
              return x
      
      
      class ResNet(keras.Model):
      
          def __init__(self, num_classes, initial_filters=16, **kwargs):
              super(ResNet, self).__init__(**kwargs)
      
              self.stem = layers.Conv2D(initial_filters, 3, strides=3, padding='valid')
      
              self.blocks = keras.models.Sequential([
                  ResnetBlock(initial_filters * 2, strides=3),
                  ResnetBlock(initial_filters * 2, strides=1),
                  # layers.Dropout(rate=0.5),
      
                  ResnetBlock(initial_filters * 4, strides=3),
                  ResnetBlock(initial_filters * 4, strides=1),
      
                  ResnetBlock(initial_filters * 8, strides=2),
                  ResnetBlock(initial_filters * 8, strides=1),
      
                  ResnetBlock(initial_filters * 16, strides=2),
                  ResnetBlock(initial_filters * 16, strides=1),
              ])
      
              self.final_bn = layers.BatchNormalization()
              self.avg_pool = layers.GlobalMaxPool2D()
              self.fc = layers.Dense(num_classes)
      
          def call(self, inputs, training=None):
              # print('x:',inputs.shape)
              out = self.stem(inputs, training = training)
              out = tf.nn.relu(out)
      
              # print('stem:',out.shape)
      
              out = self.blocks(out, training=training)
              # print('res:',out.shape)
      
              out = self.final_bn(out, training=training)
              # out = tf.nn.relu(out)
      
              out = self.avg_pool(out)
      
              # print('avg_pool:',out.shape)
              out = self.fc(out)
      
              # print('out:',out.shape)
      
              return out
      
      
      def main():
          num_classes = 5
      
          resnet18 = ResNet(5)
          resnet18.build(input_shape=(None, 224, 224, 3))
          resnet18.summary()
      
      
      if __name__ == '__main__':
          main()
    

    “””

    “””
    # 2.resnet18訓練, 圖片數量較小,訓練結果不是特別好
    # resnet = ResNet(5) # 0.7607
    # resnet.build(input_shape=(None, 224, 224, 3))
    # resnet.summary()
    “””

    2.3 VGG19遷移學習

    遷移學習利用了數據集之間的相似性,對於數據集數量較少的時候,訓練效果會遠優於其他。
    在訓練過程中,使用include_top=False, 去掉最後分類的基層Dense, 重新構建並訓練就可以了。準確率0.9316

    “””
    # 3. VGG19遷移學習,遷移學習利用數據集之間的相似性, 結果遠好於其他2種
    # 為了方便,這裏仍然使用resnet命名
    net = tf.keras.applications.VGG19(weights=’imagenet’, include_top=False, pooling=’max’ )
    net.trainable = False
    resnet = keras.Sequential([
    net,
    layers.Dense(5)
    ])
    resnet.build(input_shape=(None, 224, 224, 3)) # 0.9316
    resnet.summary()

      early_stopping = EarlyStopping(
          monitor='val_loss',
          patience=3,
          min_delta=0.001
      )
      
      
      resnet.compile(optimizer=optimizers.Adam(lr=1e-3),
                     loss=losses.CategoricalCrossentropy(from_logits=True),
                     metrics=['accuracy'])
      resnet.fit(db_train, validation_data=db_val, validation_freq=1, epochs=100,
                 callbacks=[early_stopping])
      resnet.evaluate(db_test)
    

    “””

    附錄:

    train_scratch.py 代碼

    “””

    import os
    
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
    
    import tensorflow as tf
    import numpy as np
    from tensorflow import keras
    from tensorflow.keras import layers, optimizers, losses
    from tensorflow.keras.callbacks import EarlyStopping
    
    tf.random.set_seed(22)
    np.random.seed(22)
    assert tf.__version__.startswith('2.')
    
    # 設置GPU顯存按需分配
    # gpus = tf.config.experimental.list_physical_devices('GPU')
    # if gpus:
    #     try:
    #         # Currently, memory growth needs to be the same across GPUs
    #         for gpu in gpus:
    #             tf.config.experimental.set_memory_growth(gpu, True)
    #         logical_gpus = tf.config.experimental.list_logical_devices('GPU')
    #         print(len(gpus), "Physical GPUs,", len(logical_gpus), "Logical GPUs")
    #     except RuntimeError as e:
    #         # Memory growth must be set before GPUs have been initialized
    #         print(e)
    
    from pokemon import load_pokemon, normalization
    from resnet import ResNet
    
    
    def preprocess(x, y):
        # x: 圖片的路徑,y:圖片的数字編碼
        x = tf.io.read_file(x)
        x = tf.image.decode_jpeg(x, channels=3)  # RGBA
        # 圖片縮放
        # x = tf.image.resize(x, [244, 244])
        # 圖片旋轉
        # x = tf.image.rot90(x,2)
        # 隨機水平翻轉
        x = tf.image.random_flip_left_right(x)
        # 隨機豎直翻轉
        # x = tf.image.random_flip_up_down(x)
    
        # 圖片先縮放到稍大尺寸
        x = tf.image.resize(x, [244, 244])
        # 再隨機裁剪到合適尺寸
        x = tf.image.random_crop(x, [224, 224, 3])
    
        # x: [0,255]=> -1~1
        x = tf.cast(x, dtype=tf.float32) / 255.
        x = normalization(x)
        y = tf.convert_to_tensor(y)
        y = tf.one_hot(y, depth=5)
    
        return x, y
    
    
    batchsz = 32
    
    # create train db
    images1, labels1, table = load_pokemon('pokemon', 'train')
    db_train = tf.data.Dataset.from_tensor_slices((images1, labels1))
    db_train = db_train.shuffle(1000).map(preprocess).batch(batchsz)
    # create validation db
    images2, labels2, table = load_pokemon('pokemon', 'valid')
    db_val = tf.data.Dataset.from_tensor_slices((images2, labels2))
    db_val = db_val.map(preprocess).batch(batchsz)
    # create test db
    images3, labels3, table = load_pokemon('pokemon', mode='test')
    db_test = tf.data.Dataset.from_tensor_slices((images3, labels3))
    db_test = db_test.map(preprocess).batch(batchsz)
    
    
    # 1. 自定義小型網絡
    # resnet = keras.Sequential([
    #     layers.Conv2D(16, 5, 3),
    #     layers.MaxPool2D(3, 3),
    #     layers.ReLU(),
    #     layers.Conv2D(64, 5, 3),
    #     layers.MaxPool2D(2, 2),
    #     layers.ReLU(),
    #     layers.Flatten(),
    #     layers.Dense(64),
    #     layers.ReLU(),
    #     layers.Dense(5)
    # ])  # 0.8547
    
    
    # 2.resnet18訓練, 圖片數量較小,訓練結果不是特別好
    # resnet = ResNet(5)  # 0.7607
    # resnet.build(input_shape=(None, 224, 224, 3))
    # resnet.summary()
    
    
    # 3. VGG19遷移學習,遷移學習利用數據集之間的相似性, 結果遠好於其他2種
    net = tf.keras.applications.VGG19(weights='imagenet', include_top=False, pooling='max' )
    net.trainable = False
    resnet = keras.Sequential([
        net,
        layers.Dense(5)
    ])
    resnet.build(input_shape=(None, 224, 224, 3))   # 0.9316
    resnet.summary()
    
    early_stopping = EarlyStopping(
        monitor='val_loss',
        patience=3,
        min_delta=0.001
    )
    
    
    resnet.compile(optimizer=optimizers.Adam(lr=1e-3),
                   loss=losses.CategoricalCrossentropy(from_logits=True),
                   metrics=['accuracy'])
    resnet.fit(db_train, validation_data=db_val, validation_freq=1, epochs=100,
               callbacks=[early_stopping])
    resnet.evaluate(db_test)
    

    “””

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※帶您來了解什麼是 USB CONNECTOR  ?

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    ※如何讓商品強力曝光呢? 網頁設計公司幫您建置最吸引人的網站,提高曝光率!

    ※綠能、環保無空污,成為電動車最新代名詞,目前市場使用率逐漸普及化

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※教你寫出一流的銷售文案?

  • 這篇文章,我們來談一談Spring中的屬性注入

    這篇文章,我們來談一談Spring中的屬性注入

    本系列文章:

    讀源碼,我們可以從第一行讀起

    你知道Spring是怎麼解析配置類的嗎?

    配置類為什麼要添加@Configuration註解?

    談談Spring中的對象跟Bean,你知道Spring怎麼創建對象的嗎?

    推薦閱讀:

    Spring官網閱讀 | 總結篇

    Spring雜談

    本系列文章將會帶你一行行的將Spring的源碼吃透,推薦閱讀的文章是閱讀源碼的基礎!

    前言

    在前面的文章中已經知道了Spring是如何將一個對象創建出來的,那麼緊接着,Spring就需要將這個對象變成一個真正的Bean了,這個過程主要分為兩步

    1. 屬性注入
    2. 初始化

    在這兩個過程中,Bean的後置處理器會穿插執行,其中有些後置處理器是為了幫助完成屬性注入或者初始化的,而有些後置處理器是Spring提供給程序員進行擴展的,當然,這二者並不衝突。整個Spring創建對象並將對象變成Bean的過程就是我們經常提到了Spring中Bean的生命周期。當然,本系列源碼分析的文章不會再對生命周期的概念做過多闡述了,如果大家有這方面的需求的話可以參考我之前的文章,或者關注我的公眾號:程序員DMZ

    Spring官網閱讀(九)Spring中Bean的生命周期(上)

    Spring官網閱讀(十)Spring中Bean的生命周期(下)

    源碼分析

    閑話不再多說,我們正式進入源碼分析階段,本文重點要分析的方法就是org.springframework.beans.factory.support.AbstractAutowireCapableBeanFactory#doCreateBean,其源碼如下:

    doCreateBean

    	protected Object doCreateBean(final String beanName, final RootBeanDefinition mbd, final @Nullable Object[] args)
    			throws BeanCreationException {
    
    		// 創建對象的過程在上篇文章中我們已經介紹過了,這裏不再贅述
    		BeanWrapper instanceWrapper = null;
    		if (mbd.isSingleton()) {
    			instanceWrapper = this.factoryBeanInstanceCache.remove(beanName);
    		}
    		if (instanceWrapper == null) {
    			instanceWrapper = createBeanInstance(beanName, mbd, args);
    		}
            
            // 獲取到創建的這個對象
    		final Object bean = instanceWrapper.getWrappedInstance();
    		Class<?> beanType = instanceWrapper.getWrappedClass();
    		if (beanType != NullBean.class) {
    			mbd.resolvedTargetType = beanType;
    		}
    
    		// Allow post-processors to modify the merged bean definition.
            // 按照官方的註釋來說,這個地方是Spring提供的一個擴展點,對程序員而言,我們可以通過一個實現了MergedBeanDefinitionPostProcessor的後置處理器來修改bd中的屬性,從而影響到後續的Bean的生命周期
            // 不過官方自己實現的後置處理器並沒有去修改bd,而是調用了applyMergedBeanDefinitionPostProcessors方法
            // 這個方法名直譯過來就是-應用合併后的bd,也就是說它這裏只是對bd做了進一步的使用而沒有真正的修改
    		synchronized (mbd.postProcessingLock) {
               // bd只允許被處理一次
    			if (!mbd.postProcessed) {
    				try {
                        // 應用合併后的bd
    					applyMergedBeanDefinitionPostProcessors(mbd, beanType, beanName);
    				}
    				catch (Throwable ex) {
    					throw new BeanCreationException(mbd.getResourceDescription(), beanName,
    							"Post-processing of merged bean definition failed", ex);
    				}
                    // 標註這個bd已經被MergedBeanDefinitionPostProcessor的後置處理器處理過
                    // 那麼在第二次創建Bean的時候,不會再次調用applyMergedBeanDefinitionPostProcessors
    				mbd.postProcessed = true;
    			}
    		}
    
    		// 這裡是用來出來循環依賴的,關於循環以來,在介紹完正常的Bean的創建后,單獨用一篇文章說明
            // 這裏不做過多解釋
    		boolean earlySingletonExposure = (mbd.isSingleton() && this.allowCircularReferences &&
    				isSingletonCurrentlyInCreation(beanName));
    		if (earlySingletonExposure) {
    			if (logger.isTraceEnabled()) {
    				logger.trace("Eagerly caching bean '" + beanName +
    						"' to allow for resolving potential circular references");
    			}
    			addSingletonFactory(beanName, () -> getEarlyBeanReference(beanName, mbd, bean));
    		}
    
    
    		Object exposedObject = bean;
    		try {
                // 我們這篇文章重點要分析的就是populateBean方法,在這個方法中完成了屬性注入
    			populateBean(beanName, mbd, instanceWrapper);
                // 初始化
    			exposedObject = initializeBean(beanName, exposedObject, mbd);
    		}
    		catch (Throwable ex) {
    			// 省略異常代碼
    		}
    
    		// 後續代碼不在本文探討範圍內了,暫不考慮
    
    		return exposedObject;
    	}
    

    applyMergedBeanDefinitionPostProcessors

    源碼如下:

    // 可以看到這個方法的代碼還是很簡單的,就是調用了MergedBeanDefinitionPostProcessor的postProcessMergedBeanDefinition方法
    protected void applyMergedBeanDefinitionPostProcessors(RootBeanDefinition mbd, Class<?> beanType, String beanName) {
        for (BeanPostProcessor bp : getBeanPostProcessors()) {
            if (bp instanceof MergedBeanDefinitionPostProcessor) {
                MergedBeanDefinitionPostProcessor bdp = (MergedBeanDefinitionPostProcessor) bp;
                bdp.postProcessMergedBeanDefinition(mbd, beanType, beanName);
            }
        }
    }
    

    這個時候我們就要思考一個問題,容器中現在有哪些後置處理器是MergedBeanDefinitionPostProcessor呢?

    查看這個方法的實現類我們會發現總共就這麼幾個類實現了MergedBeanDefinitionPostProcessor接口。實際上除了ApplicationListenerDetector之外,其餘的後置處理器的邏輯都差不多。我們在這裏我們主要就分析兩個後置處理

    1. ApplicationListenerDetector
    2. AutowiredAnnotationBeanPostProcessor

    ApplicationListenerDetector

    首先,我們來ApplicationListenerDetector,這個類在之前的文章中也多次提到過了,它的作用是用來處理嵌套Bean的情況,主要是保證能將嵌套在Bean標籤中的ApplicationListener也能添加到容器的監聽器集合中去。我們先通過一個例子來感受下這個後置處理器的作用吧

    配置文件:

    <?xml version="1.0" encoding="UTF-8"?>
    <beans xmlns="http://www.springframework.org/schema/beans"
    	   xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
    	   xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd">
    
    	<bean class="com.dmz.source.populate.service.DmzService" id="dmzService">
    		<constructor-arg name="orderService">
    			<bean class="com.dmz.source.populate.service.OrderService"/>
    		</constructor-arg>
    	</bean>
    </beans>
    

    示例代碼:

    // 事件
    public class DmzEvent extends ApplicationEvent {
    	public DmzEvent(Object source) {
    		super(source);
    	}
    }
    
    public class DmzService {
    
    	OrderService orderService;
    
    	public DmzService(OrderService orderService) {
    		this.orderService = orderService;
    	}
    }
    // 實現ApplicationListener接口
    public class OrderService implements ApplicationListener<DmzEvent> {
    	@Override
    	public void onApplicationEvent(DmzEvent event) {
    		System.out.println(event.getSource());
    	}
    }
    
    public class Main {
    	public static void main(String[] args) {
    		ClassPathXmlApplicationContext cc = new ClassPathXmlApplicationContext("application-populate.xml");
    		cc.publishEvent(new DmzEvent("my name is dmz"));
    	}
    }
    
    // 程序運行結果,控制台打印:my name is dmz
    

    說明OrderService已經被添加到了容器的監聽器集合中。但是請注意,在這種情況下,如果要使OrderService能夠執行監聽的邏輯,必須要滿足下面這兩個條件

    • 外部的Bean要是單例的,對於我們的例子而言就是dmzService
    • 內嵌的Bean也必須是單例的,在上面的例子中也就是orderService必須是單例

    另外需要注意的是,這種嵌套的Bean比較特殊,它雖然由Spring創建,但是確不存在於容器中,就是說我們不能將其作為依賴注入到別的Bean中。

    AutowiredAnnotationBeanPostProcessor

    對應源碼如下:

    public void postProcessMergedBeanDefinition(RootBeanDefinition beanDefinition, Class<?> beanType, String beanName) {
        // 找到注入的元數據,第一次是構建,後續可以直接從緩存中拿
        // 註解元數據其實就是當前這個類中的所有需要進行注入的“點”的集合,
        // 注入點(InjectedElement)包含兩種,字段/方法
        // 對應的就是AutowiredFieldElement/AutowiredMethodElement
        InjectionMetadata metadata = findAutowiringMetadata(beanName, beanType, null);
        // 排除掉被外部管理的注入點
        metadata.checkConfigMembers(beanDefinition);
    }
    

    上面代碼的核心邏輯就是

    • 找到所有的注入點,其實就是被@Autowired註解修飾的方法以及字段,同時靜態的方法以及字段也會被排除
    • 排除掉被外部管理的注入點,在後續的源碼分析中我們再細說

    findAutowiringMetadata

    // 這個方法的核心邏輯就是先從緩存中獲取已經解析好的注入點信息,很明顯,在原型情況下才會使用緩存
    // 創建注入點的核心邏輯在buildAutowiringMetadata方法中
    private InjectionMetadata findAutowiringMetadata(String beanName, Class<?> clazz, @Nullable PropertyValues pvs) {
        String cacheKey = (StringUtils.hasLength(beanName) ? beanName : clazz.getName());
        InjectionMetadata metadata = this.injectionMetadataCache.get(cacheKey);
        // 可能我們會修改bd中的class屬性,那麼InjectionMetadata中的注入點信息也需要刷新
        if (InjectionMetadata.needsRefresh(metadata, clazz)) {
            synchronized (this.injectionMetadataCache) {
                metadata = this.injectionMetadataCache.get(cacheKey);
                if (InjectionMetadata.needsRefresh(metadata, clazz)) {
                    if (metadata != null) {
                        metadata.clear(pvs);
                    }
                    // 這裏真正創建注入點
                    metadata = buildAutowiringMetadata(clazz);
                    this.injectionMetadataCache.put(cacheKey, metadata);
                }
            }
        }
        return metadata;
    }
    

    buildAutowiringMetadata

    // 我們應用中使用@Autowired註解標註在字段上或者setter方法能夠完成屬性注入
    // 就是因為這個方法將@Autowired註解標註的方法以及字段封裝成InjectionMetadata
    // 在後續階段會調用InjectionMetadata的inject方法進行注入
    private InjectionMetadata buildAutowiringMetadata(final Class<?> clazz) {
        List<InjectionMetadata.InjectedElement> elements = new ArrayList<>();
        Class<?> targetClass = clazz;
    
        do {
            final List<InjectionMetadata.InjectedElement> currElements = new ArrayList<>();
    		// 處理所有的被@AutoWired/@Value註解標註的字段
            ReflectionUtils.doWithLocalFields(targetClass, field -> {
                AnnotationAttributes ann = findAutowiredAnnotation(field);
                if (ann != null) {
                    // 靜態字段會直接跳過
                    if (Modifier.isStatic(field.getModifiers())) {
                        // 省略日誌打印
                        return;
                    }
                    // 得到@AutoWired註解中的required屬性
                    boolean required = determineRequiredStatus(ann);
                    currElements.add(new AutowiredFieldElement(field, required));
                }
            });
    		// 處理所有的被@AutoWired註解標註的方法,相對於字段而言,這裏需要對橋接方法進行特殊處理
            ReflectionUtils.doWithLocalMethods(targetClass, method -> {
                // 只處理一種特殊的橋接場景,其餘的橋接方法都會被忽略
                Method bridgedMethod = BridgeMethodResolver.findBridgedMethod(method);
                if (!BridgeMethodResolver.isVisibilityBridgeMethodPair(method, bridgedMethod)) {
                    return;
                }
                AnnotationAttributes ann = findAutowiredAnnotation(bridgedMethod);
                // 處理方法時需要注意,當父類中的方法被子類重寫時,如果子父類中的方法都加了@Autowired
                // 那麼此時父類方法不能被處理,即不能被封裝成一個AutowiredMethodElement
                if (ann != null && method.equals(ClassUtils.getMostSpecificMethod(method, clazz))) {
                    if (Modifier.isStatic(method.getModifiers())) {
                        // 省略日誌打印
                        return;
                    }
                    if (method.getParameterCount() == 0) {
                        // 當方法的參數數量為0時,雖然不需要進行注入,但是還是會把這個方法作為注入點使用
                        // 這個方法最終還是會被調用
                        if (logger.isInfoEnabled()) {
                            logger.info("Autowired annotation should only be used on methods with parameters: " +
                                        method);
                        }
                    }
                    boolean required = determineRequiredStatus(ann);
                    // PropertyDescriptor: 屬性描述符
                    // 就是通過解析getter/setter方法,例如void getA()會解析得到一個屬性名稱為a
                    // readMethod為getA的PropertyDescriptor,
                    // 在《Spring官網閱讀(十四)Spring中的BeanWrapper及類型轉換》文中已經做過解釋
                    // 這裏不再贅述,這裏之所以來這麼一次查找是因為當XML中對這個屬性進行了配置后,
                    // 那麼就不會進行自動注入了,XML中显示指定的屬性優先級高於註解
                    PropertyDescriptor pd = BeanUtils.findPropertyForMethod(bridgedMethod, clazz);		   // 構造一個對應的AutowiredMethodElement,後續這個方法會被執行
                    // 方法的參數會被自動注入,這裏不限於setter方法
                    currElements.add(new AutowiredMethodElement(method, required, pd));
                }
            });
    		// 會處理父類中字段上及方法上的@AutoWired註解,並且父類的優先級比子類高
            elements.addAll(0, currElements);
            targetClass = targetClass.getSuperclass();
        }
        while (targetClass != null && targetClass != Object.class);
    
        return new InjectionMetadata(clazz, elements);
    }
    
    難點代碼分析

    上面的代碼整體來說應該很簡單,就如我們之前所說的,處理帶有@Autowired註解的字段及方法,同時會過濾掉所有的靜態字段及方法。上面複雜的地方在於對橋接方法的處理,可能大部分人都沒辦法理解這幾行代碼:

    // 第一行
    Method bridgedMethod = BridgeMethodResolver.findBridgedMethod(method);
    
    // 第二行
    if (!BridgeMethodResolver.isVisibilityBridgeMethodPair(method, bridgedMethod)) {
        return;
    }
    
    // 第三行
    if (ann != null && method.equals(ClassUtils.getMostSpecificMethod(method, clazz))) {
    
    }
    

    要理解這些代碼,首先你得知道什麼是橋接,為此我已經寫好了一篇文章:

    Spring雜談 | 從橋接方法到JVM方法調用

    除了在上面的文章中提到的橋接方法外,還有一種特殊的情況

    // A類跟B類在同一個包下,A不是public的
    class A {
    	public void test(){
    
    	}
    }
    
    // 在B中會生成一個跟A中的方法描述符(參數+返回值)一模一樣的橋接方法
    // 這個橋接方法實際上就是調用父類中的方法
    // 具體可以參考:https://bugs.java.com/bugdatabase/view_bug.do?bug_id=63424113
    public class B extends A {
    }
    

    在理解了什麼是橋接之後,那麼上邊的第一行代碼你應該就能看懂了,就以上面的代碼為例,B中會生成一個橋接方法,對應的被橋接的方法就是A中的test方法。

    接着,我們看看第二行代碼

    public static boolean isVisibilityBridgeMethodPair(Method bridgeMethod, Method bridgedMethod) {
        // 說明這個方法本身就不是橋接方法,直接返回true
        if (bridgeMethod == bridgedMethod) {
            return true;
        }
        // 說明是橋接方法,並且方法描述符一致
        // 當且僅當是上面例子中描述的這種橋接的時候這個判斷才會滿足
        // 正常來說橋接方法跟被橋接方法的返回值+參數類型肯定不一致
        // 所以這個判斷會過濾掉其餘的所有類型的橋接方法
        // 只會保留本文提及這種特殊情況下產生的橋接方法
        return (bridgeMethod.getReturnType().equals(bridgedMethod.getReturnType()) &&
                Arrays.equals(bridgeMethod.getParameterTypes(), bridgedMethod.getParameterTypes()));
    }
    

    最後,再來看看第三行代碼,核心就是這句 method.equals(ClassUtils.getMostSpecificMethod(method, clazz)。這句代碼的主要目的就是為了處理下面這種情況

    @Component
    public class D extends C {
    
    	@Autowired
    	@Override
    	public void setDmzService(DmzService dmzService) {
    		dmzService.init();
    		this.dmzService = dmzService;
    	}
    }
    
    // C不是Spring中的組件
    public class C {
    	DmzService dmzService;
        @Autowired
    	public void setDmzService(DmzService dmzService) {
    		this.dmzService = dmzService;
    	}
    }
    
    

    這種情況下,在處理D中的@Autowired註解時,雖然我們要處理父類中的@Autowired註解,但是因為子類中的方法已經複寫了父類中的方法,所以此時應該要跳過父類中的這個被複寫的方法,這就是第三行代碼的作用。

    小結

    到這裏我們主要分析了applyMergedBeanDefinitionPostProcessors這段代碼的作用,它的執行時機是在創建對象之後,屬性注入之前。按照官方的定義來說,到這裏我們仍然可以使用這個方法來修改bd的定義,那麼相對於通過BeanFactoryPostProcessor的方式修改bd,applyMergedBeanDefinitionPostProcessors這個方法影響的範圍更小,BeanFactoryPostProcessor影響的是整個Bean的生命周期,而applyMergedBeanDefinitionPostProcessors只會影響屬性注入之後的生命周期。

    其次,我們分析了Spring中內置的MergedBeanDefinitionPostProcessor,選取了其中兩個特殊的後置處理器進行分析,其中ApplicationListenerDetector主要處理內嵌的事件監聽器,而AutowiredAnnotationBeanPostProcessor主要用於處理@Autowired註解,實際上我們會發現,到這裏還只是完成了@Autowired註解的解析,還沒有真正開始進行注入,真正注入的邏輯在後面我們要分析的populateBean方法中,在這個方法中會使用解析好的注入元信息完成真正的屬性注入,那麼接下來我們就開始分析populateBean這個方法的源碼。

    populateBean

    循環依賴的代碼我們暫且跳過,後續出一篇專門文章解讀循環依賴,我們直接看看populateBean到底做了什麼。

    protected void populateBean(String beanName, RootBeanDefinition mbd, @Nullable BeanWrapper bw) {
    
        // 處理空實例
        if (bw == null) {
            // 如果創建的對象為空,但是在XML中又配置了需要注入的屬性的話,那麼直接報錯
            if (mbd.hasPropertyValues()) {
                throw new BeanCreationException(
                    mbd.getResourceDescription(), beanName, "Cannot apply property values to null instance");
            }
            else {
                // 空對象,不進行屬性注入
                return;
            }
        }
    
        // 滿足兩個條件,不是合成類 && 存在InstantiationAwareBeanPostProcessor
        // 其中InstantiationAwareBeanPostProcessor主要作用就是作為Bean的實例化前後的鈎子
        // 外加完成屬性注入,對於三個方法就是
        // postProcessBeforeInstantiation  創建對象前調用
        // postProcessAfterInstantiation   對象創建完成,@AutoWired註解解析后調用   
        // postProcessPropertyValues(已過期,被postProcessProperties替代) 進行屬性注入
        // 下面這段代碼的主要作用就是我們可以提供一個InstantiationAwareBeanPostProcessor
        // 提供的這個後置處理如果實現了postProcessAfterInstantiation方法並且返回false
        // 那麼可以跳過Spring默認的屬性注入,但是這也意味着我們要自己去實現屬性注入的邏輯
        // 所以一般情況下,我們也不會這麼去擴展
        if (!mbd.isSynthetic() && hasInstantiationAwareBeanPostProcessors()) {
            for (BeanPostProcessor bp : getBeanPostProcessors()) {
                if (bp instanceof InstantiationAwareBeanPostProcessor) {
                    InstantiationAwareBeanPostProcessor ibp = (InstantiationAwareBeanPostProcessor) bp;
                    if (!ibp.postProcessAfterInstantiation(bw.getWrappedInstance(), beanName)) {
                        return;
                    }
                }
            }
        }
    	
        // 這裏其實就是判斷XML是否提供了屬性相關配置
        PropertyValues pvs = (mbd.hasPropertyValues() ? mbd.getPropertyValues() : null);
    	
        // 確認注入模型
        int resolvedAutowireMode = mbd.getResolvedAutowireMode();
        
        // 主要處理byName跟byType兩種注入模型,byConstructor這種注入模型在創建對象的時候已經處理過了
        // 這裏都是對自動注入進行處理,byName跟byType兩種注入模型均是依賴setter方法
        // byName,根據setter方法的名字來查找對應的依賴,例如setA,那麼就是去容器中查找名字為a的Bean
        // byType,根據setter方法的參數類型來查找對應的依賴,例如setXx(A a),就是去容器中查詢類型為A的bean
        if (resolvedAutowireMode == AUTOWIRE_BY_NAME || resolvedAutowireMode == AUTOWIRE_BY_TYPE) {
            MutablePropertyValues newPvs = new MutablePropertyValues(pvs);
            if (resolvedAutowireMode == AUTOWIRE_BY_NAME) {
                autowireByName(beanName, mbd, bw, newPvs);
            }
            if (resolvedAutowireMode == AUTOWIRE_BY_TYPE) {
                autowireByType(beanName, mbd, bw, newPvs);
            }
            // pvs是XML定義的屬性
            // 自動注入后,bean實際用到的屬性就應該要替換成自動注入后的屬性
            pvs = newPvs;
        }
    	// 檢查是否有InstantiationAwareBeanPostProcessor
        // 前面說過了,這個後置處理器就是來完成屬性注入的
        boolean hasInstAwareBpps = hasInstantiationAwareBeanPostProcessors();
        
        //  是否需要依賴檢查,默認是不會進行依賴檢查的
        boolean needsDepCheck = (mbd.getDependencyCheck() != AbstractBeanDefinition.DEPENDENCY_CHECK_NONE);
    	
        // 下面這段代碼有點麻煩了,因為涉及到版本問題
        // 其核心代碼就是調用了postProcessProperties完成了屬性注入
       
        PropertyDescriptor[] filteredPds = null;
        
        // 存在InstantiationAwareBeanPostProcessor,我們需要調用這類後置處理器的方法進行注入
    		if (hasInstAwareBpps) {
    			if (pvs == null) {
    				pvs = mbd.getPropertyValues();
    			}
    			for (BeanPostProcessor bp : getBeanPostProcessors()) {
    				if (bp instanceof InstantiationAwareBeanPostProcessor) {
    					InstantiationAwareBeanPostProcessor ibp = (InstantiationAwareBeanPostProcessor) bp;
                        // 這句就是核心
    					PropertyValues pvsToUse = ibp.postProcessProperties(pvs, bw.getWrappedInstance(), beanName);
    					if (pvsToUse == null) {
    						if (filteredPds == null) {
                                // 得到需要進行依賴檢查的屬性的集合
    							filteredPds = filterPropertyDescriptorsForDependencyCheck(bw, mbd.allowCaching);
    						}
                            //  這個方法已經過時了,放到這裏就是為了兼容老版本
    						pvsToUse = ibp.postProcessPropertyValues(pvs, filteredPds, bw.getWrappedInstance(), beanName);
    						if (pvsToUse == null) {
    							return;
    						}
    					}
    					pvs = pvsToUse;
    				}
    			}
    		}
        // 需要進行依賴檢查
    		if (needsDepCheck) {
    			if (filteredPds == null) {
                    // 得到需要進行依賴檢查的屬性的集合
    				filteredPds = filterPropertyDescriptorsForDependencyCheck(bw, mbd.allowCaching);
    			}
                // 對需要進行依賴檢查的屬性進行依賴檢查
    			checkDependencies(beanName, mbd, filteredPds, pvs);
    		}
        // 將XML中的配置屬性應用到Bean上
    		if (pvs != null) {
    			applyPropertyValues(beanName, mbd, bw, pvs);
    		}
    }
    

    上面這段代碼主要可以拆分為三個部分

    1. 處理自動注入
    2. 處理屬性注入(主要指處理@Autowired註解),最重要
    3. 處理依賴檢查

    處理自動注入

    autowireByName

    對應源碼如下:

    protected void autowireByName(
        String beanName, AbstractBeanDefinition mbd, BeanWrapper bw, MutablePropertyValues pvs) {
        // 得到符合下麵條件的屬性名稱
        // 1.有setter方法
        // 2.需要進行依賴檢查
        // 3.不包含在XML配置中
        // 4.不是簡單類型(基本數據類型,枚舉,日期等)
        // 這裏可以看到XML配置優先級高於自動注入的優先級
        // 不進行依賴檢查的屬性,也不會進行屬性注入
        String[] propertyNames = unsatisfiedNonSimpleProperties(mbd, bw);
        for (String propertyName : propertyNames) {
            if (containsBean(propertyName)) {
                Object bean = getBean(propertyName);
                // 將自動注入的屬性添加到pvs中去
                pvs.add(propertyName, bean);
                // 註冊bean之間的依賴關係
                registerDependentBean(propertyName, beanName);
                // 忽略日誌
            }
            // 忽略日誌
        }
    }
    

    看到了嗎?代碼就是這麼的簡單,不是要通過名稱注入嗎?直接通過beanName調用getBean,完事兒

    autowireByType

    	protected void autowireByType(
    			String beanName, AbstractBeanDefinition mbd, BeanWrapper bw, MutablePropertyValues pvs) {
    		// 這個類型轉換器,主要是在處理@Value時需要使用
    		TypeConverter converter = getCustomTypeConverter();
    		if (converter == null) {
    			converter = bw;
    		}
    
    		Set<String> autowiredBeanNames = new LinkedHashSet<>(4);
    		// 得到符合下麵條件的屬性名稱
    		// 1.有setter方法
    		// 2.需要進行依賴檢查
    		// 3.不包含在XML配置中
    		// 4.不是簡單類型(基本數據類型,枚舉,日期等)
    		// 這裏可以看到XML配置優先級高於自動注入的優先級
    		String[] propertyNames = unsatisfiedNonSimpleProperties(mbd, bw);
    		for (String propertyName : propertyNames) {
    			try {
    				PropertyDescriptor pd = bw.getPropertyDescriptor(propertyName);
    				if (Object.class != pd.getPropertyType()) {
    					// 這裏獲取到的就是setter方法的參數,因為我們需要按照類型進行注入嘛
    					MethodParameter methodParam = BeanUtils.getWriteMethodParameter(pd);
    					
                        // 如果是PriorityOrdered在進行類型匹配時不會去匹配factoryBean
    					// 如果不是PriorityOrdered,那麼在查找對應類型的依賴的時候會會去匹factoryBean
    				 	// 這就是Spring的一種設計理念,實現了PriorityOrdered接口的Bean被認為是一種
                        // 最高優先級的Bean,這一類的Bean在進行為了完成裝配而去檢查類型時,
                        // 不去檢查factoryBean
                        // 具體可以參考PriorityOrdered接口上的註釋文檔
    					boolean eager = !(bw.getWrappedInstance() instanceof PriorityOrdered);
    					// 將參數封裝成為一個依賴描述符
    					// 依賴描述符會通過:依賴所在的類,字段名/方法名,依賴的具體類型等來描述這個依賴
    					DependencyDescriptor desc = new AutowireByTypeDependencyDescriptor(methodParam, eager);
    					// 解析依賴,這裡會處理@Value註解
                        // 另外,通過指定的類型到容器中查找對應的bean
    					Object autowiredArgument = resolveDependency(desc, beanName, autowiredBeanNames, converter);
    					if (autowiredArgument != null) {
    						// 將查找出來的依賴屬性添加到pvs中,後面會將這個pvs應用到bean上
    						pvs.add(propertyName, autowiredArgument);
    					}
    					// 註冊bean直接的依賴關係
    					for (String autowiredBeanName : autowiredBeanNames) {
    						registerDependentBean(autowiredBeanName, beanName);
    						if (logger.isDebugEnabled()) {
    							logger.debug("Autowiring by type from bean name '" + beanName + "' via property '" +
    									propertyName + "' to bean named '" + autowiredBeanName + "'");
    						}
    					}
    					autowiredBeanNames.clear();
    				}
    			}
    			catch (BeansException ex) {
    				throw new UnsatisfiedDependencyException(mbd.getResourceDescription(), beanName, propertyName, ex);
    			}
    		}
    	}
    
    
    resolveDependency

    這個方法在Spring雜談 | 什麼是ObjectFactory?什麼是ObjectProvider?已經做過分析了,本文不再贅述。

    可以看到,真正做事的方法是doResolveDependency

    @Override
    public Object resolveDependency(DependencyDescriptor descriptor, String requestingBeanName, Set<String> autowiredBeanNames, @Nullable TypeConverter typeConverter) throws BeansException {
    	// descriptor代表當前需要注入的那個字段,或者方法的參數,也就是注入點
        // ParameterNameDiscovery用於解析方法參數名稱
        descriptor.initParameterNameDiscovery(getParameterNameDiscoverer());
        // 1. Optional<T>
        if (Optional.class == descriptor.getDependencyType()) {
            return createOptionalDependency(descriptor, requestingBeanName);
        // 2. ObjectFactory<T>、ObjectProvider<T>
        } else if (ObjectFactory.class == descriptor.getDependencyType() ||
                 ObjectProvider.class == descriptor.getDependencyType()) {
            return new DependencyObjectProvider(descriptor, requestingBeanName);
        // 3. javax.inject.Provider<T>
        } else if (javaxInjectProviderClass == descriptor.getDependencyType()) {
            return new Jsr330Factory().createDependencyProvider(descriptor, requestingBeanName);
        } else {
            // 4. @Lazy
            Object result = getAutowireCandidateResolver().getLazyResolutionProxyIfNecessary(
                descriptor, requestingBeanName);
            // 5. 正常情況
            if (result == null) {
                result = doResolveDependency(descriptor, requestingBeanName, autowiredBeanNames, typeConverter);
            }
            return result;
        }
    }
    
    doResolveDependency
    	public Object doResolveDependency(DependencyDescriptor descriptor, @Nullable String beanName,
    			@Nullable Set<String> autowiredBeanNames, @Nullable TypeConverter typeConverter) throws BeansException {
    
    		InjectionPoint previousInjectionPoint = ConstructorResolver.setCurrentInjectionPoint(descriptor);
    		try {
    			Object shortcut = descriptor.resolveShortcut(this);
    			if (shortcut != null) {
    				return shortcut;
    			}
    			// 依賴的具體類型
    			Class<?> type = descriptor.getDependencyType();
    			// 處理@Value註解,這裏得到的時候@Value中的值
    			Object value = getAutowireCandidateResolver().getSuggestedValue(descriptor);
    			if (value != null) {
    				if (value instanceof String) {
    					// 解析@Value中的佔位符
    					String strVal = resolveEmbeddedValue((String) value);
    					// 獲取到對應的bd
    					BeanDefinition bd = (beanName != null && containsBean(beanName) ? getMergedBeanDefinition(beanName) : null);
    					// 處理EL表達式
    					value = evaluateBeanDefinitionString(strVal, bd);
    				}
    				// 通過解析el表達式可能還需要進行類型轉換
    				TypeConverter converter = (typeConverter != null ? typeConverter : getTypeConverter());
    				return (descriptor.getField() != null ?
    						converter.convertIfNecessary(value, type, descriptor.getField()) :
    						converter.convertIfNecessary(value, type, descriptor.getMethodParameter()));
    			}
    			
                // 對map,collection,數組類型的依賴進行處理
    			// 最終會根據集合中的元素類型,調用findAutowireCandidates方法
    			Object multipleBeans = resolveMultipleBeans(descriptor, beanName, autowiredBeanNames, typeConverter);
    			if (multipleBeans != null) {
    				return multipleBeans;
    			}
    			
                // 根據指定類型可能會找到多個bean
                // 這裏返回的既有可能是對象,也有可能是對象的類型
                // 這是因為到這裏還不能明確的確定當前bean到底依賴的是哪一個bean
                // 所以如果只會返回這個依賴的類型以及對應名稱,最後還需要調用getBean(beanName)
                // 去創建這個Bean
    			Map<String, Object> matchingBeans = findAutowireCandidates(beanName, type, descriptor);
    			// 一個都沒找到,直接拋出異常
    			if (matchingBeans.isEmpty()) {
    				if (isRequired(descriptor)) {
    					raiseNoMatchingBeanFound(type, descriptor.getResolvableType(), descriptor);
    				}
    				return null;
    			}
    
    			String autowiredBeanName;
    			Object instanceCandidate;
    			// 通過類型找到了多個
    			if (matchingBeans.size() > 1) {
    				// 根據是否是主Bean
    				// 是否是最高優先級的Bean
    				// 是否是名稱匹配的Bean
    				// 來確定具體的需要注入的Bean的名稱
                    // 到這裏可以知道,Spring在查找依賴的時候遵循先類型再名稱的原則(沒有@Qualifier註解情況下)
    				autowiredBeanName = determineAutowireCandidate(matchingBeans, descriptor);
    				if (autowiredBeanName == null) {
    					// 無法推斷出具體的名稱
    					// 如果依賴是必須的,直接拋出異常
    					// 如果依賴不是必須的,但是這個依賴類型不是集合或者數組,那麼也拋出異常
    					if (isRequired(descriptor) || !indicatesMultipleBeans(type)) {
    						return descriptor.resolveNotUnique(type, matchingBeans);
    					}
    					// 依賴不是必須的,但是依賴類型是集合或者數組,那麼返回一個null
    					else {
    						return null;
    					}
    				}
    				instanceCandidate = matchingBeans.get(autowiredBeanName);
    			}
    			else {
    				// 直接找到了一個對應的Bean
    				Map.Entry<String, Object> entry = matchingBeans.entrySet().iterator().next();
    				autowiredBeanName = entry.getKey();
    				instanceCandidate = entry.getValue();
    			}
    			if (autowiredBeanNames != null) {
    				autowiredBeanNames.add(autowiredBeanName);
    			}
                
                // 前面已經說過了,這裏可能返回的是Bean的類型,所以需要進一步調用getBean
    			if (instanceCandidate instanceof Class) {
    				instanceCandidate = descriptor.resolveCandidate(autowiredBeanName, type, this);
    			}
                
                // 做一些檢查,如果依賴是必須的,查找出來的依賴是一個null,那麼報錯
                // 查詢處理的依賴類型不符合,也報錯
    			Object result = instanceCandidate;
    			if (result instanceof NullBean) {
    				if (isRequired(descriptor)) {
    					raiseNoMatchingBeanFound(type, descriptor.getResolvableType(), descriptor);
    				}
    				result = null;
    			}
    			if (!ClassUtils.isAssignableValue(type, result)) {
    				throw new BeanNotOfRequiredTypeException(autowiredBeanName, type, instanceCandidate.getClass());
    			}
    			return result;
    		}
    		finally {
    			ConstructorResolver.setCurrentInjectionPoint(previousInjectionPoint);
    		}
    	}
    
    findAutowireCandidates
    protected Map<String, Object> findAutowireCandidates(
        @Nullable String beanName, Class<?> requiredType, DependencyDescriptor descriptor) {
    	
        // 簡單來說,這裏就是到容器中查詢requiredType類型的所有bean的名稱的集合
        // 這裡會根據descriptor.isEager()來決定是否要匹配factoryBean類型的Bean
        // 如果isEager()為true,那麼會匹配factoryBean,反之,不會
        String[] candidateNames = BeanFactoryUtils.beanNamesForTypeIncludingAncestors(
            this, requiredType, true, descriptor.isEager());
       
        Map<String, Object> result = new LinkedHashMap<>(candidateNames.length);
       
        // 第一步會到resolvableDependencies這個集合中查詢是否已經存在了解析好的依賴
        // 像我們之所以能夠直接在Bean中注入applicationContext對象
        // 就是因為Spring之前就將這個對象放入了resolvableDependencies集合中
        for (Class<?> autowiringType : this.resolvableDependencies.keySet()) {
            if (autowiringType.isAssignableFrom(requiredType)) {
                Object autowiringValue = this.resolvableDependencies.get(autowiringType);
                
                // 如果resolvableDependencies放入的是一個ObjectFactory類型的依賴
                // 那麼在這裡會生成一個代理對象
                // 例如,我們可以在controller中直接注入request對象
                // 就是因為,容器啟動時就在resolvableDependencies放入了一個鍵值對
                // 其中key為:Request.class,value為:ObjectFactory
                // 在實際注入時放入的是一個代理對象
                autowiringValue = AutowireUtils.resolveAutowiringValue(autowiringValue, requiredType);
                if (requiredType.isInstance(autowiringValue)) {
                    // 這裏放入的key不是Bean的名稱
                    // value是實際依賴的對象
                    result.put(ObjectUtils.identityToString(autowiringValue), autowiringValue);
                    break;
                }
            }
        }
        
        // 接下來開始對之前查找出來的類型匹配的所有BeanName進行處理
        for (String candidate : candidateNames) {
            // 不是自引用,什麼是自引用?
            // 1.候選的Bean的名稱跟需要進行注入的Bean名稱相同,意味着,自己注入自己
            // 2.或者候選的Bean對應的factoryBean的名稱跟需要注入的Bean名稱相同,
            // 也就是說A依賴了B但是B的創建又需要依賴A
            // 要符合注入的條件
            if (!isSelfReference(beanName, candidate) && isAutowireCandidate(candidate, descriptor)) {
                // 調用addCandidateEntry,加入到返回集合中,後文有對這個方法的分析
                addCandidateEntry(result, candidate, descriptor, requiredType);
            }
        }
        
        // 排除自引用的情況下,沒有找到一個合適的依賴
        if (result.isEmpty() && !indicatesMultipleBeans(requiredType)) {
            // 1.先走fallback邏輯,Spring提供的一個擴展吧,感覺沒什麼卵用
            // 默認情況下fallback的依賴描述符就是自身
            DependencyDescriptor fallbackDescriptor = descriptor.forFallbackMatch();
            for (String candidate : candidateNames) {
                if (!isSelfReference(beanName, candidate) && isAutowireCandidate(candidate, fallbackDescriptor)) {
                    addCandidateEntry(result, candidate, descriptor, requiredType);
                }
            }
            // fallback還是失敗
            if (result.isEmpty()) {
                // 處理自引用
                // 從這裏可以看出,自引用的優先級是很低的,只有在容器中真正的只有這個Bean能作為
                // 候選者的時候,才會去處理,否則自引用是被排除掉的
                for (String candidate : candidateNames) {
                    if (isSelfReference(beanName, candidate) &&
                        // 不是一個集合或者
                        // 是一個集合,但是beanName跟candidate的factoryBeanName相同
                        (!(descriptor instanceof MultiElementDescriptor) || !beanName.equals(candidate)) &&
                        isAutowireCandidate(candidate, fallbackDescriptor)) {
                        addCandidateEntry(result, candidate, descriptor, requiredType);
                    }
                }
            }
        }
        return result;
    }
    
    
    // candidates:就是findAutowireCandidates方法要返回的候選集合
    // candidateName:當前的這個候選Bean的名稱
    // descriptor:依賴描述符
    // requiredType:依賴的類型
    private void addCandidateEntry(Map<String, Object> candidates, String candidateName,
                                   DependencyDescriptor descriptor, Class<?> requiredType) {
    	
        // 如果依賴是一個集合,或者容器中已經包含這個單例了
        // 那麼直接調用getBean方法創建或者獲取這個Bean
        if (descriptor instanceof MultiElementDescriptor || containsSingleton(candidateName)) {
            Object beanInstance = descriptor.resolveCandidate(candidateName, requiredType, this);
            candidates.put(candidateName, (beanInstance instanceof NullBean ? null : beanInstance));
        }
        // 如果依賴的類型不是一個集合,這個時候還不能確定到底要使用哪個依賴,
        // 所以不能將這些Bean創建出來,所以這個時候,放入candidates是Bean的名稱以及類型
        else {
            candidates.put(candidateName, getType(candidateName));
        }
    }
    

    處理屬性注入(@Autowired)

    postProcessProperties

    // 在applyMergedBeanDefinitionPostProcessors方法執行的時候,
    // 已經解析過了@Autowired註解(buildAutowiringMetadata方法)
    public PropertyValues postProcessProperties(PropertyValues pvs, Object bean, String beanName) {
        // 這裏獲取到的是解析過的緩存好的注入元數據
        InjectionMetadata metadata = findAutowiringMetadata(beanName, bean.getClass(), pvs);
        try {
            // 直接調用inject方法
            // 存在兩種InjectionMetadata
            // 1.AutowiredFieldElement
            // 2.AutowiredMethodElement
            // 分別對應字段的屬性注入以及方法的屬性注入
            metadata.inject(bean, beanName, pvs);
        }
        catch (BeanCreationException ex) {
            throw ex;
        }
        catch (Throwable ex) {
            throw new BeanCreationException(beanName, "Injection of autowired dependencies failed", ex);
        }
        return pvs;
    }
    
    字段的屬性注入
    // 最終反射調用filed.set方法
    protected void inject(Object bean, @Nullable String beanName, @Nullable PropertyValues pvs) throws Throwable {
        Field field = (Field) this.member;
        Object value;
        if (this.cached) {
            // 第一次注入的時候肯定沒有緩存
            // 這裏也是對原型情況的處理
            value = resolvedCachedArgument(beanName, this.cachedFieldValue);
        } else {
            DependencyDescriptor desc = new DependencyDescriptor(field, this.required);
            desc.setContainingClass(bean.getClass());
            Set<String> autowiredBeanNames = new LinkedHashSet<>(1);
            Assert.state(beanFactory != null, "No BeanFactory available");
            TypeConverter typeConverter = beanFactory.getTypeConverter();
            try {
                // 這裏可以看到,對@Autowired註解在字段上的處理
                // 跟byType下自動注入的處理是一樣的,就是調用resolveDependency方法
                value = beanFactory.resolveDependency(desc, beanName, autowiredBeanNames, typeConverter);
            } catch (BeansException ex) {
                throw new UnsatisfiedDependencyException(null, beanName, new InjectionPoint(field), ex);
            }
            synchronized (this) {
                // 沒有緩存過的話,這裏需要進行緩存
                if (!this.cached) {
                    if (value != null || this.required) {
                        this.cachedFieldValue = desc;
                        // 註冊Bean之間的依賴關係
                        registerDependentBeans(beanName, autowiredBeanNames);
                        // 如果這個類型的依賴只存在一個的話,我們就能確定這個Bean的名稱
                        // 那麼直接將這個名稱緩存到ShortcutDependencyDescriptor中
                        // 第二次進行注入的時候就可以直接調用getBean(beanName)得到這個依賴了
                        // 實際上正常也只有一個,多個就報錯了
                        // 另外這裡會過濾掉@Vlaue得到的依賴
                        if (autowiredBeanNames.size() == 1) {
                            String autowiredBeanName = autowiredBeanNames.iterator().next();
                            // 通過resolvableDependencies這個集合找的依賴不滿足containsBean條件
                            // 不會進行緩存,因為緩存實際還是要調用getBean,而resolvableDependencies
                            // 是沒法通過getBean獲取的
                            if (beanFactory.containsBean(autowiredBeanName) &&
                                beanFactory.isTypeMatch(autowiredBeanName, field.getType())) {							 // 依賴描述符封裝成ShortcutDependencyDescriptor進行緩存
                                this.cachedFieldValue = new ShortcutDependencyDescriptor(
                                    desc, autowiredBeanName, field.getType());
                            }
                        }
                    } else {
                        this.cachedFieldValue = null;
                    }
                    this.cached = true;
                }
            }
        }
        if (value != null) {
            // 反射調用Field.set方法
            ReflectionUtils.makeAccessible(field);
            field.set(bean, value);
        }
    }
    
    方法的屬性注入
    // 代碼看着很長,實際上邏輯跟字段注入基本一樣
    protected void inject(Object bean, @Nullable String beanName, @Nullable PropertyValues pvs) throws Throwable {
        // 判斷XML中是否配置了這個屬性,如果配置了直接跳過
        // 換而言之,XML配置的屬性優先級高於@Autowired註解
        if (checkPropertySkipping(pvs)) {
            return;
        }
        Method method = (Method) this.member;
        Object[] arguments;
        if (this.cached) {
            arguments = resolveCachedArguments(beanName);
        } else {
            // 通過方法參數類型構造依賴描述符
            // 邏輯基本一樣的,最終也是調用beanFactory.resolveDependency方法
            Class<?>[] paramTypes = method.getParameterTypes();
            arguments = new Object[paramTypes.length];
            DependencyDescriptor[] descriptors = new DependencyDescriptor[paramTypes.length];
            Set<String> autowiredBeans = new LinkedHashSet<>(paramTypes.length);
            Assert.state(beanFactory != null, "No BeanFactory available");
            TypeConverter typeConverter = beanFactory.getTypeConverter();
            
            // 遍歷方法的每個參數
            for (int i = 0; i < arguments.length; i++) {
                MethodParameter methodParam = new MethodParameter(method, i);
                DependencyDescriptor currDesc = new DependencyDescriptor(methodParam, this.required);
                currDesc.setContainingClass(bean.getClass());
                descriptors[i] = currDesc;
                try {
                    // 還是要調用這個方法
                    Object arg = beanFactory.resolveDependency(currDesc, beanName, autowiredBeans, typeConverter);
                    if (arg == null && !this.required) {
                        arguments = null;
                        break;
                    }
                    arguments[i] = arg;
                } catch (BeansException ex) {
                    throw new UnsatisfiedDependencyException(null, beanName, new InjectionPoint(methodParam), ex);
                }
            }
            synchronized (this) {
                if (!this.cached) {
                    if (arguments != null) {
                        Object[] cachedMethodArguments = new Object[paramTypes.length];
                        System.arraycopy(descriptors, 0, cachedMethodArguments, 0, arguments.length);  
                        // 註冊bean之間的依賴關係
                        registerDependentBeans(beanName, autowiredBeans);
                        
                        // 跟字段注入差不多,存在@Value註解,不進行緩存
                        if (autowiredBeans.size() == paramTypes.length) {
                            Iterator<String> it = autowiredBeans.iterator();
                            for (int i = 0; i < paramTypes.length; i++) {
                                String autowiredBeanName = it.next();
                                if (beanFactory.containsBean(autowiredBeanName) &&
                                    beanFactory.isTypeMatch(autowiredBeanName, paramTypes[i])) {
                                    cachedMethodArguments[i] = new ShortcutDependencyDescriptor(
                                        descriptors[i], autowiredBeanName, paramTypes[i]);
                                }
                            }
                        }
                        this.cachedMethodArguments = cachedMethodArguments;
                    } else {
                        this.cachedMethodArguments = null;
                    }
                    this.cached = true;
                }
            }
        }
        if (arguments != null) {
            try {
                // 反射調用方法
                // 像我們的setter方法就是在這裏調用的
                ReflectionUtils.makeAccessible(method);
                method.invoke(bean, arguments);
            } catch (InvocationTargetException ex) {
                throw ex.getTargetException();
            }
        }
    }
    

    處理依賴檢查

    protected void checkDependencies(
        String beanName, AbstractBeanDefinition mbd, PropertyDescriptor[] pds, PropertyValues pvs)
        throws UnsatisfiedDependencyException {
    
        int dependencyCheck = mbd.getDependencyCheck();
        for (PropertyDescriptor pd : pds) {
            
            // 有set方法但是在pvs中沒有對應屬性,那麼需要判斷這個屬性是否要進行依賴檢查
            // 如果需要進行依賴檢查的話,就需要報錯了
            // pvs中保存的是自動注入以及XML配置的屬性
            if (pd.getWriteMethod() != null && !pvs.contains(pd.getName())) {
               
                // 是否是基本屬性,枚舉/日期等也包括在內
                boolean isSimple = BeanUtils.isSimpleProperty(pd.getPropertyType());
               	
                // 如果DEPENDENCY_CHECK_ALL,對任意屬性都開啟了依賴檢查,報錯
                // DEPENDENCY_CHECK_SIMPLE,對基本屬性開啟了依賴檢查並且是基本屬性,報錯
                // DEPENDENCY_CHECK_OBJECTS,對非基本屬性開啟了依賴檢查並且不是非基本屬性,報錯
                boolean unsatisfied = (dependencyCheck == AbstractBeanDefinition.DEPENDENCY_CHECK_ALL) ||
                    (isSimple && dependencyCheck == AbstractBeanDefinition.DEPENDENCY_CHECK_SIMPLE) ||
                    (!isSimple && dependencyCheck == AbstractBeanDefinition.DEPENDENCY_CHECK_OBJECTS);
                
                if (unsatisfied) {
                    throw new UnsatisfiedDependencyException(mbd.getResourceDescription(), beanName, pd.getName(),
                                                             "Set this property value or disable dependency checking for this bean.");
                }
            }
        }
    }
    

    將解析出來的屬性應用到Bean上

    到這一步解析出來的屬性主要有三個來源

    1. XML中配置的
    2. 通過byName的方式自動注入的
    3. 通過byType的方式自動注入的

    但是在應用到Bean前還需要做一步類型轉換,這一部分代碼實際上跟我們之前在Spring官網閱讀(十四)Spring中的BeanWrapper及類型轉換介紹的差不多,而且因為XML跟自動注入的方式都不常見,正常@Autowired的方式進行注入的話,這個方法沒有什麼用,所以本文就不再贅述。

    總結

    本文我們主要分析了Spring在屬性注入過程中的相關代碼,整個屬性注入可以分為兩個部分

    1. @Autowired/@Vale的方式完成屬性注入
    2. 自動注入(byType/byName

    完成屬性注入的核心方法其實就是doResolveDependencydoResolveDependency這個方法的邏輯簡單來說分為兩步:

    1. 通過依賴類型查詢到所有的類型匹配的bean的名稱
    2. 如果找到了多個的話,再根據依賴的名稱匹配對應的Bean的名稱
    3. 調用getBean得到這個需要被注入的Bean
    4. 最後反射調用字段的set方法完成屬性注入

    從上面也可以知道,其實整個屬性注入的邏輯是很簡單的。

    如果本文對你有幫助的話,記得點個贊吧!也歡迎關注我的公眾號,微信搜索:程序員DMZ,或者掃描下方二維碼,跟着我一起認認真真學Java,踏踏實實做一個coder。

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※為什麼 USB CONNECTOR 是電子產業重要的元件?

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※台北網頁設計公司全省服務真心推薦

    ※想知道最厲害的網頁設計公司"嚨底家"!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※推薦評價好的iphone維修中心

  • 【離散優化】覆蓋問題

    覆蓋問題

    我們知道設施選址問題有兩類基礎問題,分別是中值問題和覆蓋問題,下面要介紹的就是覆蓋問題。

    什麼是覆蓋問題?

    覆蓋問題是以所期望的服務範圍滿足大多數或者所有用戶需求為前提,確定設施的位置。覆蓋模型的思想是離服務設施較近的用戶越多,則服務越好。

    覆蓋問題的分類

    覆蓋問題主要分為兩類:

    • 集合覆蓋問題(Location Set Covering Problem,LSCP)
    • 最大覆蓋問題(Maximum Covering Location Problem,MCLP)

    覆蓋模型常用於哪些場景?

    由於 P-中值模型常以總距離或者總時間作為測度指標,使得其並不適用於一些特殊的場景,比如消防中心和救護車等應急設施的區位選址問題,而覆蓋模型則比較適用於這些場景。

    如何定義覆蓋?

    如果需求點 \(i\) 到備選設施點 \(j\) 的距離或者時間小於臨界值 \(D_c\),那麼稱需求點 \(i\) 被候選設施點 \(j\) 覆蓋。、

    下面介紹兩類覆蓋問題的數學模型表達

    集合覆蓋問題 (Location Set Covering Problem,LSCP)

    目標函數:

    \[\min \sum_{j \in J}x_j \]

    約束:

    \[\sum_{j \in N_i} x_j \geqslant 1 \quad \forall i \in I \tag{c-1} \]

    \[x_j \in \{0, 1\} \quad \forall j \in J \tag{c-2} \]

    其中,

    • \(N_i = \{j:a_{ij}=1\}\) 是覆蓋需求點 \(i\) 的候選設施點的集合,變量 \(a_{ij}\) 用來判斷需求點 \(i\) 是否被候選設施點 \(j\) 覆蓋,若是,則 \(a_{ij}=1\),否則 \(a_{ij}=0\)
    • 目標函數旨在尋求設施總量最小
    • 約束 \(c-1\) 保證每個需求點至少被一個設施服務範圍所覆蓋
    • 約束 \(c-2\) 是決策變量的取值範圍

    在某些場景中,集合覆蓋問題有以下兩個缺點:

    • 為了保證所有需求點均被覆蓋而引入過多的設施,以至於超出預算
    • 模型無法區分需求點的需求強度

    現實生活中,常常由於預算或者資源的約束,有限的設施不能保證空間中所有需求點都被覆蓋,此時,優先考慮需求強度大的需求點是十分必要的,下面要介紹的最大覆蓋模型就是為了解決這個問題而被提出。

    最大覆蓋問題(Maximum Covering Location Problem,MCLP)

    目標函數

    \[\max \sum_{i \in N_i} \omega_iz_i \]

    約束

    \[z_i \leqslant \sum_{j \in N_i}x_j \quad \forall i \in I \tag{c-1} \]

    \[\sum_{j\in J}x_j = p \tag{c-2} \]

    \[x_j \in \{0,1\} \quad \forall j \in J \tag{c-3} \]

    \[z_i = \{0, 1\} \quad \forall i \in I \tag{c-4} \]

    其中,

    • \(\omega_i\) 為需求點 \(i\) 的需求強度

    • \(z_i\) 用來判斷需求點 \(i\) 是否被覆蓋,若覆蓋,則為 1,否則為 0

    • 目標函數旨在尋求有限設施(\(p\) 個)覆蓋的需求最多

    • 約束 \(c-1\) 要求除非在備選設施點中已定位一個設施可以覆蓋需求點 \(i\),否則需求點 \(i\) 將不被記作被覆蓋

    • 約束 \(c-2\) 限制設施的總數為 \(p\)

    • 約束 \(c-3, c-4\) 是決策變量的取值範圍

    更多種類的選址問題

    以上介紹的覆蓋問題的基礎模型框架,然而具體問題一般是較為複雜的設施選址問題,這就需要我們對基礎模型設置不同的條件從而進行擴展,比如:

    • 用於環境污染防治的鄰避型設施選址問題
    • 用於不同服務等級的層次型設置選址問題
    • 用於商業競爭的競爭型設施選址問題
    • 選址問題也開始考慮動態、不確定性等因素

    總結

    總結以上兩類問題,我們可以發現最大覆蓋模型和集合覆蓋模型的主要區別在於對設施數量和需求強度的關注不同,前者一般適用於建設經費充足或者設施成本相同的情況,後者則適用於有設施成本約束的選址決策。

    參考文獻

    本文內容主要從論文《設施選址問題中的基礎模型與求解方法比較》總結而來。

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※想知道購買電動車哪裡補助最多?台中電動車補助資訊懶人包彙整

    南投搬家公司費用,距離,噸數怎麼算?達人教你簡易估價知識!

    ※教你寫出一流的銷售文案?

    ※超省錢租車方案

  • 記一次uboot升級過程的兩個坑

    記一次uboot升級過程的兩個坑

    背景

    之前做過一次uboot的升級,當時留下了一些記錄,本文摘錄其中比較有意思的兩個問題。

    啟動失敗問題

    問題簡述

    uboot代碼中用到了一個庫,考慮到庫本身跟uboot版本沒什麼關係,就直接把舊的庫文件拷貝過來使用。結果編譯鏈接是沒問題,啟動卻會卡住。

    消失的打印

    為了明確卡住的位置,就去修改了庫的源碼,添加一些打印(此時還是在舊版本uboot下編譯的),結果發現卡住的位置或隨着添加打印的變化而變化,且有些打印語句,添加后未打印出來。

    我決定先從這些神秘消失的打印入手。

    分析下uboot中的printf實現,最底層就是寫寄存器,是一個同步的函數,也沒什麼可疑的地方。

    為了確認打印不出來的時候,到底有沒有調用到printf,我決定給printf增加一個計數器,在gd結構體中,增加一個printf_count字段,初始化為0,每次打印時執行printf_count++並打印出值。

    設計這個試驗,本意是確認未打印出來時是否確實也調用到了printf,但卻有了別的發現,實驗結果中printf_count值會異常變化,不是按打印順序遞增,而是會突變成很大的異常值。

    printf_countgd結構體的成員,那就是gd的問題了。進一步將uboot全局結構體gd的地址打印出來。確認了原因是gd結構體的指針變化了。

    這也可以解釋部分打印消失的現象,原因是我們在gd中有另一個字段,用於控制打印等級。當gd被改動了,printf就可能解析出錯,誤以為打印等級為0而提前返回。

    gd的實現

    那麼好端端的,gd為什麼會被改了呢?這就要先看看gd到底是怎麼實現的了。

    uboot中維護了一個全局的結構體gd。在代碼中加入

    DECLARE_GLOBAL_DATA_PTR;
    

    即可使用gd指針訪問這個全局結構體,許多地方都會藉助gd來保存傳遞信息。

    進一步看看這個宏的定義

    舊版本uboot:
    #define DECLARE_GLOBAL_DATA_PTR        register volatile gd_t *gd asm ("r8")
    
    新版本uboot:
    #define DECLARE_GLOBAL_DATA_PTR        register volatile gd_t *gd asm ("r9")
    

    居然不一樣,一個是將gd的值放到r8寄存器,一個是放在r9寄存器。

    那麼就可以猜測到,庫是在舊版本uboot中編譯出來的,可能使用了r9,那麼放到新版本uboot中去,就會破壞r9寄存器中保存的gd值,導致一系列依賴gd的代碼不能正常工作。

    驗證改動

    為了求證,將庫反彙編出來,發現確實避開了r8寄存器,但使用了r9寄存器。

    說明uboot在指定gd寄存器的同時,還有某種方法讓其他代碼不使用這個寄存器。

    那是不是把舊uboot中的這個r8改成r9,重新編譯庫就可以了呢?試一下,還是不行。

    那麼禁止其他代碼使用r8寄存器肯定就是通過別的方式實現的了。簡單粗暴地在舊版本uboot下搜索r8,去掉.c .h等類型后,很容易發現了

    ./arch/arm/cpu/armv7/config.mk:24:PLATFORM_RELFLAGS += -fno-common -ffixed-r8 -msoft-floa
    

    -ffixed-r8修改為-ffixed-r9,重新編譯出庫,這回就可以正常工作了,打印正常,啟動正常。反彙編出來也可以看到,新編譯出來的庫用了r8沒有用r9

    當然更好的改法,是直接在新版本的uboot中編譯,這是最可靠的。

    追本溯源

    話說回來,為什麼兩個版本的uboot,會使用不同的寄存器呢?難道有什麼坑?

    這就得去翻一下git記錄了。

    commit fe1378a961e508b31b1f29a2bb08ba1dac063155
    Author: Jeroen Hofstee <jeroen@myspectrum.nl>
    Date:   Sat Sep 21 14:04:41 2013 +0200
    
        ARM: use r9 for gd
        
        To be more EABI compliant and as a preparation for building
        with clang, use the platform-specific r9 register for gd
        instead of r8.
        
        note: The FIQ is not updated since it is not used in u-boot,
        and under discussion for the time being.
        
        The following checkpatch warning is ignored:
        WARNING: Use of volatile is usually wrong: see
        Documentation/volatile-considered-harmful.txt
        
        Signed-off-by: Jeroen Hofstee <jeroen@myspectrum.nl>
        cc: Albert ARIBAUD <albert.u.boot@aribaud.net>
    

    git記錄中,也可以確認完整地將r8切換到r9,都需要做哪些修改

    diff --git a/arch/arm/config.mk b/arch/arm/config.mk
    index 16c2e3d1e0..d0cf43ff41 100644
    --- a/arch/arm/config.mk
    +++ b/arch/arm/config.mk
    @@ -17,7 +17,7 @@ endif
     
     LDFLAGS_FINAL += --gc-sections
     PLATFORM_RELFLAGS += -ffunction-sections -fdata-sections \
    -                     -fno-common -ffixed-r8 -msoft-float
    +                     -fno-common -ffixed-r9 -msoft-float
     
     # Support generic board on ARM
     __HAVE_ARCH_GENERIC_BOARD := y
    diff --git a/arch/arm/cpu/armv7/lowlevel_init.S b/arch/arm/cpu/armv7/lowlevel_init.S
    index 82b2b86520..69e3053a42 100644
    --- a/arch/arm/cpu/armv7/lowlevel_init.S
    +++ b/arch/arm/cpu/armv7/lowlevel_init.S
    @@ -22,11 +22,11 @@ ENTRY(lowlevel_init)
            ldr     sp, =CONFIG_SYS_INIT_SP_ADDR
            bic     sp, sp, #7 /* 8-byte alignment for ABI compliance */
     #ifdef CONFIG_SPL_BUILD
    -       ldr     r8, =gdata
    +       ldr     r9, =gdata
     #else
            sub     sp, #GD_SIZE
            bic     sp, sp, #7
    -       mov     r8, sp
    +       mov     r9, sp
     #endif
            /*
             * Save the old lr(passed in ip) and the current lr to stack
    diff --git a/arch/arm/include/asm/global_data.h b/arch/arm/include/asm/global_data.h
    index 79a9597419..e126436093 100644
    --- a/arch/arm/include/asm/global_data.h
    +++ b/arch/arm/include/asm/global_data.h
    @@ -47,6 +47,6 @@ struct arch_global_data {
     
     #include <asm-generic/global_data.h>
     
    -#define DECLARE_GLOBAL_DATA_PTR     register volatile gd_t *gd asm ("r8")
    +#define DECLARE_GLOBAL_DATA_PTR     register volatile gd_t *gd asm ("r9")
     
     #endif /* __ASM_GBL_DATA_H */
    diff --git a/arch/arm/lib/crt0.S b/arch/arm/lib/crt0.S
    index 960d12e732..ac54b9359a 100644
    --- a/arch/arm/lib/crt0.S
    +++ b/arch/arm/lib/crt0.S
    @@ -69,7 +69,7 @@ ENTRY(_main)
            bic     sp, sp, #7      /* 8-byte alignment for ABI compliance */
            sub     sp, #GD_SIZE    /* allocate one GD above SP */
            bic     sp, sp, #7      /* 8-byte alignment for ABI compliance */
    -       mov     r8, sp          /* GD is above SP */
    +       mov     r9, sp          /* GD is above SP */
            mov     r0, #0
            bl      board_init_f
     
    @@ -81,15 +81,15 @@ ENTRY(_main)
      * 'here' but relocated.
      */
     
    -       ldr     sp, [r8, #GD_START_ADDR_SP]     /* sp = gd->start_addr_sp */
    +       ldr     sp, [r9, #GD_START_ADDR_SP]     /* sp = gd->start_addr_sp */
            bic     sp, sp, #7      /* 8-byte alignment for ABI compliance */
    -       ldr     r8, [r8, #GD_BD]                /* r8 = gd->bd */
    -       sub     r8, r8, #GD_SIZE                /* new GD is below bd */
    +       ldr     r9, [r9, #GD_BD]                /* r9 = gd->bd */
    +       sub     r9, r9, #GD_SIZE                /* new GD is below bd */
     
            adr     lr, here
    -       ldr     r0, [r8, #GD_RELOC_OFF]         /* r0 = gd->reloc_off */
    +       ldr     r0, [r9, #GD_RELOC_OFF]         /* r0 = gd->reloc_off */
            add     lr, lr, r0
    -       ldr     r0, [r8, #GD_RELOCADDR]         /* r0 = gd->relocaddr */
    +       ldr     r0, [r9, #GD_RELOCADDR]         /* r0 = gd->relocaddr */
            b       relocate_code
     here:
     
    @@ -111,8 +111,8 @@ clbss_l:cmp r0, r1                  /* while not at end of BSS */
            bl red_led_on
     
            /* call board_init_r(gd_t *id, ulong dest_addr) */
    -       mov     r0, r8                  /* gd_t */
    -       ldr     r1, [r8, #GD_RELOCADDR] /* dest_addr */
    +       mov     r0, r9                  /* gd_t */
    +       ldr     r1, [r9, #GD_RELOCADDR] /* dest_addr */
            /* call board_init_r */
            ldr     pc, =board_init_r       /* this is auto-relocated! */
    

    啟動慢問題

    問題簡述

    填了幾個坑之後,新的uboot可以啟動到內核了,但發現啟動速度非常慢,內核啟動速度慢了接近10倍!明明是同一個內核,為什麼差異這麼大。

    排查寄存器

    初步排查了下設備樹配置,以及uboot跳轉內核前的一些關鍵寄存器,確實在兩個版本的uboot中有所不同,但具體去看這些不同,發現都不會影響速度,將一些驅動對齊之後寄存器差異基本就消失了。

    差異的分界

    那再細看,kernel的速度有差異,uboot呢?在哪個時間點之後,速度開始產生差異?

    嘗試在兩個版本的uboot中插入一些操作,對比時間戳,發現兩個uboot在某個節點之後的速度確實有區別。

    進一步排查,原來是在打開cache操作之後,舊uboot的速度就會比新uboot快。嘗試將舊ubootcache關掉,則二者基本一致。嘗試將舊uboot操作cache的代碼,移植到新uboot,未發生改變。

    此時可確認新uboot的開cache有問題。但覺得這個跟kernel啟動慢沒關係。因為uboot進入kernel之前都會關cache,由kernel自己去重新打開。

    也就是不管是用哪份uboot,也不管uboot中是否開了cache,對kernel階段都應該沒有影響才對。

    於是記錄下來uboot的這個問題,待後續修復。先繼續找kernel啟動慢的原因。(注:現在看來當時的做法是有問題的,這裏的異常這麼明顯,應該設法追蹤下去找出原因才對)

    鎖定uboot

    uboot的嫌疑非常大,但還不能完全確認,因為uboot之前還有一級spl。是否會是spl的問題呢?

    嘗試改用新spl+舊uboot,啟動速度正常。而新spl+新uboot的啟動速度則很慢,其他因素都不變,說明問題確實出在uboot階段。

    多做or少做

    當時到這一步就卡住了,直接比較兩份uboot的代碼不太現實,差異太大了。

    後來我就給自己提了個問題,到底新uboot是多做了某件事情,還是少做了某件事情?

    換個說法,目前已知

    spl --> 舊uboot --> kernel(速度快)
    spl --> 新uboot --> kernel(速度快)
    

    但到底是以下的情況A還是情況B呢?

    A: spl(速度慢) --> 舊uboot(做了某個會提升速度的操作) --> kernel(速度快)
       spl(速度慢) --> 新uboot(少做了某個會提升速度的操作) --> kernel(速度慢)
    
    B: spl(速度快) --> 舊uboot(沒做特殊操作) --> kernel(速度快)
       spl(速度快) --> 新uboot(多做了某個會限制速度的操作) --> kernel(速度慢)
    

    為了驗證,我決定讓spl直接啟動內核,看看內核到底是快是慢。

    支持過程碰到了一些小問題

    1.spl沒有能力加載這麼大的kernel

    解決:此時不需要kernel能完全啟動,只需要能加載啟動一段,足以體現出啟動速度是否正常即可,於是裁剪出一個非常小kernel來輔助實驗。

    2.kernel需要dtb

    解決:內核有一個CONFIG_BUILD_ARM_APPENDED_DTB_IMAGE選項。選上重新編譯。編譯后再用ddkerneldtb拼接到一起,作為新的kernel。這樣,spl就只需要加載一個文件並跳轉過去即可。

    試驗結果,spl啟動的kernel和使用新uboot啟動的kernel速度一致,均比舊uboot啟動的kernel慢。

    說明,舊uboot中做了某個關鍵操作,而新uboot沒做。

    找出關鍵操作

    那接下來的任務就是,找出舊uboot中的這個關鍵操作了。

    怎麼找呢?有了上一步的成果,我們可以使用以下方法來排查

    1. spl加載kernel和舊uboot

    2. spl跳轉到舊uboot,此時kernel其實已經在dram中準備好了,隨時可以啟動

    3. 在舊uboot的啟動流程各個階段,嘗試直接跳轉到kernel,觀察啟動速度

    4. 如果在舊ubootA點跳轉kernel啟動慢,B點跳轉啟動快,則說明關鍵操作位於AB點之間。

    方法有了,很快就鎖定到start.S,進一步在start.S中揪出了這段代碼

    #if defined(CONFIG_ARM_A7)
    @set SMP bit
        mrc     p15, 0, r0, c1, c0, 1
        orr        r0, r0, #(1<<6)
        mcr        p15, 0, r0, c1, c0, 1
    #endif
    

    ubootstart.S中沒有這段代碼,嘗試在新ubootstart.S中添加此操作,速度立馬恢復正常了。

    再全局搜索下,原來這個新版本uboot中,套路是在board_init中進行此項設置的,而這個平台從舊版本移植過來,就沒有設置 SMP bit, 補上即可。

    SMP bit是什麼

    SMP 是指對稱多處理器,看起來這個 bit 會影響多核的 cache一致性,此處沒有再深入研究。

    但可以知道,對於單處理器的情況,也需要設置這個bit才能正常使用cache

    貼下arm的圖和描述:

    [6]	SMP	
    
    Signals if the Cortex-A9 processor is taking part in coherency or not.
    
    In uniprocessor configurations, if this bit is set, then Inner Cacheable Shared is treated as Cacheable. The reset value is zero.
    

    搜下kernel的代碼,發現也是有地方調用了的。不過這個芯片是單核的,根本就沒配置CONFIG_SMP

    #ifdef CONFIG_SMP
    	ALT_SMP(mrc	p15, 0, r0, c1, c0, 1)
    	ALT_UP(mov	r0, #(1 << 6))		@ fake it for UP
    	tst	r0, #(1 << 6)			@ SMP/nAMP mode enabled?
    	orreq	r0, r0, #(1 << 6)		@ Enable SMP/nAMP mode
    	orreq	r0, r0, r10			@ Enable CPU-specific SMP bits
    	mcreq	p15, 0, r0, c1, c0, 1
    #endif
    

    總結

    整理出來一方面是記錄這兩個bug,另一方面也是想記錄下當時的一些操作。

    畢竟同樣的bug可能以後都不會碰到了,但解bug的方法和思路卻是可以積累復用的。

    blog: https://www.cnblogs.com/zqb-all/p/13172546.html
    公眾號:https://sourl.cn/shT3kz

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※Google地圖已可更新顯示潭子電動車充電站設置地點!!

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※別再煩惱如何寫文案,掌握八大原則!

    網頁設計最專業,超強功能平台可客製化

  • Python 為什麼不支持 i++ 自增語法,不提供 ++ 操作符?

    Python 為什麼不支持 i++ 自增語法,不提供 ++ 操作符?

    在 C/C++/Java 等等語言中,整型變量的自增或自減操作是標配,它們又可分為前綴操作(++i 和 –i)與後綴操作(i++ 和 i–),彼此存在着一些細微差別,各有不同的用途。

    這些語言的使用者在接觸 Python 時,可能會疑惑為什麼它不提供 ++ 或 — 的操作呢?在我前不久發的《Python的十萬個為什麼?》里,就有不少同學在調查問卷中表示了對此話題感興趣。

    Python 中雖然可能出現 ++i 這種前綴形式的寫法,但是它並沒有“++”自增操作符,此處只是兩個“+”(正數符號)的疊加而已,至於後綴形式的“++”,則完全不支持(SyntaxError: invalid syntax)。

    本期“Python為什麼 ”欄目,我們將會從兩個主要的角度來回答:Python 為什麼不支持 i++ 自增語法? (PS:此處自增指代“自增和自減”,下同)

    首先,Python 當然可以實現自增效果,即寫成i += 1 或者 i = i + 1 ,這在其它語言中也是通用的。

    雖然 Python 在底層用了不同的魔術方法(__add__()__iadd__() )來完成計算,但表面上的效果完全相同。

    所以,我們的問題可以轉化成:為什麼上面的兩種寫法會勝過 i++,成為 Python 的最終選擇呢?

    1、Python 的整數是不可變類型

    當我們定義i = 1000 時,不同語言會作出不同的處理:

    • C 之類的語言(寫法 int i = 1000)會申請一塊內存空間,並給它“綁定”一個固定的名稱 i,同時寫入一個可變的值 1000。在這裏,i 的地址以及類型是固定的,而值是可變的(在一定的表示範圍內)
    • Python(寫法i = 1000)也會申請一塊內存空間,但是它會“綁定”給数字 1000,即這個 1000 的地址以及類型是固定的(immutable),至於 i,只是一個名稱標籤貼在 1000 上,自身沒有固定的地址和類型

    所以當我們令 i “自增”時(i = i + 1),它們的處理是不同的:

    • C 之類的語言先找到 i 的地址上存的數值,然後令它加 1,操作后新的數值就取代了舊的數值
    • Python 的操作過程是把 i 指向的数字加 1,然後把結果綁定到新申請的一塊內存空間,再把名稱標籤 i “貼”到新的数字上。新舊数字可以同時存在,不是取代關係

    打一個不太恰當的比方:C 中的 i 就像一個宿主,数字 1000 寄生在它上面;而 Python 中的 1000 像個宿主,名稱 i 寄生在它上面。C 中的 i 與 Python 中的 1000,它們則寄生在底層的內存空間上……

    還可以這樣理解:C 中的變量 i 是一等公民,数字 1000 是它的一個可變的屬性;Python 中的数字 1000 是一等公民,名稱 i 是它的一個可變的屬性。

    有了以上的鋪墊,我們再來看看 i++,不難發現:

    • C 之類的語言,i++ 可以表示 i 的数字屬性的增加,它不會開闢新的內存空間,也不會產生新的一等公民
    • Python 之類的語言,i++ 如果是對其名稱屬性的操作,那樣就沒有意義了(總不能按字母表順序,把 i 變成 j 吧);如果理解成對数字本體的操作,那麼情況就會變得複雜:它會產生新的一等公民 1001,因此需要給它分配一個內存地址,此時若佔用 1000 的地址,則涉及舊對象的回收,那原有對於 1000 的引用關係都會受到影響,所以只能開闢新的內存空間給 1001

    Python 若支持 i++,其操作過程要比 C 的 i++ 複雜,而且其含義也不再是“令数字增加1”(自增),而是“創建一個新的数字”(新增), 這樣的話,“自增操作符”(increment operator)就名不副實了。

    Python 在理論上可以實現 i++ 操作,但它就必須重新定義“自增操作符”,還會令有其它語言經驗的人產生誤解,不如就讓大家直接寫成i += 1 或者 i = i + 1 好了。

    2、Python 有可迭代對象

    C/C++ 等語言設計出 i++,最主要的目的是為了方便使用三段式的 for 結構:

    for(int i = 0; i < 100; i++){
        // 執行 xxx
    }
    

    這種程序關心的是数字本身的自增過程,数字做加法與程序體的執行相關聯。

    Python 中沒有這種 for 結構的寫法,它提供了更為優雅的方式:

    for i in range(100):
        # 執行 xxx
    
    my_list = ["你好", "我是Python貓", "歡迎關注"]
    for info in my_list:
        print(info)
    

    這裏體現了不同的思維方式,它關心的是在一個數值範圍內的迭代遍歷,並不關心也不需要人為對数字做加法。

    Python 中的可迭代對象/迭代器/生成器提供了非常良好的迭代/遍歷用法,能夠做到對 i++ 的完全替代。

    例如,上例中實現了對列表內值的遍歷,Python 還可以用 enumerate() 實現對下標與具體值的同時遍歷:

    my_list = ["你好", "我是Python貓", "歡迎關注"]
    for i, info in enumerate(my_list):
        print(i, info)
    
    # 打印結果:
    0 你好
    1 我是Python貓
    2 歡迎關注
    

    再例如對於字典的遍歷,Python 提供了 keys()、values()、items() 等遍歷方法,非常好用:

    my_dict = {'a': '1', 'b': '2', 'c': '3'}
    for key in my_dict.keys():
        print(key)
    
    for key, value in my_dict.items():
        print(key, value)
    

    有了這樣的利器,哪裡還有 i++ 的用武之地呢?

    不僅如此,Python 中基本上很少使用i += 1 或者 i = i + 1 ,由於存在着隨處可見的可迭代對象,開發者們很容易實現對一個數值區間的操作,也就很少有對於某個數值作累加的訴求了。

    所以,回到我們開頭的問題,其實這兩種“自增”寫法並沒有勝出 i++ 多少,只因為它們是通用型操作,又不需要引入新的操作符,所以 Python 才延續了一種基礎性的支持。真正的贏家其實是各種各樣的可迭代對象!

    稍微小結下:Python 不支持自增操作符,一方面是因為它的整數是不可變類型的一等公民,自增操作(++)若要支持,則會帶來歧義;另一方面主要因為它有更合適的實現,即可迭代對象,對遍歷操作有很好的支持。

    如果你覺得本文分析得不錯,那你應該會喜歡這些文章:

    1、Python為什麼使用縮進來劃分代碼塊?

    2、Python 的縮進是不是反人類的設計?

    3、Python 為什麼不用分號作語句終止符?

    4、Python 為什麼沒有 main 函數?為什麼我不推薦寫 main 函數?

    5、Python 為什麼推薦蛇形命名法?

    寫在最後:本文屬於“Python為什麼”系列(Python貓出品),該系列主要關注 Python 的語法、設計和發展等話題,以一個個“為什麼”式的問題為切入點,試着展現 Python 的迷人魅力。部分話題會推出視頻版,請在 B 站收看,觀看地址:視頻地址

    公眾號【Python貓】, 本號連載優質的系列文章,有Python為什麼系列、喵星哲學貓系列、Python進階系列、好書推薦系列、技術寫作、優質英文推薦與翻譯等等,歡迎關注哦。

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    南投搬家公司費用需注意的眉眉角角,別等搬了再說!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※教你寫出一流的銷售文案?

  • 手把手教你學Numpy,搞定數據處理——收官篇

    手把手教你學Numpy,搞定數據處理——收官篇

    本文始發於個人公眾號:TechFlow,原創不易,求個關注

    今天是Numpy專題第6篇文章,我們一起來看看Numpy庫當中剩餘的部分。

    數組的持久化

    在我們做機器學習模型的研究或者是學習的時候,在完成了訓練之後,有時候會希望能夠將相應的參數保存下來。否則的話,如果是在Notebook當中,當Notebook關閉的時候,這些值就丟失了。一般的解決方案是將我們需要的值或者是數組“持久化”,通常的做法是存儲在磁盤上。

    Python當中讀寫文件稍稍有些麻煩,我們還需要創建文件句柄,然後一行行寫入,寫入完成之後需要關閉句柄。即使是用with語句,也依然不夠簡便。針對這個問題,numpy當中自帶了寫入文件的api,我們直接調用即可。

    通過numpy當中save的文件是二進制格式的,所以我們是無法讀取其中內容的,即使強行打開也會是亂碼。

    以二進制的形式存儲數據避免了數據類型轉化的過程,尤其是numpy底層的數據是以C++實現的,如果使用Python的文件接口的話,勢必要先轉化成Python的格式,這會帶來大量開銷。既然可以存儲,自然也可以讀取,我們可以調用numpy的load函數將numpy文件讀取進來。

    要注意我們保存的時候沒有添加文件後綴,numpy會自動為我們添加後綴,但是讀取的時候必須要指定文件的全名,否則會numpy無法找到,會引發報錯。

    不僅如此,numpy還支持我們同時保存多個數組進入一個文件當中。

    我們使用savez來完成,在這個api當中我們傳入了a=arr,b=arr,其實是以類似字典的形式傳入的。在文件當中,numpy會將變量名和數組的值映射起來。這樣我們在讀入的時候,就可以通過變量名訪問到對應的值了。

    如果要存儲的數據非常大的話,我們還可以對數據進行壓縮,我們只需要更換savez成savez_compressed即可。

    線性代數

    Numpy除了科學計算之外,另外一大強大的功能就是支持矩陣運算,這也是它廣為流行並且在機器學習當中大受歡迎的原因之一。我們在之前的線性代數的文章當中曾經提到過Numpy這方面的一些應用,我們今天再在這篇文章當中匯總一些常用的線性代數的接口。

    點乘

    說起來矩陣點乘應該是最常用的線代api了,比如在神經網絡當中,如果拋開激活函數的話,一層神經元對於當前數據的影響,其實等價於特徵矩陣點乘了一個係數矩陣。再比如在邏輯回歸當中,我們計算樣本的加權和的時候,也是通過矩陣點乘來實現的。

    在Andrew的深度學習課上,他曾經做過這樣的實現,對於兩個巨大的矩陣進行矩陣相乘的運算。一次是通過Python的循環來實現,一次是通過Numpy的dot函數實現,兩者的時間開銷相差了足足上百倍。這當中的效率差距和Python語言的特性以及併發能力有關,所以在機器學習領域當中,我們總是將樣本向量化或者矩陣化,通過點乘來計算加權求和,或者是係數相乘。

    在Numpy當中我們採用dot函數來計算兩個矩陣的點積,既可以寫成a.dot(b),也可以寫成np.dot(a, b)。一般來說我更加喜歡前者,因為寫起來更加方便清晰。如果你喜歡後者也問題不大,這個只是個人喜好。

    注意不要寫成*,這個符號代表兩個矩陣元素兩兩相乘,而不是進行點積運算。它等價於np當中的multiply函數。

    轉置與逆矩陣

    轉置我們曾經在之前的文章當中提到過,可以通過.T或者是np.transpose來完成。

    Numpy中還提供了求解逆矩陣的操作,這個函數在numpy的linalg路徑下,這個路徑下實現了許多常用的線性代數函數。根據線性代數當中的知識,只有滿秩的方陣才有逆矩陣。我們可以通過numpy.linalg.det先來計算行列式來判斷,否則如果直接調用的話,對於沒有逆矩陣的矩陣會報錯。

    在這個例子當中,由於矩陣b的行列式為0,說明它並不是滿秩的,所以我們求它的逆矩陣會報錯。

    除了這些函數之外,linalg當中還封裝了其他一些常用的函數。比如進行qr分解的qr函數,進行奇異值分解的svd函數,求解線性方程組的solve函數等。相比之下,這些函數的使用頻率相對不高,所以就不展開一一介紹了,我們可以用到的時候再去詳細研究。

    隨機

    Numpy當中另外一個常用的領域就是隨機數,我們經常使用Numpy來生成各種各樣的隨機數。這一塊在Numpy當中其實也有很多的api以及很複雜的用法,同樣,我們不過多深入,挑其中比較重要也是經常使用的和大家分享一下。

    隨機數的所有函數都在numpy.random這個路徑下,我們為了簡化,就不寫完整的路徑了,大家記住就好。

    randn

    這個函數我們經常在代碼當中看到,尤其是我們造數據的時候。它代表的是根據輸入的shape生成一批均值為0,標準差為1的正態分佈的隨機數。

    要注意的是,我們傳入的shape不是一個元組,而是每一維的大小,這一點和其他地方的用法不太一樣,需要注意一下。除了正態分佈的randn之外,還有均勻分佈的uniform和Gamma分佈的gamma,卡方分佈的chisquare。

    normal

    normal其實也是生成正態分佈的樣本值,但不同的是,它支持我們指定樣本的均值和標準差。如果我們想要生成多個樣本,還可以在size參數當中傳入指定的shape。

    randint

    顧名思義,這個函數是用來生成隨機整數的。它接受傳入隨機數的上下界,最少也要傳入一個上界(默認下界是0)。

    如果想要生成多個int,我們可以在size參數傳入一個shape,它會返回一個對應大小的數組,這一點和uniform用法一樣。

    shuffle

    shuffle的功能是對一個數組進行亂序,返回亂序之後的結果。一般用在機器學習當中,如果存在樣本聚集的情況,我們一般會使用shuffle進行亂序,避免模型受到樣本分佈的影響。

    shuffle是一個inplace的方法,它會在原本值上進行改動,而不會返回一個新值。

    choice

    這也是一個非常常用的api,它可以在數據當中抽取指定條數據。

    但是它只支持一維的數組,一般用在批量訓練的時候,我們通過choice採樣出樣本的下標,再通過數組索引去找到這些樣本的值。比如這樣:

    總結

    今天我們一起研究了Numpy中數據持久化、線性代數、隨機數相關api的使用方法,由於篇幅的限制,我們只是選擇了其中比較常用,或者是比較重要的用法,還存在一些較為冷門的api和用法,大家感興趣的可以自行研究一下,一般來說文章當中提到的用法已經足夠了。

    今天這篇是Numpy專題的最後一篇了,如果你堅持看完本專題所有的文章,那麼相信你對於Numpy包一定有了一個深入的理解和認識了,給自己鼓鼓掌吧。之後周四會開啟Pandas專題,敬請期待哦。

    如果喜歡本文,可以的話,請點個關注,給我一點鼓勵,也方便獲取更多文章。

    本文使用 mdnice 排版

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※想知道最厲害的網頁設計公司"嚨底家"!

    ※幫你省時又省力,新北清潔一流服務好口碑

    ※別再煩惱如何寫文案,掌握八大原則!

    ※產品缺大量曝光嗎?你需要的是一流包裝設計!

  • 三文搞懂學會Docker容器技術(上)

    三文搞懂學會Docker容器技術(上)

    1,Docker簡介

      1.1 Docker是什麼?

    Docker官網: https://www.docker.com/

    Docker 是一個開源的應用容器引擎,基於 Go 語言 並遵從Apache2.0協議開源。
    Docker 可以讓開發者打包他們的應用以及依賴包到一個輕量級、可移植的容器中,然後發布到任何流行的 Linux 機器上,也可以實現虛擬化。
    容器是完全使用沙箱機制,相互之間不會有任何接口(類似 iPhone 的 app),更重要的是容器性能開銷極低。
    Docker 從 17.03 版本之後分為 CE(Community Edition: 社區版) 和 EE(Enterprise Edition: 企業版),我們用社區版就可以了。

      1.2 Docker架構原理?

     

    Docker三要素,鏡像,容器,倉庫

    1.鏡像

    Docker 鏡像(Image)就是一個只讀的模板,它可以是一個可運行軟件(tomcat,mysql),也可以是一個系統(centos)。鏡像可以用來創建 Docker 容器,一個鏡像可以創建很多容器。

    2.容器

    Docker 利用容器(Container)獨立運行的一個或一組應用。容器是用鏡像創建的運行實例。它可以被啟動、開始、停止、刪除。每個容器都是相互隔離的、保證安全的平台。可以把容器看做是一個簡易版的 Linux 環境(包括root用戶權限、進程空間、用戶空間和網絡空間等)和運行在其中的應用程序。容器的定義和鏡像幾乎一模一樣,也是一堆層的統一視角,唯一區別在於容器的最上面那一層是可讀可寫的。

    3.倉庫

    倉庫(Repository)是集中存放鏡像文件的場所,類似GitHub存放項目代碼一樣,只不過Docker Hub是由來存鏡像(image)的。倉庫(Repository)和倉庫註冊服務器(Registry)是有區別的。倉庫註冊服務器上往往存放着多個倉庫,每個倉庫中又包含了多個鏡像,每個鏡像有不同的標籤(tag,類似版本號)。

    倉庫分為公開倉庫(Public)和私有倉庫(Private)兩種形式。

    最大的公開倉庫是 Docker Hub(https://hub.docker.com/),存放了數量龐大的鏡像供用戶下載。國內的公開倉庫包括阿里雲 、網易雲 等。

     

    容器與鏡像的關係類似於面向對象編程中的對象與類。

    Docker 面向對象
    容器 對象
    鏡像

      1.3 Docker有什麼用?

        1,簡化環境搭建,提高開發生命周期效率;

        2,大大簡化運維工作量;

        3,微服務利器;

      1.4 Docker容器與虛擬機區別?

    Docker是一種輕量級的虛擬化技術,比傳統的虛擬機性能更好。

    下圖是虛擬機的體繫結構:

     

    • server – 表示真實電腦。
    • Host OS – 真實電腦的操作系統,例如:Windows,Linux
    • Hypervisor – 虛擬機平台,模擬硬件,如VMWare,VirtualBox
    • Guest OS – 虛擬機平台上安裝的操作系統,例如CentOS Linux
    • App – 虛擬機操作系統上的應用,例如nginx

     

    下圖是Docker的體繫結構:

    • server – 表示真實電腦。
    • Host OS – 真實電腦的操作系統,例如:Windows,Linux
    • Docker Engine – 新一代虛擬化技術,不需要包含單獨的操作系統。
    • App – 所有的應用程序現在都作為Docker容器運行。

     

    這種體繫結構的明顯優勢是,不需要為虛擬機操作系統提供硬件模擬。所有應用程序都作為Docker容器工作,性能更好。

      Docker容器 虛擬機(VM)
    操作系統 與宿主機共享OS 宿主機OS上運行宿主機OS
    存儲大小 鏡像小,便於存儲與傳輸 鏡像龐大(vmdk等)
    運行性能 幾乎無額外性能損失 操作系統額外的cpu、內存消耗
    移植性 輕便、靈活、適用於Linux 笨重、與虛擬化技術耦合度高
    硬件親和性  面向軟件開發者 面向硬件運維者

     

    Docker優點:輕量級,速度快,運行應用隔離,方便維護…

    2,Docker安裝

      2.1 Docker版本介紹

    Docker從1.13版本之後採用時間線的方式作為版本號,分為社區版CE和企業版EE。

    社區版是免費提供給個人開發者和小型團體使用的,企業版會提供額外的收費服務,比如經過官方測試認證過的基礎設施、容器、插件等。

    社區版按照stable和edge兩種方式發布,每個季度更新stable版本,如17.06,17.09;每個月份更新edge版本,如17.09,17.10。

    我們平時用社區版就足夠了。所以我們安裝社區版;

      2.2 Docker安裝官方文檔

    我們主要參考:https://docs.docker.com/install/linux/docker-ce/centos/  來安裝;

      2.3 工具準備

    前置課程:Centos課程  http://www.java1234.com/javaxuexiluxiantu.html

    打包下載: http://pan.baidu.com/s/1i55jJAt

    虛擬機 VMware

    centos7安裝下虛擬機VM上;

    連接工具 才用 FinalShell  官方地址:http://www.hostbuf.com/

      2.4 Docker安裝步驟

    我們切換到root用戶

    1、Docker 要求 CentOS 系統的內核版本高於 3.10 ,查看本頁面的前提條件來驗證你的CentOS 版本是否支持 Docker 。

    通過 uname -r 命令查看你當前的內核版本

     $ uname -r

    2、使用 root 權限登錄 Centos。確保 yum 包更新到最新。

    $ yum update

    3、卸載舊版本(如果安裝過舊版本的話)

    $ yum remove docker  docker-common docker-selinux docker-engine

    4、安裝需要的軟件包, yum-util 提供yum-config-manager功能,另外兩個是devicemapper驅動依賴的

    $ yum install -y yum-utils device-mapper-persistent-data lvm2

    5、設置yum源

    $ yum-config-manager –add-repo https://download.docker.com/linux/centos/docker-ce.repo

    6,安裝最新版本的Docker

    $ yum install docker-ce docker-ce-cli containerd.io

    7,啟動Docker並設置開機啟動

    $ systemctl start docker

    $ systemctl enable docker

    8,驗證Docker

    $ docker version

     

    說明安裝OK;

    9,Docker HelloWorld測試;

    $ docker run hello-world

     

    因為本地沒有這個鏡像,所以從遠程官方倉庫去拉取,下載;

    然後我們再執行一次;

     

    OK了

      2.5 Docker配置阿里雲鏡像倉庫

    Docker默認遠程倉庫是 https://hub.docker.com/

    比如我們下載一個大點的東西,龜速

     

    由於是國外主機,類似Maven倉庫,慢得一腿,經常延遲,破損;

    所以我們一般都是配置國內鏡像,比如阿里雲,網易雲等;推薦阿里雲,穩定點;

    配置步驟如下:

    1,登錄進入阿里雲鏡像服務中心,獲取鏡像地址

    進入阿里雲容器鏡像服務地址:點這裏快速進入

    使用你的淘寶賬號密碼登錄

     

    這裏我們獲取鏡像地址;

    2,在/etc/docker目錄下找到在daemon.json文件(沒有就新建),將下面內容寫入

    {

     “registry-mirrors”: [“https://xxxxxxx.mirror.aliyuncs.com”]

    }

    3,重啟daemon

    systemctl daemon-reload

    4,重啟docker服務

    systemctl restart docker

    5,測試

    由於速度太快,截圖都難;

     

    3,HelloWorld運行原理

    運行  docker run hello-world

    本地倉庫未能找到該鏡像,然後去遠程倉庫尋找以及下載該鏡像;

    然後我們再執行該命令:

    出來了 Hellowold。我們具體來分析下 執行原理和過程;

    從左到右 client客戶端,Docker運行主機,遠程倉庫;

    docker build ,pull,run分別是 構建,拉取,運行命令,後面再細講;

    中間Docker主機里有 Docker daemon主運行線程,以及Containers容器,容器里可以運行很多實例,(實例是從右側Images鏡像實例化出來的)Images是存儲再本地的鏡像文件,比如 Redis,Tomat這些鏡像文件;

    右側是Registry鏡像倉庫,默認遠程鏡像倉庫 https://hub.docker.com/  不過是國外主機,下載很慢,不穩定,所以我們後面要配置成阿里雲倉庫鏡像地址,穩定快捷;

    執行 docker run hello-world的過程看如下圖例:

     

     

     

    4,Docker基本命令

       4.1 啟動Docker

               systemctl start docker

      4.2 停止Docker

             systemctl stop docker

      4.3 重啟Docker

           systemctl restart docker

      4.4 開機啟動Docker

         systemctl enable docker

      4.5 查看Docker概要信息

       docker info

      4.6 查看Docker幫助文檔

       docker –help

      4.7 查看Docker版本信息

         docker version

    5,Docker鏡像

      5.1 docker images 列出本機所有鏡像

     

    REPOSITORY 鏡像的倉庫源
    TAG 鏡像的標籤(版本)同一個倉庫有多個TAG的鏡像,多個版本;我們用REPOSITORY:TAG來定義不同的鏡像;
    IMAGE ID 鏡像ID,鏡像的唯一標識
    CREATE 鏡像創建時間
    SIZE 鏡像大小

    OPTIONS 可選參數:

    -a 显示所有鏡像(包括中間層)
    q 只显示鏡像ID
    -qa 可以組合
    –digests 显示鏡像的摘要信息
    –no-trunc 显示完整的鏡像信息 

     

      5.2 docker search 搜索鏡像

    和 https://hub.docker.com/ 這裏的搜索效果一樣;

    OPTIONS可選參數:

    –no-trunc 显示完整的鏡像描述
    -s 列出收藏數不小於指定值的鏡像
    –automated 只列出Docker Hub自動構建類型的鏡像

     

     

     

      5.3 docker pull 下載鏡像

    docker pull 鏡像名稱:[TAG]

    注意:不加TAG,默認下載最新版本latest

      5.4 docker rmi 刪除鏡像

    1,刪除單個:docker rmi 鏡像名稱:[TAG]

    如果不寫TAG,默認刪除最新版本latest

    有鏡像生成的容器再運行時候,會報錯,刪除失敗;

    我們需要加 -f 強制刪除

    2,刪除多個:docker rmi -f 鏡像名稱1:[TAG] 鏡像名稱2:[TAG]

    中間空格隔開

    3,刪除全部:docker rmi -f $(docker images -qa)

     

     

    ——————————————————————————————————————————

    作者: java1234_小鋒

    出處:https://www.cnblogs.com/java688/p/13132444.html

    版權:本站使用「CC BY 4.0」創作共享協議,轉載請在文章明顯位置註明作者及出處。

    ——————————————————————————————————————————

     

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※帶您來了解什麼是 USB CONNECTOR  ?

    ※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

    ※如何讓商品強力曝光呢? 網頁設計公司幫您建置最吸引人的網站,提高曝光率!

    ※綠能、環保無空污,成為電動車最新代名詞,目前市場使用率逐漸普及化

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※教你寫出一流的銷售文案?

  • Windows7/10實現ICMP(ping命令)

    Windows7/10實現ICMP(ping命令)

      如果覺得本文如果幫到你或者你想轉載都可以,只需要標註出處即可。謝謝

     利用ICMP數據包、C語言實現Ping命令程序,能實現基本的Ping操作,發送ICMP回顯請求報文,用於測試—個主機到只一個主機之間的連通情況。通過本程序的訓練,熟悉ICMP報文結構,對ICMP有更深的理解,掌握Ping程序的設計方法,掌握網絡編程的方法和技巧,從而編寫出功能更強大的程序。有關traceroute如果有時間我會也寫一篇來進行講解.W

      windows和Linux實現ping的底層思想一樣的,代碼有細微的差別。如文文件不一樣,參數定義不一樣等。所以我們要實現ping功能的時候我們需要注意是在Windows上實現還是Linux上實現。

      如果你不想看關於ping命令實現的原理,則可以直接通過以下目錄跳轉到‘8.實現Ping功能’即可.

      本文目錄

      1.ICMP簡介

      2.ICMP工作原理

      3.ICMP報文格式

      4.ICMPv4類型

        4.1響應請求/應答(ping)

        4.2.目標不可到達、源抑制和超時報文

      5.ICMP應用

      6.ICMP攻擊與防禦方法

      7.IP報文頭和ICMP的聯繫

      8.實現Ping功能

        8.1.ping實現步驟

        8.2.結果及心得

        8.3.完整代碼

    1.ICMP簡介

      ICMP(Internet Control Message Protocol)Internet控制報文協議。它是TCP/IP協議簇的一個子協議,用於在IP主機、路由器之間傳遞控制消息。控制消息是指網絡通不通、主機是否可達、路由是否可用等網絡本身的消息。這些控制消息雖然並不傳輸用戶數據,但是對於用戶數據的傳遞起着重要的作用。

     ICMP協議是一種面向無連接的協議,用於傳輸出錯報告控制信息。它是一個非常重要的協議,它對於網絡安全具有極其重要的意義。

      ICMP報文通常是由IP層本身、上層的傳輸協議(TCP或UDP)甚至某些情況下用戶應用除法執行的。

      ICMP報文是在IP數據報內被封裝傳輸的。

      ICMP分為兩大類:有關IP數據報傳遞的ICMP報文(稱為差錯報文(error message)),以及有關信息採集和配置的ICMP報文(稱為查詢(query)或者信息類報文(informational message))。

      注:ICMP並不為IP網絡提供可靠性。相反,它表明了某些類別的故障和配置信息。

    2.ICMP工作原理

      ICMP提供一致易懂的出錯報告信息。發送的出錯報文返回到發送原數據的設備,因為只有發送設備才是出錯報文的邏輯接受者。發送設備隨後可根據ICMP報文確定發生錯誤的類型,並確定如何才能更好地重發失敗的數據包。但是ICMP唯一的功能是報告問題而不是糾正錯誤,糾正錯誤的任務由發送方完成。

      我們在網絡中經常會使用到ICMP協議,比如我們經常使用的用於檢查網絡通不通的Ping命令(Linux和Windows中均有),這個“Ping”的過程實際上就是ICMP協議工作的過程。還有其他的網絡命令如跟蹤路由的Tracert命令也是基於ICMP協議的。

    3.ICMP報文格式

      ICMP報文包含在IP數據報中,屬於IP的一個用戶,IP頭部就在ICMP報文的前面,所以一個ICMP報文包括IP頭部、ICMP頭部和ICMP報文,IP頭部的Protocol值為1就說明這是一個ICMP報文,ICMP頭部中的類型(Type)域用於說明ICMP報文的作用及格式,此外還有一個代碼(Code)域用於詳細說明某種ICMP報文的類型,所有數據都在ICMP頭部後面。

      ICMPICMP報文格式具體由[RFC777][RFC792]規範。792是1981年9月更新,而777是1981年4月更新的。目前最新的ICMP報文格式RFC是2007年4月更新的[RFC488].

     

    4.ICMPv4類型

      已經定義的ICMP消息類型大約有10多種,每種ICMP數據類型都被封裝在一個IP數據包中。主要的ICMP消息類型包括以下幾種。

      對於ICMPv4,信息類報文包括回顯請求和回顯應答(分別為類型8和0),以及路由器通告和路由器請求(分別為類型9和10,統一被稱為路由器發現)。最常見的差錯報文類型包括目的不可達(類型3)、重定向(類型5)、超時(類型11)和參數問題(類型12).下圖為一些類型.更多的信息建議去RFC官方查看,Type和Code在IPv4和IPc6不盡相同,所以其中的差異需要我們自行去查看,本圖為IPv4版本的,IPv6需要我們自己RFC查找。

     

    1).響應請求/應答(ping)(ICMPv4類型為0/8,ICMPv6類型129/18)

      我們日常使用最多的ping,就是響應請求(Type=8)和應答(Type=0),一台主機向一個節點發送一個Type=8的ICMP報文,如果途中沒有異常(例如被路由器丟棄、目標不回應ICMP或傳輸失敗),則目標返回Type=0的ICMP報文,說明這台主機存在,更詳細的tracert通過計算ICMP報文通過的節點來確定主機與目標之間的網絡距離。更多的信息我們可以通過RFC文檔了解

     

    2).目標不可到達(ICMPv4類型3,ICMPv6類型1)、源抑制和超時報文(ICMPv4類型11,ICMPv6類型4)

      這三種報文的格式是一樣的,目標不可到達報文(Type=3)在路由器或主機不能傳遞數據報時使用,例如我們要連接對方一個不存在的系統端口(端口號小於1024)時,將返回Type=3、Code=3的ICMP報文,它要告訴我們:“嘿,別連接了,我不在家的!”,常見的不可到達類型還有網絡不可到達(Code=0)、主機不可到達(Code=1)、協議不可到達(Code=2)等。源抑制則充當一個控制流量的角色,它通知主機減少數據報流量,由於ICMP沒有恢復傳輸的報文,所以只要停止該報文,主機就會逐漸恢復傳輸速率。最後,無連接方式網絡的問題就是數據報會丟失,或者長時間在網絡遊盪而找不到目標,或者擁塞導致主機在規定時間內無法重組數據報分段,這時就要觸發ICMP超時報文的產生。超時報文的代碼域有兩種取值:Code=0表示傳輸超時,Code=1表示重組分段超時。更多的信息我們可以通過RFC文檔了解

     

    5.ICMP應用

    1).ping 命令使用 ICMP 回送請求和應答報文在網絡可達性測試中使用的分組網間探測命令 ping 能產生 ICMP 回送請求和應答報文。目的主機收到 ICMP 回送請求報文後立刻回送應答報文,若源主機能收到 ICMP 回送應答報文,則說明到達該主機的網絡正常。

    2).路由分析診斷程序 tracert 使用了 ICMP時間超過報文tracert 命令主要用來显示數據包到達目的主機所經過的路徑。通過執行一個 tracert 到對方主機的命令,返回數據包到達目的主機所經歷的路徑詳細信息,並显示每個路徑所消耗的時間。

     

    6.ICMP攻擊

      涉及ICMP的攻擊主要分為3類:泛洪(flood)、炸彈(bomb)、信息泄露(information disclosure).針對TCP的ICMP攻擊已經被專門記錄在RFC文檔中[RFC5927]

    1).泛洪(flood)

      泛洪將會生成大量流量,導致針對一台或者多台計算機的有效Dos攻擊

    2).炸彈(bomb)

      炸彈類型有時也稱為核彈(nuke)類型,指的是發送經過特殊構造的報文,能夠導致IP或ICMP的處理崩潰或者終止。

    3).信息泄露(information disclosure)

      信息泄露攻擊本身不會造成危害,但是能夠幫助其他攻擊方法避免浪費時間或者被發現了。

    7.IP報文頭和ICMP的聯繫

      ICMP報文是封裝在IP數據報的數據部分中進行傳輸的.

     

      ICMP依靠IP來完成它的任務,它是IP的主要部分。它與傳輸協議(如TCP和UDP)顯著不同:它一般不用於在兩點間傳輸數據。它通常不由網絡程序直接使用,除了 ping 和 traceroute 這兩個特別的例子。 IPv4中的ICMP被稱作ICMPv4,IPv6中的ICMP則被稱作ICMPv6。

     

      總的來說,ICMP是封裝在IP數據報中進行傳輸的.具體更多的聯繫我們通過以下改文章進行詳解,從Wireshark抓包然後分析數據包進行兩者的區別和聯繫.

      參考文檔:https://www.cnblogs.com/CSAH/p/13170860.html

    8.實現Ping功能

      首先我們注意,本文只是實現ping的最簡單的功能即響應請求/應答(ping),故只能夠ping IP地址,不能夠ping 域名,因為域名到IP地址我們需要經過DNS解析,本文不實現該功能.關於DNS轉換到IP地址的詳情,有時間有機會我會補上的.

      本程序使用的環境是win10+vc++6.0,如果沒有安裝VC++6.0的或者在Win10安裝了無法使用的請查看’Win10安裝vc6.0教程‘。

      ping功能實現參考了TCP/IP詳解 卷1 和 卷2。

    1).實現步驟

      首先,我們需要先定義初始化一些全局變量,接着我們對需要用到的數據類型結構進行聲明定義,我們包含的數據類型結構有IP報頭結構、ICMP數據類型結構、結果集類型結構等;對需要使用到的函數進行頭文件的導入,主要的區別在於使用的是Windows系統還是Linux系統,導入的頭文件也不盡相同。準備工作全都完成了,然後我們就可以定義main函數進行試驗的驗證測試。

      其次,我們需要對每一步的遇到的問題需要寫一份說明報告書,以防下次再進行實驗時遇到同樣的問題時,我們無需再去查找大量資料。

      最後,我們對整個實驗的總結,對每一步。每一個函數進行詳講.做好註釋.

      Ping()函數是本程序的核心部分,它基本是調用其他模塊的函數來實現最終功能,其主要布驟包括:定義及初始化各個全局變量、打開socket動態庫、設置接收和發送超時值、域名地址解析、分配內存、創建及初始化ICMP報文、發送ICMP請求報文、接收ICMP 應答報文以及解讀應答報文和輸出Ping結果。

     

      注意:創建套接字的時候參數的以及在創建套接字之前必須首先使用WSAStartup函數。

    (1)輸入時不能輸入目標主機名,不然ping結果為TIMEOUT

     

    (2)該模塊並非只有處理還包括判斷及輸出判斷結果的含義

    (3)程序沒運行一次就只能輸出四行結果(前提是輸入的地址有效),欲再次PING其他地址接着輸入下一個ip地址即可

     

    2).代碼實現

        如果要想實現Windows下ping功能的實現,我們只需要從(1)到(8)複製到任意一個新創建filename.cpp文件中即可執行.或者最簡單的方法就是到本文中最低直接複製’完整代碼’到任意一個新創建filename.cpp文件中即可執行

    (1).頭文件、全局變量

    #include<stdio.h>
    #include<Winsock2.h>
    #include<ws2tcpip.h>
    #include<stdlib.h>
    #include<malloc.h>
    #include<string.h>
    #pragma comment(lib , "Ws2_32.lib")
    
    #define ICMP_ECHO_REQUEST 8 //定義回顯請求類型
    #define DEF_ICMP_DATA_SIZE 20 //定義發送數據長度
    #define DEF_ICMP_PACK_SIZE 32 //定義數據包長度
    #define MAX_ICMP_PACKET_SIZE 1024 //定義最大數據包長度
    #define DEF_ICMP_TIMEOUT 3000  //定義超時為3秒
    #define ICMP_TIMEOUT 11 //ICMP超時報文
    #define ICMP_ECHO_REPLY 0 //定義回顯應答類型
    

      

    (2).IP報頭據類型

    /*
     *IP報頭結構
     */
    typedef struct
    {
        byte h_len_ver ; //IP版本號
        byte tos ; // 服務類型
        unsigned short total_len ; //IP包總長度
        unsigned short ident ; // 標識
        unsigned short frag_and_flags ; //標誌位
        byte ttl ; //生存時間
        byte proto ; //協議
        unsigned short cksum ; //IP首部校驗和
        unsigned long sourceIP ; //源IP地址
        unsigned long destIP ; //目的IP地址
    } IP_HEADER ;
    

      

    (3).ICMP數據類型

    /*
     *定義ICMP數據類型
     */
    typedef struct _ICMP_HEADER
    {
        byte type ; //類型-----8
        byte code ; //代碼-----8
        unsigned short cksum ; //校驗和------16
        unsigned short id ; //標識符-------16
        unsigned short seq ; //序列號------16
        unsigned int choose ; //選項-------32
    } ICMP_HEADER ;
    

      

    (4).ping返回結果集數據類型

    typedef struct
    {
        int usSeqNo ; //記錄序列號
        DWORD dwRoundTripTime ; //記錄當前時間
        byte ttl ; //生存時間
        in_addr dwIPaddr ; //源IP地址
    } DECODE_RESULT ;
    

      

    (5).網際校驗和

    /*
     *產生網際校驗和
     */
    unsigned short GenerateChecksum(unsigned short *pBuf , int iSize)
    {
        unsigned long cksum = 0 ; //開始時將網際校驗和初始化為0
        while(iSize > 1)
        {
            cksum += *pBuf++ ; //將待校驗的數據每16位逐位相加保存在cksum中
            iSize -= sizeof(unsigned short) ; //每16位加完則將帶校驗數據量減去16
        }
        //如果待校驗的數據為奇數,則循環完之後需將最後一個字節的內容與之前結果相加
        if(iSize)
        {
            cksum += *(unsigned char*)pBuf ;
        }
            //之前的結果產生了進位,需要把進位也加入最後的結果中
        cksum = (cksum >> 16) + (cksum & 0xffff) ;
        cksum += (cksum >> 16) ;
        return (unsigned short)(~ cksum) ;
    }
    

      

    (6).ping信息解析

    /*
     *對ping應答信息進行解析
     */
    boolean DecodeIcmpResponse_Ping(char *pBuf , int iPacketSize , DECODE_RESULT *stDecodeResult)
    {
        IP_HEADER *pIpHrd = (IP_HEADER*)pBuf ;
        int iIphedLen = 20 ;
        if(iPacketSize < (int)(iIphedLen + sizeof(ICMP_HEADER)))
        {
            printf("size error! \n") ;
            return 0 ;
        }
        //指針指向ICMP報文的首地址
        ICMP_HEADER *pIcmpHrd = (ICMP_HEADER*)(pBuf + iIphedLen) ;
        unsigned short usID , usSeqNo ;
        //獲得的數據包的type字段為ICMP_ECHO_REPLY,即收到一個回顯應答ICMP報文
        if(pIcmpHrd->type == ICMP_ECHO_REPLY)
        {
            usID = pIcmpHrd->id ;
            //接收到的是網絡字節順序的seq字段信息 , 需轉化為主機字節順序
            usSeqNo = ntohs(pIcmpHrd->seq) ;
        }
        if(usID != GetCurrentProcessId() || usSeqNo != stDecodeResult->usSeqNo)
        {
            printf("usID error!\n") ;
            return 0 ;
        }
        //記錄對方主機的IP地址以及計算往返的時延RTT
        if(pIcmpHrd->type == ICMP_ECHO_REPLY)
        {
            stDecodeResult->dwIPaddr.s_addr = pIpHrd->sourceIP ;
            stDecodeResult->ttl = pIpHrd->ttl ;
            stDecodeResult->dwRoundTripTime = GetTickCount() - stDecodeResult->dwRoundTripTime ;
            return 1 ;
        }
        return 0 ;
    }
    

      

    (7).ping功能實現集成

    void Ping(char *IP)
    {
       unsigned long ulDestIP = inet_addr(IP) ; //將IP地址轉化為長整形
       if(ulDestIP == INADDR_NONE)
       {
           //轉化不成功時按域名解析
           HOSTENT *pHostent = gethostbyname(IP) ;
           if(pHostent)
           {
               ulDestIP = (*(IN_ADDR*)pHostent->h_addr).s_addr ; //將HOSTENT轉化為長整形
           }
           else
           {
               printf("TIMEOUT\n") ;
               return ;
           }
       }
       //填充目的Socket地址
       SOCKADDR_IN destSockAddr ; //定義目的地址
       ZeroMemory(&destSockAddr , sizeof(SOCKADDR_IN)) ; //將目的地址清空
       destSockAddr.sin_family = AF_INET ;
       destSockAddr.sin_addr.s_addr = ulDestIP ;
       destSockAddr.sin_port = htons(0);
        //初始化WinSock
        WORD wVersionRequested = MAKEWORD(2,2);
        WSADATA wsaData;
        if(WSAStartup(wVersionRequested,&wsaData) != 0)
        {
            printf("初始化WinSock失敗!\n") ;
            return ;
        }
       //使用ICMP協議創建Raw Socket
       SOCKET sockRaw = WSASocket(AF_INET , SOCK_RAW , IPPROTO_ICMP , NULL , 0 , WSA_FLAG_OVERLAPPED) ;
       if(sockRaw == INVALID_SOCKET)
       {
           printf("創建Socket失敗 !\n") ;
           return ;
       }
       //設置端口屬性
       int iTimeout = DEF_ICMP_TIMEOUT ;
       if(setsockopt(sockRaw , SOL_SOCKET , SO_RCVTIMEO , (char*)&iTimeout , sizeof(iTimeout)) == SOCKET_ERROR)
       {
             printf("設置參數失敗!\n") ;
             return ;
       }
       if(setsockopt(sockRaw , SOL_SOCKET , SO_SNDTIMEO , (char*)&iTimeout , sizeof(iTimeout)) == SOCKET_ERROR)
       {
             printf("設置參數失敗!\n") ;
             return ;
       }
       //定義發送的數據段
       char IcmpSendBuf[DEF_ICMP_PACK_SIZE] ;
       //填充ICMP數據包個各字段
       ICMP_HEADER *pIcmpHeader  = (ICMP_HEADER*)IcmpSendBuf;
       pIcmpHeader->type = ICMP_ECHO_REQUEST ;
       pIcmpHeader->code = 0 ;
       pIcmpHeader->id = (unsigned short)GetCurrentProcessId() ;
       memset(IcmpSendBuf + sizeof(ICMP_HEADER) , 'E' , DEF_ICMP_DATA_SIZE) ;
       //循環發送四個請求回顯icmp數據包
       int usSeqNo = 0 ;
       DECODE_RESULT stDecodeResult ;
       while(usSeqNo <= 3)
       {
         pIcmpHeader->seq = htons(usSeqNo) ;
         pIcmpHeader->cksum = 0 ;
         pIcmpHeader->cksum = GenerateChecksum((unsigned short*)IcmpSendBuf , DEF_ICMP_PACK_SIZE) ; //生成校驗位
         //記錄序列號和當前時間
         stDecodeResult.usSeqNo = usSeqNo ;
         stDecodeResult.dwRoundTripTime = GetTickCount() ;
         //發送ICMP的EchoRequest數據包
         if(sendto(sockRaw , IcmpSendBuf , DEF_ICMP_PACK_SIZE , 0 , (SOCKADDR*)&destSockAddr , sizeof(destSockAddr)) == SOCKET_ERROR)
         {
            //如果目的主機不可達則直接退出
            if(WSAGetLastError() == WSAEHOSTUNREACH)
            {
                printf("目的主機不可達!\n") ;
                exit(0) ;
            }
         }
         SOCKADDR_IN from ;
         int iFromLen = sizeof(from) ;
         int iReadLen ;
         //定義接收的數據包
         char IcmpRecvBuf[MAX_ICMP_PACKET_SIZE] ;
         while(1)
         {
             iReadLen = recvfrom(sockRaw , IcmpRecvBuf , MAX_ICMP_PACKET_SIZE , 0 , (SOCKADDR*)&from , &iFromLen) ;
             if(iReadLen != SOCKET_ERROR)
             {
                 if(DecodeIcmpResponse_Ping(IcmpRecvBuf , sizeof(IcmpRecvBuf) , &stDecodeResult))
                 {
                    printf("來自 %s 的回復: 字節 = %d 時間 = %dms TTL = %d\n" , inet_ntoa(stDecodeResult.dwIPaddr) ,
                             iReadLen - 20,stDecodeResult.dwRoundTripTime ,stDecodeResult.ttl) ;
                 }
                 break ;
             }
             else if(WSAGetLastError() == WSAETIMEDOUT)
             {
                 printf("time out !  *****\n") ;
                 break ;
             }
             else
             {
                 printf("發生未知錯誤!\n") ;
                 break ;
             }
         }
         usSeqNo++ ;
       }
       //輸出屏幕信息
       printf("Ping complete...\n") ;
       closesocket(sockRaw) ;
       WSACleanup() ;
    }
    

      

    ①.inet_addr:可以轉化字符串,主要用來將一個十進制的數轉化為二進制的數,用途多於ipv4的IP轉化。

    ②.if(IpAddress == INADDR_NONE):INADDR_NONE 是個宏定義,代表IpAddress是否為無效的IP地址。

    ③.ckaddr_in:定義目的地址信息;

     

    ④.ZeroMemory:用0來填充一塊內存區域.ZeroMemory只能用於windows平台.

     

    ⑤.WSASocket:創建一個原始套接字。使用時需要包含winsock2.h 頭文件和鏈接ws2_32.lib庫。

    ⑥.SOCKET socket==INVALID_SOCKET:如果socket為無效套接字,則結果為true;

    ⑦.DEF_ICMP_TIMEOUT:報文超時時間.

    ⑧.setsockopt:選項影響套接口的操作,諸如加急數據是否在普通數據流中接收,廣播數據是否可以從套接口發送等等。

    ⑨.while(usSeqNo <= 3){}:該部分就是實驗要求我們一次測試的進行發包4次

    (8).Test測試

    int main(int argc , char* argv[])
    {
       char  com[10] , IP[20] ;
       while(1){
       printf("command>>") ;
       scanf("%s %s" , com , IP) ;
       if(strcmp(com , "ping") == 0)
       {
           Ping(IP) ;
       }
       else
       {
           printf("輸入錯誤 ! \n") ;
       }
       }
       return 0 ;
    }
    

      

    2).結果及心得

    (1).查看本機IP

     

    (2).ping網關IP

     

    (3).ping本機IP

     

    (4).ping局域網內IP

     

    (5).問題與解決方案

    ①.問題:telnet是23端口,ssh是22端口,那麼ping是什麼端口?

    答:ping基於ICMP,是在網絡層運行的。而端口號為傳輸層的內容。所以在ICMP中根本就不需要關注端口號這樣的信息。

    ②.Win7、win10 在VC6.0運行時WSASocket 返回錯誤 10013

      

    3).完整代碼

     

    #include<stdio.h>
    #include<Winsock2.h>
    #include<ws2tcpip.h>
    #include<stdlib.h>
    #include<malloc.h>
    #include<string.h>
    #pragma comment(lib , "Ws2_32.lib")
    
    
    #define ICMP_ECHO_REQUEST 8 //定義回顯請求類型
    #define DEF_ICMP_DATA_SIZE 20 //定義發送數據長度
    #define DEF_ICMP_PACK_SIZE 32 //定義數據包長度
    #define MAX_ICMP_PACKET_SIZE 1024 //定義最大數據包長度
    #define DEF_ICMP_TIMEOUT 3000  //定義超時為3秒
    #define ICMP_TIMEOUT 11 //ICMP超時報文
    #define ICMP_ECHO_REPLY 0 //定義回顯應答類型
    /*
     *IP報頭結構
     */
    typedef struct
    {
        byte h_len_ver ; //IP版本號
        byte tos ; // 服務類型
        unsigned short total_len ; //IP包總長度
        unsigned short ident ; // 標識
        unsigned short frag_and_flags ; //標誌位
        byte ttl ; //生存時間
        byte proto ; //協議
        unsigned short cksum ; //IP首部校驗和
        unsigned long sourceIP ; //源IP地址
        unsigned long destIP ; //目的IP地址
    } IP_HEADER ;
    /*
     *定義ICMP數據類型
     */
    typedef struct _ICMP_HEADER
    {
        byte type ; //類型-----8
        byte code ; //代碼-----8
        unsigned short cksum ; //校驗和------16
        unsigned short id ; //標識符-------16
        unsigned short seq ; //序列號------16
        unsigned int choose ; //選項-------32
    } ICMP_HEADER ;
    
    
    typedef struct
    {
        int usSeqNo ; //記錄序列號
        DWORD dwRoundTripTime ; //記錄當前時間
        byte ttl ; //生存時間
        in_addr dwIPaddr ; //源IP地址
    } DECODE_RESULT ;
    
    /*
     *產生網際校驗和
     */
    unsigned short GenerateChecksum(unsigned short *pBuf , int iSize)
    {
        unsigned long cksum = 0 ; //開始時將網際校驗和初始化為0
        while(iSize > 1)
        {
            cksum += *pBuf++ ; //將待校驗的數據每16位逐位相加保存在cksum中
            iSize -= sizeof(unsigned short) ; //每16位加完則將帶校驗數據量減去16
        }
        //如果待校驗的數據為奇數,則循環完之後需將最後一個字節的內容與之前結果相加
        if(iSize)
        {
            cksum += *(unsigned char*)pBuf ;
        }
            //之前的結果產生了進位,需要把進位也加入最後的結果中
        cksum = (cksum >> 16) + (cksum & 0xffff) ;
        cksum += (cksum >> 16) ;
        return (unsigned short)(~ cksum) ;
    }
    
    /*
     *對ping應答信息進行解析
     */
    boolean DecodeIcmpResponse_Ping(char *pBuf , int iPacketSize , DECODE_RESULT *stDecodeResult)
    {
        IP_HEADER *pIpHrd = (IP_HEADER*)pBuf ;
        int iIphedLen = 20 ;
        if(iPacketSize < (int)(iIphedLen + sizeof(ICMP_HEADER)))
        {
            printf("size error! \n") ;
            return 0 ;
        }
        //指針指向ICMP報文的首地址
        ICMP_HEADER *pIcmpHrd = (ICMP_HEADER*)(pBuf + iIphedLen) ;
        unsigned short usID , usSeqNo ;
        //獲得的數據包的type字段為ICMP_ECHO_REPLY,即收到一個回顯應答ICMP報文
        if(pIcmpHrd->type == ICMP_ECHO_REPLY)
        {
            usID = pIcmpHrd->id ;
            //接收到的是網絡字節順序的seq字段信息 , 需轉化為主機字節順序
            usSeqNo = ntohs(pIcmpHrd->seq) ;
        }
        if(usID != GetCurrentProcessId() || usSeqNo != stDecodeResult->usSeqNo)
        {
            printf("usID error!\n") ;
            return 0 ;
        }
        //記錄對方主機的IP地址以及計算往返的時延RTT
        if(pIcmpHrd->type == ICMP_ECHO_REPLY)
        {
            stDecodeResult->dwIPaddr.s_addr = pIpHrd->sourceIP ;
            stDecodeResult->ttl = pIpHrd->ttl ;
            stDecodeResult->dwRoundTripTime = GetTickCount() - stDecodeResult->dwRoundTripTime ;
            return 1 ;
        }
        return 0 ;
    }
    
    void Ping(char *IP)
    {
       unsigned long ulDestIP = inet_addr(IP) ; //將IP地址轉化為長整形
       if(ulDestIP == INADDR_NONE)
       {
           //轉化不成功時按域名解析
           HOSTENT *pHostent = gethostbyname(IP) ;
           if(pHostent)
           {
               ulDestIP = (*(IN_ADDR*)pHostent->h_addr).s_addr ; //將HOSTENT轉化為長整形
           }
           else
           {
               printf("TIMEOUT\n") ;
               return ;
           }
       }
       //填充目的Socket地址
       SOCKADDR_IN destSockAddr ; //定義目的地址
       ZeroMemory(&destSockAddr , sizeof(SOCKADDR_IN)) ; //將目的地址清空
       destSockAddr.sin_family = AF_INET ;
       destSockAddr.sin_addr.s_addr = ulDestIP ;
       destSockAddr.sin_port = htons(0);
        //初始化WinSock
        WORD wVersionRequested = MAKEWORD(2,2);
        WSADATA wsaData;
        if(WSAStartup(wVersionRequested,&wsaData) != 0)
        {
            printf("初始化WinSock失敗!\n") ;
            return ;
        }
       //使用ICMP協議創建Raw Socket
       SOCKET sockRaw = WSASocket(AF_INET , SOCK_RAW , IPPROTO_ICMP , NULL , 0 , WSA_FLAG_OVERLAPPED) ;
       if(sockRaw == INVALID_SOCKET)
       {
           printf("創建Socket失敗 !\n") ;
           return ;
       }
       //設置端口屬性
       int iTimeout = DEF_ICMP_TIMEOUT ;
       if(setsockopt(sockRaw , SOL_SOCKET , SO_RCVTIMEO , (char*)&iTimeout , sizeof(iTimeout)) == SOCKET_ERROR)
       {
             printf("設置參數失敗!\n") ;
             return ;
       }
       if(setsockopt(sockRaw , SOL_SOCKET , SO_SNDTIMEO , (char*)&iTimeout , sizeof(iTimeout)) == SOCKET_ERROR)
       {
             printf("設置參數失敗!\n") ;
             return ;
       }
       //定義發送的數據段
       char IcmpSendBuf[DEF_ICMP_PACK_SIZE] ;
       //填充ICMP數據包個各字段
       ICMP_HEADER *pIcmpHeader  = (ICMP_HEADER*)IcmpSendBuf;
       pIcmpHeader->type = ICMP_ECHO_REQUEST ;
       pIcmpHeader->code = 0 ;
       pIcmpHeader->id = (unsigned short)GetCurrentProcessId() ;
       memset(IcmpSendBuf + sizeof(ICMP_HEADER) , 'E' , DEF_ICMP_DATA_SIZE) ;
       //循環發送四個請求回顯icmp數據包
       int usSeqNo = 0 ;
       DECODE_RESULT stDecodeResult ;
    
       while(usSeqNo <= 3)
       {
         pIcmpHeader->seq = htons(usSeqNo) ;
         pIcmpHeader->cksum = 0 ;
         pIcmpHeader->cksum = GenerateChecksum((unsigned short*)IcmpSendBuf , DEF_ICMP_PACK_SIZE) ; //生成校驗位
         //記錄序列號和當前時間
         stDecodeResult.usSeqNo = usSeqNo ;
         stDecodeResult.dwRoundTripTime = GetTickCount() ;
         //發送ICMP的EchoRequest數據包
         if(sendto(sockRaw , IcmpSendBuf , DEF_ICMP_PACK_SIZE , 0 , (SOCKADDR*)&destSockAddr , sizeof(destSockAddr)) == SOCKET_ERROR)
         {
            //如果目的主機不可達則直接退出
            if(WSAGetLastError() == WSAEHOSTUNREACH)
            {
                printf("目的主機不可達!\n") ;
                exit(0) ;
            }
         }
         SOCKADDR_IN from ;
         int iFromLen = sizeof(from) ;
         int iReadLen ;
         //定義接收的數據包
         char IcmpRecvBuf[MAX_ICMP_PACKET_SIZE] ;
         while(1)
         {
             iReadLen = recvfrom(sockRaw , IcmpRecvBuf , MAX_ICMP_PACKET_SIZE , 0 , (SOCKADDR*)&from , &iFromLen) ;
             if(iReadLen != SOCKET_ERROR)
             {
                 if(DecodeIcmpResponse_Ping(IcmpRecvBuf , sizeof(IcmpRecvBuf) , &stDecodeResult))
                 {
                    printf("來自 %s 的回復: 字節 = %d 時間 = %dms TTL = %d\n" , inet_ntoa(stDecodeResult.dwIPaddr) ,
                             iReadLen - 20,stDecodeResult.dwRoundTripTime ,stDecodeResult.ttl) ;
                 }
                 break ;
             }
             else if(WSAGetLastError() == WSAETIMEDOUT)
             {
                 printf("time out !  *****\n") ;
                 break ;
             }
             else
             {
                 printf("發生未知錯誤!\n") ;
                 break ;
             }
         }
         usSeqNo++ ;
       }
       //輸出屏幕信息
       printf("Ping complete...\n") ;
       closesocket(sockRaw) ;
       WSACleanup() ;
    }
    int main()
    {
       char  com[10] , IP[20] ;
       while(1){
       printf("command>>") ;
       scanf("%s %s" , com , IP) ;
       if(strcmp(com , "ping") == 0)
       {
           Ping(IP) ;
       }
       else
       {
           printf("輸入錯誤 ! \n") ;
       }
       }
       return 0 ;
    }
    

      

    參考文檔:https://zhidao.baidu.com/question/1946506262344388308.html

    https://docs.microsoft.com/zh-cn/windows/win32/api/winsock2/nf-winsock2-wsasocketa?redirectedfrom=MSDN

    https://zhidao.baidu.com/question/541753723.html

    TCP/IP網絡原理技術[清華大學出版社 周明天,汪文勇]

    互聯網控制消息協議[維基百科]

    TCP/IP詳解 卷1:協議

    TCP/IP詳解 卷2:實現

     

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※為什麼 USB CONNECTOR 是電子產業重要的元件?

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    ※台北網頁設計公司全省服務真心推薦

    ※想知道最厲害的網頁設計公司"嚨底家"!

    新北清潔公司,居家、辦公、裝潢細清專業服務

    ※推薦評價好的iphone維修中心

  • 區塊鏈系列教程之:比特幣中的網絡和區塊鏈

    區塊鏈系列教程之:比特幣中的網絡和區塊鏈

    目錄

    • 簡介
    • 比特幣的網絡
      • 網絡發現與同步
    • SPV節點
      • 區塊鏈頭
      • Merkle Tree
    • 比特幣中的區塊鏈
      • 區塊標識符
    • 創世區塊
    • 總結

    簡介

    比特幣的底層就是區塊鏈技術,區塊鏈也是因為比特幣而廣為人知的。和其他的區塊鏈技術相比,比特幣的區塊鏈有什麼特徵呢?作為去區塊鏈的鼻祖,又有什麼與眾不同的特性呢?快來跟我們一起看看吧。

    比特幣的網絡

    比特幣使用的是P2P(peer-to-peer)網絡,此P2P非彼P2P,這裡是點對點的網絡架構,而不是人對人的借錢模式。

    P2P是指位於同一網絡中的每台計算機都彼此對等,各個節點共同提供網絡服務,不存在任何“特殊”節點。每個網絡節點以“扁平(flat)”的拓撲結構相互連通。在P2P網絡中不存在任何服務端(server)、中央化的服務、以及層級結構。

    傳統的網絡結構是client-server的模式,所有的client都是和server交互獲取信息, 只要server掛掉了,client也就沒有用了。

    而在P2P網絡中,沒有server的概念,每個節點可以作為一個server。對比起來P2P網絡在穩定性方面要比C-S架構的系統要穩定得多。

    網絡發現與同步

    既然是P2P網絡,那麼問題來了,這個P2P網絡是怎麼建立起來的呢?節點之間是怎麼發現的呢?

    有做過P2P下載的同學應該都聽說過種子的概念,這個種子裏面保存了其他活躍的節點的地址。通過下載種子就可以連接對應的節點。

    而每個節點又保存了最近連接或者活躍的節點,這樣就形成了龐大的P2P網絡。

    同樣的,比特幣的P2P網絡也是這樣的。

    新節點是如何發現網絡中的對等節點的呢?雖然比特幣網絡中沒有特殊節點,但是客戶端會維持一個列表,那裡列出了那些長期穩定運行的節點。這樣的節點被稱為“種子節點(seed nodes)”

    節點必須持續進行兩項工作:在失去已有連接時發現新節點,並在其他節點啟動時為其提供幫助。

    SPV節點

    我們之前介紹了,在比特幣的世界里既沒有賬戶,也沒有餘額,只有分散到區塊鏈里的UTXO(Unspent Transaction Outputs)。

    那麼如果想要驗證交易的話,需要從歷史的交易中查找所有的和該交易有關的交易,從而進行完整,全面的驗證。

    這樣做的問題就是,如果下載所有的歷史記錄,那麼需要上百G的硬盤空間,這對於手機或者其他輕量級的客戶端是無法想象的。

    於是SPV出現了。SPV的全稱是Simplified payment verification,叫做簡單認證支付。

    SPV保存的不是整個區塊鏈,而是區塊鏈的頭部,因為每個區塊鏈頭只有80字節,所以即使把所有的區塊頭都下載保存起來也不會很大。

    區塊鏈頭

    區塊頭由三組區塊元數據組成。首先是一組引用父區塊哈希值的數據,這組元數據用於將該區塊與區塊鏈中前一區塊相連接。

    第二組元數據,即難度、時間戳和nonce,與挖礦競爭相關。

    第三組元數據是merkle樹根(一種用來有效地總結區塊中所有交易的數據結構)。

    Nonce、難度目標和時間戳會用於挖礦過程,Merkle根用來索引和組織該區塊所有的交易信息。

    上圖是一個區塊鏈頭組成的鏈。

    Merkle Tree

    Merkle Tree,是一種樹(數據結構中所說的樹),網上大都稱為Merkle Hash Tree,這是因為 它所構造的Merkle Tree的所有節點都是Hash值。Merkle Tree具有以下特點:

    1. 它是一種樹,可以是二叉樹,也可以多叉樹,無論是幾叉樹,它都具有樹結構的所有特點;

    2. Merkle樹的恭弘=叶 恭弘子節點上的value,是由你指定的,這主要看你的設計了,如Merkle Hash Tree會將數據的Hash值作為恭弘=叶 恭弘子節點的值;

    3. 非恭弘=叶 恭弘子節點的value是根據它下面所有的恭弘=叶 恭弘子節點值,然後按照一定的算法計算而得出的。如Merkle Hash Tree的非恭弘=叶 恭弘子節點value的計算方法是將該節點的所有子節點進行組合,然後對組合結果進行hash計算所得出的hash value。

    有了Merkle Tree,我們只需要知道和要驗證的交易相關的其他Merkle Tree中的信息,就可以計算出整個Merkle Tree的值,這樣就可以直接使用頭部信息進行驗證了。這就是SPV的原理。

    比特幣中的區塊鏈

    區塊鏈是由包含交易信息的區塊從後向前有序鏈接起來的數據結構。它可以被存儲為flat file(一種包含沒有相對關係記錄的文件),或是存儲在一個簡單數據庫中。

    比特幣核心客戶端使用Google的LevelDB數據庫存儲區塊鏈元數據。

    它由一個包含元數據的區塊頭和緊跟其後的構成區塊主體的一長串交易組成。區塊頭是80字節,而平均每個交易至少是250字節,而且平均每個區塊至少包含超過500個交易。

    區塊標識符

    那怎麼表示一個區塊呢?我們使用區塊標誌符。

    區塊主標識符是它的加密哈希值,一個通過SHA256算法對區塊頭進行二次哈希計算而得到的数字指紋。產生的32字節哈希值被稱為區塊哈希值,但是更準確的名稱是:區塊頭哈希值,因為只有區塊頭被用於計算。

    第二種識別區塊的方式是通過該區塊在區塊鏈中的位置,即“區塊高度(block height)”。第一個區塊,其區塊高度為0
    和區塊哈希值不同的是,區塊高度並不是唯一的標識符。雖然一個單一的區塊總是會有一個明確的、固定的區塊高度,但反過來卻並不成立,一個區塊高度並不總是識別一個單一的區塊。兩個或兩個以上的區塊可能有相同的區塊高度,在區塊鏈里爭奪同一位置。

    創世區塊

    區塊鏈里的第一個區塊創建於2009年,被稱為創世區塊。它是區塊鏈裏面所有區塊的共同祖先,這意味着你從任一區塊,循鏈向後回溯,最終都將到達創世區塊。

    因為創世區塊被編入到比特幣客戶端軟件里,所以每一個節點都始於至少包含一個區塊的區塊鏈,這能確保創世區塊不會被改變。每一個節點都“知道”創世區塊的哈希值、結構、被創建的時間和裏面的一個交易。因此,每個節點都把該區塊作為區塊鏈的首區塊,從而構建了一個安全的、可信的區塊鏈的根。

    創世區塊的哈希值為:
    0000000000 19d6689c085ae165831e934ff763ae46a2a6c172b3f1b60a8ce26f

    創世區塊包含一個隱藏的信息。在其Coinbase交易的輸入中包含這樣一句話“The Times 03/Jan/2009 Chancellor on brink of second bailout forbanks.”這句話是泰晤士報當天的頭版文章標題,引用這句話,既是對該區塊產生時間的說明,也可視為半開玩笑地提醒人們一個獨立的貨幣制度的重要性,同時告訴人們隨着比特幣的發展,一場前所未有的世界性貨幣革命將要發生。該消息是由比特幣的創立者中本聰嵌入創世區塊中。

    coinbase的值是:04ffff001d0104455468652054696d65732030332f4a616e2f32303039204368616e63656c6c6f72206f6e206272696e6b206f66207365636f6e64206261696c6f757420666f722062616e6b73

    解碼方法如下:

    在python shell下:

    “04ffff001d0104455468652054696d65732030332f4a616e2f32303039204368616e63656c6c6f72206f6e206272696e6b206f66207365636f6e64206261696c6f757420666f722062616e6b73”.decode(‘hex’)

    輸出:

    ‘\x04\xff\xff\x00\x1d\x01\x04EThe Times 03/Jan/2009 Chancellor on brink of second bailout for banks’

    總結

    本文介紹了比特幣的網絡和比特幣中的區塊鏈的相關概念,希望大家能夠喜歡。

    本文作者:flydean程序那些事

    本文鏈接:http://www.flydean.com/bitcoin-blockchain-network/

    本文來源:flydean的博客

    歡迎關注我的公眾號:程序那些事,更多精彩等着您!

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※想知道購買電動車哪裡補助最多?台中電動車補助資訊懶人包彙整

    南投搬家公司費用,距離,噸數怎麼算?達人教你簡易估價知識!

    ※教你寫出一流的銷售文案?

    ※超省錢租車方案