標籤: 貨運

  • 加速佈局純電動車市場,Panasonic收購歐系廠商

    加速佈局純電動車市場,Panasonic收購歐系廠商

    為加快在純電動車市場的布局,根據 《日本經濟新聞》 的報導指出,日本家電及科技大廠松下(Panasonic)已決定收購奧地利汽車照明廠商ZKW 集團,以跨入此項業務領域。兩家企業目前已啟動最終談判,預估收購金額最多將達到1,000 億日圓的規模。

    報導中指出,目前IT 和大型電子企業為了贏得隨著自動駕駛和純電動汽車 (EV) 普及而産生的商機,正在展開積極的收購,使得跨行業的汽車零組件產業的重組效應正在擴大。目前松下和ZKW 集團正在磋商收購協議的詳細內容,有可能在12 月內達成協議。ZKW 的主要産品是節能、能照射較遠和亮度高的汽車發光二極體(LED)前燈。在歐美、中國和印度擁有生産和研究基地。

    ZKW 集團成立於1938 年,主要客戶包括美國通用汽車(GM)等歐美傳統大型車廠。2016 年的銷售額預計達到約9 億歐元,全球員工人數約為7,500 人。而在此產業領域,排在首位的日本小糸製作所和法國法雷奧集團)Valeo),兩家公司合計掌握近5 成市佔率。至於,ZKW 集團的市佔率為5% 上下。

    報導進一步分析指出,在自動駕駛時代,車燈將成為左右安全性的重要關鍵零組件。因為車輛在行進時,必須預測前進的方向而改變照射方向,並且調整亮度的技術開發正在不斷進化中。由於,松下在傳感器等領域擁有豐富經驗,收購了ZKW 集團之後,將有助於開發辨識度提高的新型車燈,以追趕上產業中的領先企業。

    目前,松下的汽車相關業務以車載導航系統和車用電池做為主力。尤其,在車用電池發展上,目前正在與美國電動汽車龍頭特斯拉(TESLA)汽車進行量産計畫,在車用電池領域的投資總額高達5,000 億日圓。

    而為了達到2018 會計年度(截至2019 年3 月止),汽車相關業務合併收達到2 兆日圓,較2015 會計年度成長5 成的目標,松下正在積極收購在此領域聚酯性與技術的零組件廠商。2015 年,松下曾經向西班牙汽車零組件廠商法可賽集團(Ficosa International, S.A.)投資持股49%,兩家公司合作在電子後視鏡上的共同開發。

    目前在汽車產業中,跨產業的零組件企業重組正在積極進行中。包括韓國三星電子11月決定以80 億美元收購在車載終端領域具有優勢的美國哈曼國際 (Harman International),德國西門子與法雷奧集團成立了生産電動汽車驅動器零組件的合資企業,而美國Google 則收購了有助於開發自動駕駛的相關企業。

    (本文內容由授權提供。首圖來源: CC BY 2.0)

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※回頭車貨運收費標準

    聚甘新

  • 東元拚南向,特種電動車打入菲律賓/越南市場

    東元拚南向,特種電動車打入菲律賓/越南市場

    東元(1504)集團積極南向力拓東協市場,旗下電動三輪車、電動車、風機等三項綠能產品成為布局主軸,目前東元4加1電動三輪車已打入菲律賓市場,並規劃在蘇比克灣建立電動生產據點;另外,東元也敲定與越南胡志明市運輸機械公司SAMCO合作,雙方將共同進行21人座中型電動車開發案。

    東元表示,將與菲律賓第三大機車公司Ropali合資,在蘇比克灣設立電動車生產據點,生產4加1電動三輪車和21人座電動車等特種電動車,以菲國做為東元進入東協電動車市場、搶攻當地淘汰舊改裝三輪車商機的基地。東元也指出,最近已交貨第一批50輛4加1電動三輪車,預定明年更將交貨3,500輛,2018年目標為5,000輛,同時並將設立一條年產能1萬輛的生產線,以達成五年出貨8.8萬輛的供應合約目標。

    此外,東元也指出,最近已經與越南胡志明市運輸機械公司SAMCO談定合作,雙方將共同進行21人座中型電動車開發案,由東元提供動力底盤,並攜手搶攻胡志明市的中型電動公車市場。

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※教你寫出一流的銷售文案?

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※回頭車貨運收費標準

    ※別再煩惱如何寫文案,掌握八大原則!

    ※超省錢租車方案

    ※產品缺大量曝光嗎?你需要的是一流包裝設計!

    聚甘新

  • 北京力拱電動車 擬促停車場全面配建充電基礎設施

    中新網消息,大陸北京市地方標準《電動汽車充電基礎設施規劃設計規程》已完成徵求意見稿,近日將公開徵求意見。前述《規程》中要求,城市建成區按照平均服務半徑5公里的要求,進行充電基礎設施規劃佈置;居住、商業、辦公、醫院、文化體育場館,加油站、高速公路服務區、旅遊場所,其停車場將全部配建電動汽車充電基礎設施。

    根據該《規程》,在城市建成區按照平均服務半徑5公里的要求進行充電基礎設施規劃佈置,無論是居住、商業、辦公、醫院、文化體育場館,還是加油站、高速公路服務區、旅遊場所,其停車場將全部配建電動汽車充電基礎設施,形成「統一規劃、適度超前、合理佈局、方便使用」的充電網路體系。

    同時,上述《規程》中對辦公類建築、商業類建築、旅遊場所配建停車場、社會公共停車場、換乘停車場充電樁設置也做出了最低安裝比例要求,如新建加油站中宜設置不低於4個電動汽車停車位及快速充電設施。《規程》中亦明定,新建居住區要預留充電樁安裝條件,標準規定,根據居住公共服務配套設施設置標準中對停車位數量的要求,將有不低於18%的居住區停車位安裝充電樁並達到投入使用條件。

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※超省錢租車方案

    ※別再煩惱如何寫文案,掌握八大原則!

    ※回頭車貨運收費標準

    ※教你寫出一流的銷售文案?

    FB行銷專家,教你從零開始的技巧

    聚甘新

  • 第七屆中國國際新能源汽車論壇2017之驅動創新

    第七屆中國國際新能源汽車論壇2017之驅動創新

    每當提起新能源汽車核心零部件,我們首先想到的是電池,而對電機電控等方面的探討和認知卻很少,究其原因,電控電機這兩大核心零部件在平日裡少有熱點和創新,尤其是在電控領域,國內供應商還處於一個相對初級的階段,所研發的產品還無法達到國際領先水準,因此極大的限制了廣大消費者們對電機電控技術的關心。然而,未來的5年時間內電機電控將會進入發展最關鍵的時期,並且熱度持續飆升。相關機構資料統計,預計到2020年,驅動電控及電機的累積市場規模將達到1600億元。

    現階段,電控電機的產業已經形成了多重勢力競相爭奪的局面,除了國內本土的電控電機供應商外,整車廠、國內外汽車零部件供應商及外資新能源汽車生產商都相繼加入戰局。同時,隨著市場的熱度提升,電控電機技術領域也面臨著更大的挑戰。為了縮小國內外電控電機的技術差距,國內企業也在除了沿用傳統的製造工藝同時,在技術及工藝上也在進行不斷地研發及創新。

    新能源汽車對於電控電機的品質要求相比于傳統汽車要更高,並且總體而言,電控電機產品的可靠性,一體化與新能源汽車的使用要求還存在一定差距,中國國際新能源汽車論壇—致力於打造全球規模最大,最國際化的新能源汽車論壇,第七屆大會攜手上海市嘉定區人民政府將會專門設立電控電機板塊,進行一天8小時的技術探討及分享,屆時國內外知名的整車商,電控電機供應商及零部件企業高層領導等將前來分享各自對於目前電控電機市場的發展前景看法及介紹最前沿的技術,同時,也會側重于目前應用最普遍的永磁電機從磁性材料和技術方面進行更深層次的交流。

    本屆大會將於2017年5月17-19日在上海舉辦,大會涉及共七個論壇,頒獎典禮,研討會及晚宴。屆時將會有全球範圍內的整車製造商、電網電力公司、電池廠商、零部件供應商、核心技術提供商和政府官員600多位行業人士一起,對新能源汽車產業面臨的挑戰,機遇與對策各方面進行為期三天更深層次並具有建設和戰略性的探討,期待您的參與。

    若您對峰會有更多要求,請撥打021-6045 1760與我們聯繫,謝謝理解和支持!
    我們期待與貴單位一起出席於5月17-19日在上海舉辦的第七屆中國國際新能源汽車論壇2017,以利決策!
    想瞭解詳細內容,請登陸官方網站:
    連絡人:Hill Zeng(曾先生)
    電話:+86-21-6045 1760
    傳真:+86-21-6047 5887
    郵箱:

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理【其他文章推薦】

    網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

    網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

    ※想知道購買電動車哪裡補助最多?台中電動車補助資訊懶人包彙整

    南投搬家公司費用,距離,噸數怎麼算?達人教你簡易估價知識!

    ※教你寫出一流的銷售文案?

    ※超省錢租車方案

    聚甘新

  • Ford 回美發展電動車技術,取消墨西哥設廠計畫

    Ford 回美發展電動車技術,取消墨西哥設廠計畫

    福特汽車(Ford Motor) 執行長Mark Fields 1月5日投下震撼彈,宣布取消墨西哥設廠計畫,回到美國投資,增加700 個工作機會,市場第一個反應是川普效應,直指福特汽車收起選舉期間與川普的砲火,向權力低頭。但事實上,福特汽車回美國並非為了川普,而是著眼於未來汽車所需要的科技發展,以及自動化考量。

    華盛頓郵報(Washington Post) 報導,福特汽車在美國密西哥州Flat Rock 的工廠未來將以生產自動駕駛汽車與電動車為主,需要具有電腦能力以及高中以上學歷的勞工。新的雇用機會,被視為是進入中產階級的門票,已經與過去截然不同。

    經濟學家表示,汽車製造以及其他製造業會逐漸增加自動化,需要的人力更少,且都是較高技術性勞工。雖然福特執行長與川普互相讚揚彼此,聲稱是為了保護美國人的工作,但分析師認為,福特回美計畫是基於長遠的目標,而不是奉獻給美國政府與勞工。

    福特計劃在2020 年前在電動車領域投資45 億美元,認為未來10 年消費者對電動車的接受度會大幅改變,現在福特在密西根州Dearborn 工廠的工程師就擔負創造模型的工作,他們工作的地點距離Flat Rock 的組裝廠只有20 英里 ,若把組裝廠移到墨西哥的話,會增加研發與製造工作的溝通難度。

    汽車研究中心分析師表示,「至少對第一代產品來說,將新科技留在工程師身邊是很重要的事,讓工程師可以掌握與監控系統運作。」福特在密西根的擴廠計畫符合大趨勢走向,而勞工要確保工作機會,必須不斷的學習,分析師說,「現在已經不像以前,擁有一個技術就可以做40 年。」

    華盛頓智庫Brookings Institution 研究員也表示,在美國比在墨西哥更容易找到技術勞工。墨西哥提供的勞力是低成本、堪用的勞力,但不適合創新含量高或做新產品開發。福特會保留汽油引擎的Focus 在墨西哥工廠製造。福特執行長也說,他們取消在墨西哥16 億美元的建廠計畫,最主要的原因是小型車的需求愈來愈低。

    看來川普喜歡往自己臉上貼金,但生意人算盤打得更精,表面上的花言巧語只是一場政治秀罷了。

    (合作媒體:。圖:福特汽車位於密西根的總部 Glass House。)

    本站聲明:網站內容來源於EnergyTrend https://www.energytrend.com.tw/ev/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※超省錢租車方案

    ※別再煩惱如何寫文案,掌握八大原則!

    ※回頭車貨運收費標準

    ※教你寫出一流的銷售文案?

    FB行銷專家,教你從零開始的技巧

    聚甘新

  • 不只搶衛生紙!紐約民眾瘋「認養寵物」…收容所全沒毛孩了

    摘錄自2020年3月26日ETtoday報導

    新型肺炎疫情近日在美大爆發,紐約州長古莫(Andrew Cuomo)要求居民盡可能待在家,結果因民眾在家防疫需要寵物陪伴紓壓,導致出現收容所的狗全被認養走的情況。

    紐約市動物福利組織「Muddy Paws Rescue」、「Best Friends Animal Society」近日即指出,在這兩星期內,申請認領犬貓的數量比平常多出10倍,紐約民眾顯然是將飼養貓狗視為防疫紓解壓力的方法。

    「Muddy Paws Rescue」總監安娜(Anna Lai)表示,現在我們機構完全沒有狗可供認領,這是個大問題。「Best Friends Animal Society」執行官朱莉(Julie Castle)說,民眾成群結隊的來認養寵物,我沒看過美國人民這麼團結。

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※回頭車貨運收費標準

  • 用剛果童工挖鈷致死或殘 5科技巨頭挨告

    摘錄自2019年12月17日聯合報報導

    特斯拉、蘋果、微軟、戴爾、Google母公司字母(Alphabet)以共謀罪名被告上法庭。這是科技業首次因其鈷來源,共同面臨法律訴訟。

    代表剛果民主共和國14個家庭擔任原告的美國人權組織「國際權利倡議」(International Rights Advocates)15日提告五家全球大型科技公司,指強迫勞動的體系導致這些家庭的小孩死亡或重傷,而五家科技業者是這個體系的一部分。

    這起訴訟說,案件裡的兒童,最小的才6歲,因為出身赤貧家庭,不得不休學到嘉能可的礦坑挖鈷。他們每周要工作六天,有些人領的日薪低到只有1.5美元(約台幣45元)。

    鈷是製造科技產品內部可重複使用鋰電池的必要材料。全球一半以上的鈷產自剛果民主共和國。根據歐盟執委會2018年的一份研究,未來10年全球鈷需求料將每年增加7%到13%。原告主張,挨告的科技業者全都有能力徹底整頓旗下鈷供應鏈,以確保更安全的工作條件。

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※教你寫出一流的銷售文案?

    ※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

    ※回頭車貨運收費標準

    ※別再煩惱如何寫文案,掌握八大原則!

    ※超省錢租車方案

    ※產品缺大量曝光嗎?你需要的是一流包裝設計!

  • 跟殺蟑盒一樣的殺蜂盒 日網友:不分蜂類都傷害到怎麼辦呢?

    文:宋瑞文

    本站聲明:網站內容來源環境資訊中心https://e-info.org.tw/,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    ※超省錢租車方案

    ※別再煩惱如何寫文案,掌握八大原則!

    ※回頭車貨運收費標準

    ※教你寫出一流的銷售文案?

    FB行銷專家,教你從零開始的技巧

  • 關於 JOIN 耐心總結,學不會你打我系列

    關於 JOIN 耐心總結,學不會你打我系列

    現在隨着各種數據庫框架的盛行,在提高效率的同時也讓我們忽略了很多底層的連接過程,這篇文章是對 SQL 連接過程梳理,並涉及到了現在常用的 SQL 標準。

    其實標準就是在不同的時間,制定的一些寫法或規範。

    從 SQL 標準說起

    在編寫 SQL 語句前,需要先了解在不同版本的規範,因為隨着版本的變化,在具體編寫 SQL 時會有所不同。對於 SQL 來說,SQL92 和 SQL99 是最常見的兩個 SQL 標準,92 和 99 對應其提出的年份。除此之外,還存在 SQL86、SQL89、SQL2003、SQL2008、SQL2011,SQL2016等等。

    但對我們來說,SQL92 和 SQL99 是最常用的兩個標準,主要學習這兩個就可以了。

    為了演示方便,現在數據庫中加入如下三張表:

    每個學生屬於一個班級,通過班級的人數來對應班級的類型。

    -- ----------------------------
    DROP TABLE IF EXISTS `Student`;
    CREATE TABLE `Student` (
      `id` int(11) NOT NULL AUTO_INCREMENT,
      `name` varchar(20) NOT NULL DEFAULT '',
      `birth` varchar(20) NOT NULL DEFAULT '',
      `sex` varchar(10) NOT NULL DEFAULT '',
      `class_id` int(11) NOT NULL COMMENT '班級ID',
      PRIMARY KEY (`id`)
    ) ENGINE=InnoDB AUTO_INCREMENT=9 DEFAULT CHARSET=utf8;
    
    -- ----------------------------
    -- Records of Student
    -- ----------------------------
    INSERT INTO `Student` VALUES ('1', '胡一', '1994.1.1', '男', '1');
    INSERT INTO `Student` VALUES ('3', '王阿', '1992.1.1', '女', '1');
    INSERT INTO `Student` VALUES ('5', '王琦', '1993.1.2', '男', '1');
    INSERT INTO `Student` VALUES ('7', '劉偉', '1998.2.2', '女', '1');
    INSERT INTO `Student` VALUES ('11', '張使', '1994.1.1', '男', '3');
    INSERT INTO `Student` VALUES ('13', '王阿', '1992.1.1', '女', '3');
    INSERT INTO `Student` VALUES ('15', '夏琪', '1993.1.2', '男', '3');
    INSERT INTO `Student` VALUES ('17', '劉表', '1998.2.2', '女', '3');
    INSERT INTO `Student` VALUES ('19', '諸葛', '1994.1.1', '男', '3');
    INSERT INTO `Student` VALUES ('21', '王前', '1992.1.1', '女', '3');
    INSERT INTO `Student` VALUES ('23', '王意識', '1993.1.2', '男', '3');
    INSERT INTO `Student` VALUES ('25', '劉等待', '1998.2.2', '女', '3');
    INSERT INTO `Student` VALUES ('27', '胡是一', '1994.1.1', '男', '5');
    INSERT INTO `Student` VALUES ('29', '王阿請', '1992.1.1', '女', '5');
    INSERT INTO `Student` VALUES ('31', '王消息', '1993.1.2', '男', '5');
    INSERT INTO `Student` VALUES ('33', '劉全', '1998.2.2', '女', '5');
    INSERT INTO `Student` VALUES ('35', '胡愛', '1994.1.1', '男', '5');
    INSERT INTO `Student` VALUES ('37', '王表', '1992.1.1', '女', '5');
    INSERT INTO `Student` VALUES ('39', '王華', '1993.1.2', '男', '5');
    INSERT INTO `Student` VALUES ('41', '劉偉以', '1998.2.2', '女', '5');
    INSERT INTO `Student` VALUES ('43', '胡一彪', '1994.1.1', '男', '5');
    INSERT INTO `Student` VALUES ('45', '王阿符', '1992.1.1', '女', '5');
    INSERT INTO `Student` VALUES ('47', '王琦刪', '1993.1.2', '男', '5');
    INSERT INTO `Student` VALUES ('49', '劉達達', '1998.2.2', '女', '5');
    
    -- ----------------------------
    -- Table structure for `Class`
    -- ----------------------------
    DROP TABLE IF EXISTS `Class`;
    CREATE TABLE `Class` (
      `id` int(11) NOT NULL AUTO_INCREMENT,
      `name` varchar(20) NOT NULL DEFAULT '',
      `number` int(11) NOT NULL DEFAULT '',
      `class_type_id` int(11) NOT NULL COMMENT '班級類型ID',
      PRIMARY KEY (`id`)
    ) ENGINE=InnoDB AUTO_INCREMENT=3 DEFAULT CHARSET=utf8;
    
    -- ----------------------------
    -- Records of Class
    -- ----------------------------
    INSERT INTO `Class` VALUES ('1', '1年1班', 4, '1');
    INSERT INTO `Class` VALUES ('3', '1年2班', 8, '3');
    INSERT INTO `Class` VALUES ('5', '1年3班', 12, '5');
    
    CREATE TABLE `ClassType`(
      `id` int(11) NOT NULL AUTO_INCREMENT,
      `name` VARCHAR(20) NOT NULL DEFAULT '',
      `minimum_number` int(11) NOT NULL DEFAULT '' COMMENT '最少的班級人數',
      `maximum_number` int(11) NOT NULL DEFAULT '' COMMENT '最多的班級人數',
      PRIMARY KEY(`id`)
    );
    INSERT INTO `ClassType` VALUES ('1', '小班', '1', '4');
    INSERT INTO `ClassType` VALUES ('3', '中班', '5', '8');
    INSERT INTO `ClassType` VALUES ('5', '大班', '9', '12');
    

    SQL92

    笛卡爾積(交叉連接)

    笛卡爾積是一個數學上的概念,表示如果存在 X,Y 兩個集合,則 X,Y 的笛卡爾積記為 X * Y. 表示由 X,Y 組成有序對的所有情況。

    對應在 SQL 中,就是將兩張表中的每一行進行組合。而且在連接時,可以沒有任何限制,可將沒有關聯關係的任意表進行連接。

    這裏拿學生表和班級表舉例,在學生表中我們插入了20名學生的數據,課程表中插入三個班級。則學生和班級的笛卡爾結果就是將兩表的每行數據一一組合,最後就是有 24 * 3 = 72 行的結果,如下圖所示。

    並且需要知道的是,下面學習的外連接,自連接,等值連接等都是在笛卡爾積的基礎上篩選得到的。

    對應的 SQL92 寫法為:

    select * from Student, Class;
    

    等值連接(內連接)

    等值連接就是將兩張表中都存在的列進行連接,具體來說就是 where 後面通過 = 進行篩選。

    比如查詢 Student 和其所屬 Class 信息的關係:

    SELECT * FROM Student as s, Class as c where s.class_id = c.id;
    

    非等值連接

    非等值連接就是將等值連接中的等號換成其他的過濾條件。

    比如這裏查詢每個班級的信息以及所屬的班級類別。

    SELECT * FROM Class as c, ClassType t where c.number between t.minimum_number and maximum_number;
    

    外連接

    對於 SQL92 的外連接來說,在連接時會將兩張表分為主表和從表,主表显示所有的數據,從表显示匹配到的數據,沒有匹配到的則显示 None. 用 + 表示從表的位置。

    左外連接:左表是主表,右表時從表。

    SELECT * FROM Student as s , Class as c where s.class_id = c.id(+);
    

    右外連接:左表是從表,右表時主表。

    SELECT * FROM Class as c, Student as s  where c.id = s.class_id(+);
    

    注意 SQL92 中並沒有全外連接。

    自連接

    自連接一般用於連接本身這張表,由於常見的 DBMS 都會對自連接做一些優化,所以一般在子查詢和自連接的情況下都使用自連接。

    比如想要查詢比1年1班人數多的班級:

    子查詢:

    SELECT * FROM Class WHERE number > (SELECT number FROM Class WHERE name="1年1班"); 
    

    自連接:

    SELECT c2.* FROM Class c1, Class c2 WHERE c1.number < c2.number and c1.name = "1年1班"; 
    

    SQL99

    交叉連接

    SELECT * FROM Student CROSS JOIN Class;
    

    還可以對多張表進行交叉連接,比如連接 Student,Class,ClassType 三張表,結果為 24 * 3 * 3 = 216 條。

    相當於嵌套了三層 for 循環。

    自然連接

    其實就是 SQL92 中的等值連接,只不過連接的對象是具有相同列名,並且值也相同的內容。

    SELECT * FROM Student NATURAL JOIN CLASS;
    
    SELECT * FROM Student as s, Class as c where s.id = c.id;
    

    如果想用 NATURAL JOIN 時,建議為兩表設置相同的列名,比如 Student 表中的班級列為 class_id, 則在 Class 表中,id 也應改為 class_id. 這樣連接更合理一些。

    如果大家嘗試,自然連接的話,會發現查出來的結果集為空,不要奇怪,下面說一下原因:

    這是因為,NATURAL JOIN 會自動連接兩張表中相同的列名,而對於 Student 和 Class 兩張表來說,id 和 name 在這兩張表都是相同的,所以既滿足 id 又滿足 name 的行是不存在的。

    相當於 SQL 變成了這樣

    SELECT * FROM Student as s, Class as c where s.id = c.id and s.name = c.name;
    

    ON 連接

    ON 連接其實對了 SQL92 中的等值連接和非等值連接:

    等值連接:

    SELECT * FROM Student as s JOIN Class as c ON s.class_id = c.id;
    
    or
    
    SELECT * FROM Student as s INNER JOIN Class as c ON s.class_id = c.id;
    

    非等值連接:

    SELECT * FROM Class as c JOIN ClassType t ON c.number between t.minimum_number and maximum_number;
    

    USING 連接

    和 NATURAL JOIN 很像,可以手動指定具有相同列名的列進行連接:

    SELECT * FROM Student JOIN Class USING(id);
    

    這時就解決了之前列存在重名,無法連接的情況。

    外連接

    左外連接: 左表是主表,右表時從表。

    SELECT * FROM Student as s LEFT JOIN Class as c on s.class_id = c.id;
    OR
    SELECT * FROM Student as s LEFT OUTER JOIN Class as c on s.class_id = c.id;
    

    右外連接:左表是從表,右表時主表。

    SELECT * FROM Student as s RIGHT JOIN Class as c on s.class_id = c.id;
    OR
    SELECT * FROM Student as s RIGHT OUTER JOIN Class as c on s.class_id = c.id;
    

    全外連接: 左外連接 + 右外的連接的合集

    SELECT * FROM Student as s FULL JOIN Class as c ON s.class_id = c.id; 
    

    MySQL 中沒有全外連接的概念。

    自連接:

    SELECT c2.* FROM Class c1 JOIN Class c2 ON c1.number < c2.number and c1.name = "1年1班"; 
    

    SQL92 和 SQL99 的對比

    1. SQL92 中的等值連接(內連接),非等值連接,自連接對應了 SQL99 的 ON 連接,用於篩選滿足連接條件的數據行。

    2. SQL92 的笛卡爾積連接,對應了 SQL99 的交叉連接。

    3. SQL92 中的外連接並不包含全外連接,而 SQL99 支持,並且將 SQL92 中 WHERE 換為 SQL99 的 ON. 這樣的好處可以更清晰的表達連接表的過程,更直觀。

      SELECT ...
      FROM table1
          JOIN table2 ON filter_condition
              JOIN table3 ON filter_condition
      
    4. SQL99 多了自然連接和 USING 連接的過程,兩者的區別是是否需要顯式的指定列名。

    總結

    我們知道,在 SQL 中,按照年份劃分了不同的標準,其中最為常用的是 SQL-92 和 SQL-99 兩個標準。

    接着,對比了 92 和 99 兩者的不同,發現 99 的標準在連接時,更加符合邏輯並且更加直觀。

    最後,上一張各種連接的示意圖, 方便梳理複習:

    參考

    各種連接的不同

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※回頭車貨運收費標準

  • 從 0 開始機器學習 – 神經網絡反向 BP 算法!

    從 0 開始機器學習 – 神經網絡反向 BP 算法!

    最近一個月項目好忙,終於擠出時間把這篇 BP 算法基本思想寫完了,公式的推導放到下一篇講吧。

    一、神經網絡的代價函數

    神經網絡可以看做是複雜邏輯回歸的組合,因此與其類似,我們訓練神經網絡也要定義代價函數,之後再使用梯度下降法來最小化代價函數,以此來訓練最優的權重矩陣。

    1.1 從邏輯回歸出發

    我們從經典的邏輯回歸代價函數引出,先來複習下:

    \[J(\theta) = \frac{1}{m}\sum\limits_{i = 1}^{m}{[-{y^{(i)}}\log ({h_\theta}({x^{(i)}}))-( 1-{y^{(i)}})\log ( 1 – h_\theta({x^{(i)}}))]} + \frac{\lambda}{2m} \sum\limits_{j=1}^{n}{\theta_j^2} \]

    邏輯回歸代價函數計算每個樣本的輸入與輸出的誤差,然後累加起來除以樣本數,再加上正則化項,這個我之前的博客已經寫過了:

    • 從 0 開始機器學習 – 邏輯回歸原理與實戰!
    • 從 0 開始機器學習 – 正則化技術原理與編程!

    這裏補充一點對單變量邏輯回歸代價函數的理解,雖然這一行代價公式很長:

    \[cost(i) = -{y^{(i)}}\log ({h_\theta}({x^{(i)}}))-( 1-{y^{(i)}})\log ( 1 – h_\theta({x^{(i)}})) \]

    但是其實可以把它簡單的理解為輸出與輸入的方差,雖然形式上差別很大,但是可以幫助我們理解上面這個公式到底在計算什麼,就是計算輸出與輸入的方差,這樣理解就可以:

    \[cost(i) = h_{\theta}(x^{(i)} – y^{(i)})^2 \]

    1.2 一步步寫出神經網絡代價函數

    前面講的簡單邏輯回歸的只有一個輸出變量,但是在神經網絡中輸出層可以有多個神經元,所以可以有很多種的輸出,比如 K 分類問題,神經元的輸出是一個 K 維的向量:

    因此我們需要對每個維度計算預測輸出與真實標籤值的誤差,即對 K 個維度的誤差做一次求和:

    \[\sum\limits_{i = 1}^{k}{[-{y_k^{(i)}}\log ({h_\theta}({x^{(i)}}))_k-( 1-{y_k^{(i)}})\log ( 1 – h_\theta({x^{(i)}})_k)]} \]

    然後累加訓練集的 m 個樣本:

    \[-\frac{1}{m}[\sum\limits_{i = 1}^{m}\sum\limits_{k = 1}^{k}{[-{y_k^{(i)}}\log ({h_\theta}({x^{(i)}}))_k-( 1-{y_k^{(i)}})\log ( 1 – h_\theta({x^{(i)}})_k)]}] \]

    再加上所有權重矩陣元素的正則化項,注意 \(i, j\) 都是從 1 開始的,因為每一層的 \(\theta_0\) 是偏置單元,不需要對其進行正則化:

    \[\frac{\lambda}{2m}\sum\limits_{i = l}^{L – 1}\sum\limits_{i = 1}^{S_l}\sum\limits_{j = 1}^{S_l + 1}(\theta_{ji}^{(l)})^2 \]

    • 最內層求和:循環一個權重矩陣所有的行,行數是 \(S_l + 1\) 層激活單元數
    • 中間層求和:循環一個權重矩陣所有的列,列數是 \(S_l\) 層激活單元數
    • 最外層求和:循環所有的權重矩陣

    這就得到了輸出層為 K 個單元神經網絡最終的代價函數:

    \[J(\theta) = -\frac{1}{m}[\sum\limits_{i = 1}^{m}\sum\limits_{k = 1}^{k}{[-{y_k^{(i)}}\log ({h_\theta}({x^{(i)}}))_k-( 1-{y_k^{(i)}})\log ( 1 – h_\theta({x^{(i)}})_k)]}] + \frac{\lambda}{2m}\sum\limits_{i = l}^{L – 1}\sum\limits_{i = 1}^{S_l}\sum\limits_{j = 1}^{S_l + 1}(\theta_{ji}^{(l)})^2 \]

    有了代價函數后,就可以通過反向傳播算法來訓練一個神經網絡啦!

    二、神經網絡反向 BP(Back Propagation) 算法

    2.1 BP 算法簡介

    之前寫神經網絡基礎的時候,跟大家分享了如何用訓練好的神經網絡來預測手寫字符:從 0 開始機器學習 – 神經網絡識別手寫字符!,只不過當時我們沒有訓練網絡,而是使用已經訓練好的神經網絡的權重矩陣來進行前饋預測,那麼我們如何自己訓練神經網絡呢?

    這就需要學習反向 BP 算法,這個算法可以幫助我們求出神經網絡權重矩陣中每個元素的偏導數,進而利用梯度下降法來最小化上面的代價函數,你可以聯想簡單的線性回歸算法:從 0 開始機器學習 – 一文入門多維特徵梯度下降法!,也是先求每個參數的偏導數,然後在梯度下降算法中使用求出的偏導數來迭代下降。

    因此訓練神經網絡的關鍵就是:如何求出每個權重係數的偏導數?,反向 BP 就可以解決這個問題!這裏強烈建議你學習的時候完全搞懂 BP 算法的原理,最好自己獨立推導一遍公式,因為你以後學習深度學習那些複雜的網絡,不管是哪種,最終都要使用反向 BP 來訓練,這個 BP 算法是最核心的東西,面試也逃不過的,所以既然要學,就要學懂,不然就是在浪費時間。

    2.2 BP 算法基本原理

    我先用個例子簡單介紹下 BP 算法的基本原理和步驟,公式的推導放到下一節,反向 BP 算法顧名思義,與前饋預測方向相反:

    • 計算最後一層輸出與實際標籤值的誤差,反向傳播到倒數第二層
    • 計算倒數第二層的傳播誤差,反向傳播到倒數第三層
    • 以此類推,一層一層地求出各層的誤差
    • 直到第二層結束,因為第一層是輸入特徵,不是我們計算的,所以不需要求誤差

    以下面這個 4 層的神經網絡為例:

    假如我們的訓練集只有 1 個樣本 \((x^{(1)}, y^{(1)})\),每層所有激活單元的輸出用 \(a^{(i)}\) 向量表示,每層所有激活單元的誤差用 \(\delta^{(i)}\) 向量表示,來看下反向傳播的計算步驟(公式的原理下一節講):

    1. 輸出層的誤差為預測值減去真實值:\(\delta^{(4)} = a^{(4)} – y^{(1)}\)
    2. 倒數第二層的誤差為:\(\delta^{(3)} = (W^{(3)})^T \delta^{(4)} * g'(z^{(3)})\)
    3. 倒數第三層的誤差為:\(\delta^{(2)} = (W^{(2)})^T \delta^{(3)} * g'(z^{(2)})\)
    4. 第一層是輸入變量,不需要計算誤差

    有了每層所有激活單元的誤差后,就可以計算代價函數對每個權重參數的偏導數,即每個激活單元的輸出乘以對應的誤差,這裏不考慮正則化:

    \[\frac {\partial}{\partial W_{ij}^{(l)}} J (W) = a_{j}^{(l)} \delta_{i}^{(l+1)} \]

    解釋下這個偏導數的計算:

    • \(l\) 表示目前計算的是第幾層
    • \(j\) 表示當前層中正在計算的激活單元下標(\(j\) 作為列)
    • \(i\) 表示下一層誤差單元的下標(\(i\) 作為行)

    這個計算過程是對一個樣本進行的,網絡的輸入是一個特徵向量,所以每層計算的誤差也是向量,但是我們的網絡輸入是特徵矩陣的話,就不能用一個個向量來表示誤差了,而是應該也將誤差向量組成誤差矩陣,因為特徵矩陣就是多個樣本,每個樣本都做一個反向傳播,就會計算誤差,所以我們每次都把一個樣本計算的誤差累加到誤差矩陣中:

    \[\Delta_{ij}^{(l)} = \Delta_{ij}^{(l)} + a_{j}^{(l)} \delta_{i}^{(l+1)} \]

    然後,我們需要除以樣本總數 \(m\),因為上面的誤差是累加了所有 \(m\) 個訓練樣本得到的,並且我們還需要考慮加上正則化防止過擬合,注意對偏置單元不需要正則化,這點已經提過好多次了:

    • 非偏置單元正則化后的偏導數 \(j \neq 0\)

    \[D_{ij}^{(l)} = \frac {1}{m}\Delta_{ij}^{(l)}+\lambda W_{ij}^{(l)} \]

    • 偏置單元正則化后的偏導數 \(j = 0\)

    \[D_{ij}^{(l)} = \frac{1}{m}\Delta_{ij}^{(l)} \]

    最後計算的所有偏導數就放在誤差矩陣中:

    \[\frac {\partial}{\partial W_{ij}^{(l)}} J (W) = D_{ij}^{(l)} \]

    這樣我們就求出了每個權重參數的偏導數,再回想之前的梯度下降法,我們有了偏導數計算方法后,直接送到梯度下降法中進行迭代就可以最小化代價函數了,比如我在 Python 中把上面的邏輯寫成一個正則化梯度計算的函數 regularized_gradient,然後再用 scipy.optimize 等優化庫直接最小化文章開頭提出的神經網絡代價函數,以此來使用反向 BP 算法訓練一個神經網絡:

    import scipy.optimize as opt
    
    res = opt.minimize(fun = 神經網絡代價函數,
                           x0 = init_theta,
                           args = (X, y, 1),
                           method = 'TNC',
                           jac = regularized_gradient,
                           options = {'maxiter': 400})
    

    所以神經網絡反向 BP 算法關鍵就是理解每個權重參數偏導數的計算步驟和方法!關於偏導數計算公式的詳細推導過程,我打算在下一篇文章中單獨分享,本次就不帶大家一步步推導了,否則內容太多,先把基本步驟搞清楚,後面推導公式就容易理解。

    2.3 反向 BP 算法的直觀理解

    之前學習前饋預測時,我們知道一個激活單元是輸入是上一層所有激活單元的輸出與權重的加權和(包含偏置),計算方向從左到右,計算的是每個激活單元的輸出,看圖:

    其實反向 BP 算法也是做類似的計算,一個激活單元誤差的輸入是后一層所有誤差與權重的加權和(可能不包含偏置),只不過這裏計算的反向是從右向左,計算的是每個激活單元的誤差,對比看圖:

    你只需要把單個神經元的前饋預測和反向 BP 的計算步驟搞清楚就可以基本理解反向 BP 的基本過程,因為所有的參數都是這樣做的。

    三、神經網絡編程細節

    3.1 隨機初始化

    每種優化算法都需要初始化參數,之前的線性回歸初始化參數為 0 是沒問題的,但是如果把神經網絡的初始參數都設置為 0,就會有問題,因為第二層的輸入是要用到權重與激活單元輸出的乘積:

    • 如果權重都是 0,則每層網絡的輸出都是 0
    • 如果權重都是相同的常數 \(a\),則每層網絡的輸出也都相同,只是不為 0

    所以為了在神經網絡中避免以上的問題,我們採用隨機初始化,把所有的參數初始化為 \([-\epsilon, \epsilon]\) 之間的隨機值,比如初始化一個 10 X 11 的權重參數矩陣:

    \[initheta = rand(10, 11) * (2 * \epsilon) – \epsilon \]

    3.2 矩陣 <-> 向量

    注意上面優化庫的輸入 X0 = init_theta 是一個向量,而我們的神經網絡每 2 層之間就有一個權重矩陣,所以為了把權重矩陣作為優化庫的輸入,我們必須要把所有的權重參數都組合到一個向量中,也就是實現一個把矩陣組合到向量的功能,但是優化庫的輸出也是一個包含所有權重參數的向量,我們拿到向量后還需要把它轉換為每 2 層之間的權重矩陣,這樣才能進行前饋預測:

    • 訓練前:初始多個權重矩陣 -> 一個初始向量
    • 訓練后:一個最優向量 -> 多個最優權重矩陣

    3.3 梯度校驗

    梯度校驗是用來檢驗我們的 BP 算法計算的偏導數是否和真實的偏導數存在較大誤差,計算以下 2 個偏導數向量的誤差:

    • 反向 BP 算法計算的偏導數
    • 利用導數定義計算的偏導數

    對於單個參數,在一點 \(\theta\) 處的導數可由 \([\theta – \epsilon, \theta + \epsilon]\) 表示,這也是導數定義的一種:

    \[grad = \frac{J(\theta + \epsilon) – J(\theta – \epsilon)}{2 \epsilon} \]

    如圖:

    但是我們的神經網絡代價函數有很多參數,當我們把參數矩陣轉為向量后,可以對向量里的每個參數進行梯度檢驗,只需要分別用定義求偏導數即可,比如檢驗 \(\theta_1\)

    \[\frac {\partial J}{\partial \theta_1} = \frac {J (\theta_1 + \varepsilon_1, \theta_2, \theta_3 … \theta_n ) – J(\theta_1 – \varepsilon_1, \theta_2, \theta_3 … \theta_n)}{2 \varepsilon} \]

    以此類推,檢驗 \(\theta_n\)

    \[\frac {\partial J}{\partial \theta_n} = \frac {J (\theta_1, \theta_2, \theta_3 … \theta_n + \varepsilon_n) – J(\theta_1, \theta_2, \theta_3 … \theta_n – \varepsilon_n)}{2 \varepsilon} \]

    求出導數定義的偏導數后,與 BP 算法計算的偏導數計算誤差,在誤差範圍內認為 BP 算法計算的偏導數(D_vec)是正確的,梯度檢驗的偽代碼如下:

    for i = 1 : n
      theta_plus = theta
      theta_plus[i] = theta_plus + epsilon
      
      theta_minu = theta
      theta_minu[i] = theta_minu - epsilon
      
      grad = (J(theta_plus) - J(theta_minu)) / (2 * epsilon)
    end
    
    check 誤差: grad 是否約等於 D_vec
    

    注意一點:梯度檢驗通常速度很慢,在訓練神經網絡前先別進行檢驗!

    今天就到這,溜了溜了,下篇文章見:)

    本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

    【其他文章推薦】

    USB CONNECTOR掌控什麼技術要點? 帶您認識其相關發展及效能

    台北網頁設計公司這麼多該如何選擇?

    ※智慧手機時代的來臨,RWD網頁設計為架站首選

    ※評比南投搬家公司費用收費行情懶人包大公開

    ※回頭車貨運收費標準