中國國民黨建議的逃生手冊

李志銘 也來談談KMT版的小橘書 民國六十八年(1979)在國民黨主政下,由國防部總政治作戰部編印的《揭穿中共統戰陰謀答問》 這本小冊子裡雖然只有短短7頁8題,但卻字字珠璣,尤其放到今天來看,更是完全凸顯了中國國民黨從反共到舔共的事實。 . 譬如其中第三題問::國共會有兩度合作、一次和談的歷史,爲什麼不能再談? 答:我們就因爲過去每次都上了中共的當,最後失去了大陸,所以現在不能再和他們談了。 第一次是民國十三年的「容共」。中共聲稱服膺三民主義,參加國民革命,但他們却發展自己的組織,分化革命陣營,使北伐革命幾乎失敗。 第二次在民國廿六年的所謂「聯合抗日」。中共趁日本向我國侵略,聲稱接受政府領導,擁護三民主義,取消叛亂政權和紅軍名義,共同抵抗日本。實際上他們却擴張自己勢力,並勾結日本偷襲國軍,打下了他們擴大叛亂的基礎。 最後一次是戰後的「國共和談」。經過美國的調處,中共以邊談邊打的策略,以「談判」保護自己,以軍事行動擴張地盤,並在此談談打打的過程中,挑撥中美關係,動搖我民心土氣,最後終於竊據大陸。我們有了這些經驗,知道和談就是解除自己武裝向他們投降,所以再不能和中共談判了。 . 又譬如其中第七題問:中共現在已不講「解放臺灣」「血洗臺灣」,而講「回歸祖國、完成統一」是不是他們已放棄使用武力? 答:共產黨最善於在名詞上玩魔術,我們千萬不能上當,一定要找出其所用名詞的真正涵義。基本上,「解放臺灣」已訂入了中共的「憲法」,目標已定,正如中共自己所說的,十年、二十年,甚至一百年、一千年,總要達到目標。所以併吞臺灣這個目標是不會改變的。 . . 《揭穿中共統戰陰謀答問》全書PDF電子檔下載 https://reurl.cc/6b5zvM

初探深度學習使用 Keras part 2



CSDN - 對 Dropout 的詮釋

  • 組合派 (Ensemble)
        overfitting → 參數量過多 → 找到一個比較瘦的網路可能可以降低 overfitting 的程度 → 手動或使用 Grid-                
        Search? 太慢 → 使用 Dropout 使學習時隨機打斷一些連結 → 可以解決費時的問題,把重要的連結權重增
        加;不重要的減輕 → 重新組合起來後 (Inference phase) 自然會是一個以權重定義後的瘦網路。

  • 動機論 (有豬隊友)
        overfitting →  有人 (參數/連結) 濫竽充數 → 隨機將某些人 (神經元) 分成數組 → 各組學會懂得自立自強 
        → 重新組合後 (Inference phase) 會比原本更強大。


參考連結:



知乎 - BatchNorm 的原理與實戰


  • 背景:
         為什麼神經網路這麼不穩定 → 神經網路各層間的映射頻繁的變換 (Internal Covariate Shift)
  • Internal Covariate Shift 的問題
    • 網路在初期需要透過不斷大幅調整來適應輸入的分布變化
    • 深層網路的梯度消失/爆炸問題使分布更加不穩
  • 解法
         在各層網路中的各特徵軸 (channel) 單獨進行標準化,使其變為分布平均為 0, 變異數為 1 的分布,再加上
         平移與縮放,就可以表示原本的分布。

參考連結:


CSDN - Earlystopping 的使用與技巧


為何要使用 EarlyStopping:繼續訓練會導致測試集準確率下降。
  • 過度擬合
  • 學習率過大導致不收斂
  • 使用 Regulizers 時,Loss 減少未必是準確率上升,可能是 weights 變少而已。

EarlyStopping 可以監控的項目
  • acc, val_acc, loss, val_loss, ...etc 等 loss 與 metrics

有時候要監控的項目不是越小越好 (“min”),這時候要可以手動將 mode 設成 “max”

參考連結:


莫煩 Python - 儲存與載回模型


  • 儲存模型:前面的課程內容已經提過
    • 載回模型:
      • 儲存整個模型的話
                  -> keras.models.load_model(path_to_your_model)
  • 只儲存權重的話
                  -> model = build_model(...)
                  -> model.load_weights(path_to_your_weight_file)

              
參考連結:



Github 原碼:LearningRateScheduler 與 ReduceLR


A. LearningRateScheduler
  1. 在每個 epoch 開始前,得到目前 lr
  2. 根據 schedule function 重新計算 lr,比如 epoch = n 時, new_lr = lr * 0.1
  3. 將 optimizer 的 lr 設定為 new_lr
  4. 根據 shhedule 函式,假設要自訂的話,它應該吃兩個參數:epoch & lr

B. ReduceLR
  1. 在每個 epoch 結束時,得到目前監控目標的數值
  2. 如果目標比目前儲存的還要差的話,wait+1;若否則 wait 設為 0,目前監控數值更新新的數值
  3. 如果 wait >= patient,new_lr = lr * factor,將 optimizer 的 lr 設定為 new_lr,並且 wait 設回 0



參考連結:

CSDN - Keras 自定義 Loss 函數


有時候我們想根據任務調整損失函數,Keras 可以在 compile model 時使用自定義函數。

最常用的方式
  • 自定義函數必須至少要有兩個參數:y_true, y_pred。其他參數則可視狀況自行加入。

較不常用的方式
  • 定義一個 loss_layer
  • 在 call function 中用 self.add_loss 加其加入


  1. 圖像分類 | 深度學習PK傳統機器學習
  2. OpenCV - 直方圖

進階參考資料: 
  1. OpenCV 教學文檔
  2. Udacity free course: Introduction To Computer Vision


  1. Sobel 運算子 wiki 
  2. 基於傳統圖像處理的目標檢測與識別(HOG+SVM附代碼)
  3. 知乎 - 什麼是 SVM
  4. 程式碼範例的來源,裡面用的是 mnist 來跑 

Comments

本月熱門文章

什麼是 OTA ?

如何關閉 QNAP Multimedia Console 產生縮圖功能

QNAP NAS 安裝openHAB 來實現智慧家庭

Amazon/ AWS 領導力準則 14 Amazon Leadership Principles

QNAP NVR Solution Safeguards Montebelo Aguieira Lake Resort & Spa in Portugal

推薦韓劇 機智的醫生生活 充滿友情的五人組 Mido and Falasol

India's Largest Petroleum Company Upgrades Its Surveillance System with QNAP Security's Solution

Japanese Mall Nakasu Syotengai Selects QNAP VioStor NVR for Remote Monitoring

QNAP Network Surveillance System Successfully Launched in Kaohsiung Veterans General Hospital

QNAP NAS 作為 IIoT Gateway QIoT Suite 支援 OPC UA,工業物聯網最佳 Gateway