中國國民黨建議的逃生手冊

李志銘 也來談談KMT版的小橘書 民國六十八年(1979)在國民黨主政下,由國防部總政治作戰部編印的《揭穿中共統戰陰謀答問》 這本小冊子裡雖然只有短短7頁8題,但卻字字珠璣,尤其放到今天來看,更是完全凸顯了中國國民黨從反共到舔共的事實。 . 譬如其中第三題問::國共會有兩度合作、一次和談的歷史,爲什麼不能再談? 答:我們就因爲過去每次都上了中共的當,最後失去了大陸,所以現在不能再和他們談了。 第一次是民國十三年的「容共」。中共聲稱服膺三民主義,參加國民革命,但他們却發展自己的組織,分化革命陣營,使北伐革命幾乎失敗。 第二次在民國廿六年的所謂「聯合抗日」。中共趁日本向我國侵略,聲稱接受政府領導,擁護三民主義,取消叛亂政權和紅軍名義,共同抵抗日本。實際上他們却擴張自己勢力,並勾結日本偷襲國軍,打下了他們擴大叛亂的基礎。 最後一次是戰後的「國共和談」。經過美國的調處,中共以邊談邊打的策略,以「談判」保護自己,以軍事行動擴張地盤,並在此談談打打的過程中,挑撥中美關係,動搖我民心土氣,最後終於竊據大陸。我們有了這些經驗,知道和談就是解除自己武裝向他們投降,所以再不能和中共談判了。 . 又譬如其中第七題問:中共現在已不講「解放臺灣」「血洗臺灣」,而講「回歸祖國、完成統一」是不是他們已放棄使用武力? 答:共產黨最善於在名詞上玩魔術,我們千萬不能上當,一定要找出其所用名詞的真正涵義。基本上,「解放臺灣」已訂入了中共的「憲法」,目標已定,正如中共自己所說的,十年、二十年,甚至一百年、一千年,總要達到目標。所以併吞臺灣這個目標是不會改變的。 . . 《揭穿中共統戰陰謀答問》全書PDF電子檔下載 https://reurl.cc/6b5zvM

初探深度學習使用 Keras part 2



CSDN - 對 Dropout 的詮釋

  • 組合派 (Ensemble)
        overfitting → 參數量過多 → 找到一個比較瘦的網路可能可以降低 overfitting 的程度 → 手動或使用 Grid-                
        Search? 太慢 → 使用 Dropout 使學習時隨機打斷一些連結 → 可以解決費時的問題,把重要的連結權重增
        加;不重要的減輕 → 重新組合起來後 (Inference phase) 自然會是一個以權重定義後的瘦網路。

  • 動機論 (有豬隊友)
        overfitting →  有人 (參數/連結) 濫竽充數 → 隨機將某些人 (神經元) 分成數組 → 各組學會懂得自立自強 
        → 重新組合後 (Inference phase) 會比原本更強大。


參考連結:



知乎 - BatchNorm 的原理與實戰


  • 背景:
         為什麼神經網路這麼不穩定 → 神經網路各層間的映射頻繁的變換 (Internal Covariate Shift)
  • Internal Covariate Shift 的問題
    • 網路在初期需要透過不斷大幅調整來適應輸入的分布變化
    • 深層網路的梯度消失/爆炸問題使分布更加不穩
  • 解法
         在各層網路中的各特徵軸 (channel) 單獨進行標準化,使其變為分布平均為 0, 變異數為 1 的分布,再加上
         平移與縮放,就可以表示原本的分布。

參考連結:


CSDN - Earlystopping 的使用與技巧


為何要使用 EarlyStopping:繼續訓練會導致測試集準確率下降。
  • 過度擬合
  • 學習率過大導致不收斂
  • 使用 Regulizers 時,Loss 減少未必是準確率上升,可能是 weights 變少而已。

EarlyStopping 可以監控的項目
  • acc, val_acc, loss, val_loss, ...etc 等 loss 與 metrics

有時候要監控的項目不是越小越好 (“min”),這時候要可以手動將 mode 設成 “max”

參考連結:


莫煩 Python - 儲存與載回模型


  • 儲存模型:前面的課程內容已經提過
    • 載回模型:
      • 儲存整個模型的話
                  -> keras.models.load_model(path_to_your_model)
  • 只儲存權重的話
                  -> model = build_model(...)
                  -> model.load_weights(path_to_your_weight_file)

              
參考連結:



Github 原碼:LearningRateScheduler 與 ReduceLR


A. LearningRateScheduler
  1. 在每個 epoch 開始前,得到目前 lr
  2. 根據 schedule function 重新計算 lr,比如 epoch = n 時, new_lr = lr * 0.1
  3. 將 optimizer 的 lr 設定為 new_lr
  4. 根據 shhedule 函式,假設要自訂的話,它應該吃兩個參數:epoch & lr

B. ReduceLR
  1. 在每個 epoch 結束時,得到目前監控目標的數值
  2. 如果目標比目前儲存的還要差的話,wait+1;若否則 wait 設為 0,目前監控數值更新新的數值
  3. 如果 wait >= patient,new_lr = lr * factor,將 optimizer 的 lr 設定為 new_lr,並且 wait 設回 0



參考連結:

CSDN - Keras 自定義 Loss 函數


有時候我們想根據任務調整損失函數,Keras 可以在 compile model 時使用自定義函數。

最常用的方式
  • 自定義函數必須至少要有兩個參數:y_true, y_pred。其他參數則可視狀況自行加入。

較不常用的方式
  • 定義一個 loss_layer
  • 在 call function 中用 self.add_loss 加其加入


  1. 圖像分類 | 深度學習PK傳統機器學習
  2. OpenCV - 直方圖

進階參考資料: 
  1. OpenCV 教學文檔
  2. Udacity free course: Introduction To Computer Vision


  1. Sobel 運算子 wiki 
  2. 基於傳統圖像處理的目標檢測與識別(HOG+SVM附代碼)
  3. 知乎 - 什麼是 SVM
  4. 程式碼範例的來源,裡面用的是 mnist 來跑 

Comments

本月熱門文章

什麼是 OTA ?

物聯網關鍵技術及雲服務整理 以QNAP為例

製造業如何藉由數位轉型提升企業效率 工業4.0現況

有店面就是比較有保障,師父找配合的都找有店面,那你呢? 點我讓你知道更多內幕為甚麼

QNAP NVR Solution Safeguards Montebelo Aguieira Lake Resort & Spa in Portugal

QNAP 監控 錄影容量計算器

比特幣錢包 coinbase 讓交易使用比特幣更方便 !

中國國民黨建議的逃生手冊

花旗銀行信用卡辦卡

廚具水電行介紹---台北市大安區和平東路一段208號的泰順水電廚具行 ----我在和平東路跟泰順街交岔口