序言╱本書的目的╱本書的架構
【第1章深度學習與機器學習】Lesson1-1│深度學習的基礎:深階層的類神經網路
Lesson1-2│深度學習的歷史:從人工智慧的進化來看深度學習
Lesson1-3│機器學習的基礎知識:監督式學習與非監督式學習╱強化學習╱規則庫、知識庫╱統計機器學習╱預處理與特徵提取╱批量學習與線上學習╱效能評估╱泛化能力
Lesson1-4│機器學習所需的數學:數值與表示式╱變數與常數╱等式與代入式╱向量與上下標╱求和記號╱最小值、最大值╱絕對值╱距離與範數╱微分與偏微分╱合成函數的微分╱指數與對數
COLUMN1│什麼是人工智慧?
【第2章Python的準備與基本語法】Lesson2-1│Python的安裝~Windows篇~:安裝至Windows
Lesson2-2│Python的安裝~Mac篇~:在Mac可直接使用Python2系列╱Homebrew的安裝╱pyenv的安裝╱安裝Python3系列
Lesson2-3│函式庫的安裝~Windows篇~:Windows版Anaconda的安裝
Lesson2-4│函式庫的安裝~Mac篇~:Mac版Anaconda的安裝
Lesson2-5│Python的基本語法:Hello,Python!!╱變數╱常數╱資料型別╱運算╱List型別與Tuple型別╱Set型別╱Dict型別╱字串的連結與反覆╱字串格式╱Sequence運算╱函式╱if陳述╱反覆陳述╱模組的匯入
COLUMN2│使用Java的實作
【第3章深度學習的體驗】Lesson3-1│TensorFlow與Keras的安裝:Windows篇:安裝TensorFlow╱Windows篇:安裝Keras╱Mac篇:安裝TensorFlow╱Mac篇:安裝Keras
Lesson3-2│使用JupyterNotebook:JupyterNotebook的準備╱JupyterNotebook的使用方法╱POINT:於Mac執行時
Lesson3-3│數值運算函式庫NumPy的使用方法:基本的使用方式
Lesson3-4│資料繪製函式庫Matplotlib的使用方法:基本的使用方式
Lesson3-5│以Keras體驗深度學習:從Kaggle下載影像╱製作影像辨識的程式
COLUMN3│什麼是TensorFlow?
【第4章類神經網路的基礎】Lesson4-1│神經元與感知器:神經元╱感知器
Lesson4-2│激勵函數:各式各樣的激勵函數
Lesson4-3│赫布理論與差量規則:權重的學習規則
Lesson4-4│類神經網路的學習:區別狗與貓╱XOR問題╱多層感知器(類神經網路)╱OR問題╱AND問題╱NAND問題╱以類神經網路識別
Lesson4-5│學習方法的差異與損失函數:類神經網路的學習方法╱從學習過程看損失函數╱關於損失函數
Lesson4-6│梯度法:如何調整參數?╱類神經網路誤差的梯度求法
Lesson4-7│反向傳播算法:什麼是反向傳播算法?╱鏈鎖律
Lesson4-8│MNIST:Step1.以JupyterNotebook新增檔案╱Step2.準備手繪影像資料╱Step3.製作模型╱Step4.類神經網路的學習
COLUMN4│維度的詛咒與過適
【第5章卷積神經網路】Lesson5-1│卷積神經網路的基礎:影像分類與視覺神經元╱讓1個神經元學習全部的輸入影像
Lesson5-2│卷積運算:讓感受野滑動╱聚焦區域的移動
Lesson5-3│卷積層:為了使其認識不同樣式╱POINT:Windows上務必安裝Graphviz
Lesson5-4│深層卷積神經網路:使其能接受3維資料
Lesson5-5│以補零卷積:收縮輸出的形狀╱輸入資料之周圍資訊的損失╱補零
Lesson5-6│增廣範圍的卷積:什麼是步幅?╱使用補零
Lesson5-7│卷積ReLU層:以非線性變換增進辨識
Lesson5-8│池化層:以池化層處理╱池化層的優點與注意點
Lesson5-9│全連結層:全連結層的處理╱修正全連結層╱想進行更複雜的判斷時
Lesson5-10│深層卷積神經網路的學習:模型學習與訓練╱Step1.定義損失E╱Step2.初始化權重值w╱Step3.反覆修正權重值w
Lesson5-11│過適與丟棄:過適的例子╱丟棄以防止過適╱丟棄的優點
Lesson5-12│卷積的進一步詳細資訊:卷積層vs.全連結層╱深而小的區域感受野vs.淺而廣的感受野
COLUMN5│使用GPU學習
【第6章深度學習的應用】Lesson6-1│遞迴神經網路(RNN):RNN的特徵
Lesson6-2│LSTM類神經網路:LSTM的特徵
Lesson6-3│門閘遞迴單元(GRU):GRU的特徵╱能更有效率地記憶
Lesson6-4│RNN語言模型:使其推測接下來將出現的單字
Lesson6-5│Sequence-To-Sequence模型:Sequence-To-Sequence模型的特徵
Lesson6-6│Attention:Attention的特徵
COLUMN6│由上而下與由下而上
結語╱謝辭
參考文獻