Learning Deep Learning
作者 | Magnus Ekman |
---|---|
出版社 | 旗標科技股份有限公司 |
商品描述 | 跟NVIDIA學深度學習! 從基本神經網路到CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT..., 紮穩機器視覺與大型語言模型LLM的建模基礎:本書特色:□【徹底看懂ChatGPT背 |
作者 | Magnus Ekman |
---|---|
出版社 | 旗標科技股份有限公司 |
商品描述 | 跟NVIDIA學深度學習! 從基本神經網路到CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT..., 紮穩機器視覺與大型語言模型LLM的建模基礎:本書特色:□【徹底看懂ChatGPT背 |
內容簡介 本書特色: □【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】 GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (positional encoding)、預訓練 (pre-train)、微調 (fine-tune)...各種建模技術輕鬆搞懂! □【生成式 AI 語言模型 100% 從零開始打造!】 ‧用 Colab + tf.Keras 實作多國語言翻譯模型、Auto-Complete 文字自動完成模型 ‧從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎 □【深度學習基礎知識學好學滿】 ‧紮穩根基!不被損失函數 梯度下降 反向傳播 正規化 常規化…一拖拉庫技術名詞搞的暈頭轉向! ‧深度神經網路基礎 CNN RNN LSTM...概念詳解。 ‧多模態學習 (multimodal learning)、多任務學習 (multitask learning)、自動化模型架構搜尋...熱門主題介紹。 □詳細解說, 流暢翻譯 本書由【施威銘研究室】監修, 書中針對原書進行大量補充, 並適當添加註解, 幫助讀者更加理解內容!
作者介紹 作者簡介: Magnus Ekman現為 NVIDIA 架構總監,擁有資訊工程博士學位與多項專利。他於 1990 年代後期首次接觸人工神經網路、親身體會進化計算的威力後,開始鑽研計算機架構,並與妻兒遷往矽谷居住。他曾在昇陽電腦和 Samsung Research America 從事處理器設計和研發。他目前在 NVIDIA 領導一個工程團隊,負責開發自駕車、人工智慧 (AI) 資料中心專用的高效能、低功率 CPU。
書名 / | 跟NVIDIA學深度學習! 從基本神經網路到CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT..., 紮穩機器視覺與大型語言模型LLM的建模基礎 |
---|---|
作者 / | Magnus Ekman |
簡介 / | 跟NVIDIA學深度學習! 從基本神經網路到CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT..., 紮穩機器視覺與大型語言模型LLM的建模基礎:本書特色:□【徹底看懂ChatGPT背 |
出版社 / | 旗標科技股份有限公司 |
ISBN13 / | 9789863127765 |
ISBN10 / | |
EAN / | 9789863127765 |
誠品26碼 / | 2682508211003 |
頁數 / | 416 |
裝訂 / | P:平裝 |
語言 / | 1:中文 繁體 |
尺寸 / | 23*17*2.4 |
級別 / | N:無 |
重量(g) / | 914 |
提供維修 / | 無 |
最佳賣點 : 本書特色:
□【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】
GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (