跟NVIDIA學深度學習! 從基本神經網路到CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT..., 紮穩機器視覺與大型語言模型LLM的建模基礎 | 誠品線上

Learning Deep Learning

作者 Magnus Ekman
出版社 旗標科技股份有限公司
商品描述 跟NVIDIA學深度學習! 從基本神經網路到CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT..., 紮穩機器視覺與大型語言模型LLM的建模基礎:本書特色:□【徹底看懂ChatGPT背

內容簡介

內容簡介 本書特色: □【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】 GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (positional encoding)、預訓練 (pre-train)、微調 (fine-tune)...各種建模技術輕鬆搞懂! □【生成式 AI 語言模型 100% 從零開始打造!】 ‧用 Colab + tf.Keras 實作多國語言翻譯模型、Auto-Complete 文字自動完成模型 ‧從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎 □【深度學習基礎知識學好學滿】 ‧紮穩根基!不被損失函數 梯度下降 反向傳播 正規化 常規化…一拖拉庫技術名詞搞的暈頭轉向! ‧深度神經網路基礎 CNN RNN LSTM...概念詳解。 ‧多模態學習 (multimodal learning)、多任務學習 (multitask learning)、自動化模型架構搜尋...熱門主題介紹。 □詳細解說, 流暢翻譯 本書由【施威銘研究室】監修, 書中針對原書進行大量補充, 並適當添加註解, 幫助讀者更加理解內容!

作者介紹

作者介紹 作者簡介: Magnus Ekman現為 NVIDIA 架構總監,擁有資訊工程博士學位與多項專利。他於 1990 年代後期首次接觸人工神經網路、親身體會進化計算的威力後,開始鑽研計算機架構,並與妻兒遷往矽谷居住。他曾在昇陽電腦和 Samsung Research America 從事處理器設計和研發。他目前在 NVIDIA 領導一個工程團隊,負責開發自駕車、人工智慧 (AI) 資料中心專用的高效能、低功率 CPU。

商品規格

書名 / 跟NVIDIA學深度學習! 從基本神經網路到CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT..., 紮穩機器視覺與大型語言模型LLM的建模基礎
作者 / Magnus Ekman
簡介 / 跟NVIDIA學深度學習! 從基本神經網路到CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT..., 紮穩機器視覺與大型語言模型LLM的建模基礎:本書特色:□【徹底看懂ChatGPT背
出版社 / 旗標科技股份有限公司
ISBN13 / 9789863127765
ISBN10 /
EAN / 9789863127765
誠品26碼 / 2682508211003
頁數 / 416
裝訂 / P:平裝
語言 / 1:中文 繁體
尺寸 / 23*17*2.4
級別 / N:無
重量(g) / 914
提供維修 /

最佳賣點

最佳賣點 : 本書特色:
□【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】
GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (