//cs-a.ecimg.tw/items/DJAA2VA900H2EDU/000001_1704679976.jpg;
商品編號:DJAA2V-A900H2EDU

跟NVIDIA學深度學習!從基本神經網路到CNN•RNN•LSTM•seq2seq•Transformer•GPT•BERT...,紮穩機器視覺與大型語言模型(LLM)的建模基礎

$695
$880
  • 登記送

    i郵箱-下單取貨之訂單登記送30點現金積點(使用效期30天/限量)

  • 登記抽

    i郵箱-下單取貨之訂單登記抽700點現金積點(使用效期30天)

  • 登記送

    【7-11】單筆滿$350純取貨/取貨付款訂單登記送韓風拌拌炸雞兌換券乙張(限量)

付款方式
出貨
  • PChome 倉庫出貨,24小時到貨
配送
宅配滿$490免運,超取滿$350免運
  • 宅配到府(本島/低溫)
    滿$699免運
  • 宅配到府(本島/常溫)
    滿$490免運
  • 超商取貨(常溫)
    滿$350免運
  • 超商取貨(低溫)
    滿$699免運
  • i郵箱(常溫)
    滿$290免運

商品評價

5.0
共 6 則評價
5.0
100%
4.0
0%
3.0
0%
2.0
0%
1.0
0%
最相關
*昭*
2024/03/01
很開心買當好書閱讀,充實知識。
*學*
2024/01/27
讚寫的很清楚
*怡*
2024/06/05
商品詳情
作者:
譯者:
哈雷 譯、施威銘研究室 監修
ISBN:
9789863127765
出版社:
出版日期:
2024/01/23
  • 內文簡介

  • <內容簡介>

    ▍AI 界扛霸子 NVIDIA 的深度學習 (Deep Learning) 指定教材!

    ▍GPT、Transformer、seq2seq、self-attention 機制...大型語言模型 (LLM) 背後的先進技術「硬派」揭密!

    近年來,在 NVIDIA (輝達) GPU、CUDA 技術的推波助瀾下,深度學習 (Deep Learning) 領域有著爆炸性的成長,例如最為人知的 ChatGPT 正是運用深度學習技術開發出來的當紅應用。

    【學深度學習,跟 AI 重要推手 - NVIDIA 學最到位!】

    除了硬體上的助益外,為了幫助眾多初學者快速上手深度學習,任職於 NVIDIA 的本書作者 Magnus Ekman 凝聚了他多年來在 NVIDIA 所積累的 AI 知識撰寫了本書。除了介紹深度學習基礎知識外,也包括此領域的最新重要進展。本書同時也是 NVIDIA 的教育和培訓部門 -【深度學習機構 (Deep Learning Institute, DLI)】 指定的培訓教材 (https://www.nvidia.com/zh-tw/training/books/)。

    要學深度學習,跟深度學習的重要推手 NVIDIA 學就對了!眾多紮實的內容保證讓你受益滿滿!

    【機器視覺、生成式 AI 語言模型 100% 從零開始打造!】

    在深度學習的教學上,本書將從神經網路的底層知識 (梯度下降、反向傳播...) 介紹起,帶你打好深度學習的底子。接著會介紹用 Colab 雲端開發環境 + tf.Keras 建構、調校多層神經網路,以及經典的 CNN (卷積神經網路) 圖形辨識模型建構...等機器視覺主題。最後則邁入自然語言處理 (NLP) 領域,在介紹完基本的 RNN / LSTM 知識後,以先進的 Transformer、GPT...語言模型架構做結。

    尤其自從 ChatGPT 爆紅之後,自然語言處理 (NLP) 一直是深度學習的熱門研究話題,而這部分正是本書最精彩之處!

    RNN / LSTM 神經網路雖然問世已有一段時間,現今一些先進的 NLP 模型或許不會用它們來建構,但由它們衍生出來的 hidden state (隱藏狀態) 概念可說是重中之重,我們會帶你好好熟悉,以便能跟後續章節順利銜接上。

    之後則會利用各種神經網路技術帶你實作【多國語言翻譯模型】、【Auto-Complete 文字自動完成模型】...等範例。從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎。

    令小編最印象深刻的是,本書所設計的 NLP 章節內容可說是「環環相扣」,從 RNN / LSTM 章節初次觸及 NLP 模型開始,次一章的模型架構幾乎都是為了解決前一章模型的特定問題而生的。這種層層舖墊的獨到方式能讓你深刻理解 RNN / LSTM / seq2seq / encoder-decoder / attention / self-attention 機制...等技術的發展脈絡,對於看懂 Transformer、GPT 等最先進的神經網路技術有莫大的幫助,這絕對是其他書看不到的精彩內容!


    ★本書特色:

    □【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】
    GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (positional encoding)、預訓練 (pre-train)、微調 (fine-tune)...各種建模技術輕鬆搞懂!

    □【生成式 AI 語言模型 100% 從零開始打造!】
    •用 Colab + tf.Keras 實作多國語言翻譯模型、Auto-Complete 文字自動完成模型
    •從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎

    □【深度學習基礎知識學好學滿】
    •紮穩根基!不被損失函數 / 梯度下降 / 反向傳播 / 正規化 / 常規化…一拖拉庫技術名詞搞的暈頭轉向!
    •深度神經網路基礎 / CNN / RNN / LSTM...概念詳解。
    •多模態學習 (multimodal learning)、多任務學習 (multitask learning)、自動化模型架構搜尋...熱門主題介紹。

    □詳細解說, 流暢翻譯
    本書由【施威銘研究室】監修, 書中針對原書進行大量補充, 並適當添加註解, 幫助讀者更加理解內容!


    ★目錄:

    Ch01 從感知器看神經網路的底層知識
    1-1 最早的人工神經元 - Rosenblatt 感知器
    1-2 增加感知器模型的能力
    1-3 用線性代數實現神經網路模型

    Ch02 梯度下降法與反向傳播
    2-1 導數的基礎概念
    2-2 以梯度下降法 (gradient descent) 對模型訓練問題求解
    2-3 反向傳播 (back propagation)

    Ch03 多層神經網路的建立與調校
    3-1 動手實作:建立辨識手寫數字的多層神經網路
    3-2 改善神經網路的訓練成效
    3-3 實驗:調整神經網路與學習參數

    Ch04 用卷積神經網路 (CNN) 進行圖片辨識
    4-1 卷積神經網路 (CNN)
    4-2 實作:以卷積神經網路做圖片分類
    4-3 更深層的 CNN 與預訓練模型

    Ch05 用循環神經網路 (RNN、LSTM...) 處理序列資料
    5-1 RNN 的基本概念
    5-2 RNN 範例:預測書店銷售額
    5-3 LSTM (長短期記憶神經網路)
    5-4 LSTM 範例:文字的 Auto-Complete 機制

    Ch06 自然語言處理的重要前置工作:建立詞向量空間
    6-1 詞向量空間的基本知識
    6-2 做法(一):在神經網路建模過程中「順便」生成詞向量空間
    6-3 做法(二):以 word2vec、GloVe 專用演算法生成詞向量空間

    Ch07 用機器翻譯模型熟悉 seq2seq 架構
    7-1 機器翻譯模型的基本知識
    7-2 機器翻譯的範例實作
    7-2-1 tf.Keras 函數式 API 簡介
    7-2-2 建構模型前的工作
    7-2-3 建構模型
    7-2-4 訓練及測試模型
    7-2-5 實驗結果

    Ch08 認識 attention 與 self-attention 機制
    8-1 熟悉 attention 機制
    8-2 認識 self-attention 機制
    8-2-1 self-attention 的基本概念
    8-2-2 self-attention 機制的算法
    8-2-3 multi-head (多頭) 的 self-attention 機制

    Ch09 Transformer、GPT 及其他衍生模型架構
    9-1 Transformer 架構
    9-1-1 編碼器端的架構
    9-1-2 解碼器端的架構
    9-1-3 Transformer 內的其他設計
    9-1-4 小編補充:觀摩 keras 官網上的 Transformer 範例
    9-2 Transformer 架構的衍生模型:GPT、BERT
    9-2-1 認識 GPT 模型
    9-2-2 認識 BERT 模型
    9-2-3 其他從 Transformer 衍生出的模型

    附錄 A 延伸學習 (一):多模態、多任務...等模型建構相關主題
    附錄 B 延伸學習 (二):自動化模型架構搜尋
    附錄 C 延伸學習 (三):後續學習方向建議
    附錄 D 使用 Google 的 Colab 雲端開發環境


    <作者簡介>

    Magnus Ekman
    現為 NVIDIA 架構總監,擁有資訊工程博士學位與多項專利。他於 1990 年代後期首次接觸人工神經網路、親身體會進化計算的威力後,開始鑽研計算機架構,並與妻兒遷往矽谷居住。他曾在昇陽電腦和 Samsung Research America 從事處理器設計和研發。他目前在 NVIDIA 領導一個工程團隊,負責開發自駕車、人工智慧 (AI) 資料中心專用的高效能、低功率 CPU。
購物須知
寄送時間
全台灣24h到貨,遲到提供100元現金積點。全年無休,週末假日照常出貨。例外說明
送貨方式
透過宅配送達。除網頁另有特別標示外,均為常溫配送。
消費者訂購之商品若經配送兩次無法送達,再經本公司以電話與Email均無法聯繫逾三天者,本公司將取消該筆訂單,並且全額退款。
送貨範圍
限台灣本島與離島地區註,部分離島地區包括連江馬祖、綠島、蘭嶼、琉球鄉…等貨件,將送至到岸船公司碼頭,需請收貨人自行至碼頭取貨。注意!收件地址請勿為郵政信箱。
註:離島地區不配送安裝商品、手機門號商品、超大材商品及四機商品。
售後服務
缺掉頁更換新品
執照證號&登錄字號
本公司食品業者登錄字號A-116606102-00000-0
關於退貨
  • PChome24h購物的消費者,都可以依照消費者保護法的規定,享有商品貨到次日起七天猶豫期的權益。(請留意猶豫期非試用期!!)您所退回的商品必須回復原狀(復原至商品到貨時的原始狀態並且保持完整包裝,包括商品本體、配件、贈品、保證書、原廠包裝及所有附隨文件或資料的完整性)。商品一經拆封/啟用保固,將使商品價值減損,您理解本公司將依法收取回復原狀必要之費用(若無法復原,費用將以商品價值損失計算),請先確認商品正確、外觀可接受再行使用,以免影響您的權利,祝您購物順心。
  • 如果您所購買商品是下列特殊商品,請留意下述退貨注意事項:
    1. 易於腐敗之商品、保存期限較短之商品、客製化商品、報紙、期刊、雜誌,依據消費者保護法之規定,於收受商品後將無法享有七天猶豫期之權益且不得辦理退貨。
    2. 影音商品、電腦軟體或個人衛生用品等一經拆封即無法回復原狀的商品,在您還不確定是否要辦理退貨以前,請勿拆封,一經拆封則依消費者保護法之規定,無法享有七天猶豫期之權益且不得辦理退貨。
    3. 非以有形媒介提供之數位內容或一經提供即為完成之線上服務,一經您事先同意後始提供者,依消費者保護法之規定,您將無法享有七天猶豫期之權益且不得辦理退貨。
    4. 組合商品於辦理退貨時,應將組合銷售商品一同退貨,若有遺失、毀損或缺件,PChome將可能要求您依照損毀程度負擔回復原狀必要之費用。
  • 若您需辦理退貨,請利用顧客中心「查訂單」或「退訂/退款查詢」的「退訂/退貨」功能填寫申請,我們將於接獲申請之次日起1個工作天內檢視您的退貨要求,檢視完畢後將以E-mail回覆通知您,並將委託本公司指定之宅配公司,在5個工作天內透過電話與您連絡前往取回退貨商品。請您保持電話暢通,並備妥原商品及所有包裝及附件,以便於交付予本公司指定之宅配公司取回(宅配公司僅負責收件,退貨商品仍由特約廠商進行驗收),宅配公司取件後會提供簽收單據給您,請注意留存。
  • 退回商品時,請以本公司或特約廠商寄送商品給您時所使用的外包裝(紙箱或包裝袋),原封包裝後交付給前來取件的宅配公司;如果本公司或特約廠商寄送商品給您時所使用的外包裝(紙箱或包裝袋)已經遺失,請您在商品原廠外盒之外,再以其他適當的包裝盒進行包裝,切勿任由宅配單直接粘貼在商品原廠外盒上或書寫文字。
  • 若因您要求退貨或換貨、或因本公司無法接受您全部或部分之訂單、或因契約解除或失其效力,而需為您辦理退款事宜時,您同意本公司得代您處理發票或折讓單等相關法令所要求之單據,以利本公司為您辦理退款。
  • 本公司收到您所提出的申請後,若經確認無誤,將依消費者保護法之相關規定,返還您已支付之對價(含信用卡交易),退款日當天會再發送E-mail通知函給您。