兒童禮物書展
ChatGPT原理,從PyTorch中的NLP功能讓你一腳跨入自然語言

ChatGPT原理,從PyTorch中的NLP功能讓你一腳跨入自然語言

  • 定價:880
  • 優惠價:9792
  • 本商品單次購買10本85折748
  • 運送方式:
  • 臺灣與離島
  • 海外
  • 可配送點:台灣、蘭嶼、綠島、澎湖、金門、馬祖
  • 可配送點:台灣、蘭嶼、綠島、澎湖、金門、馬祖
  • 台北、新北、基隆宅配快速到貨(除外地區)
載入中...
  • 分享
 

內容簡介

  打不過AI就加入他!建立自己的GPT產品
  手刻ChatGPT從NLP基礎開始
  PyTorch親手打造RNN、LSTM、GRU、BERT、GPT
  Attention、Transformer詳解
  用GPT做出自動詩詞創作平台

  全書分為4篇:「自然語言處理基礎篇」「PyTorch入門篇」「用PyTorch完成自然語言處理任務篇」和「實戰篇」。

  第1篇包含自然語言處理的背景知識、常用的開放資源、架設Python環境以及使用Python完成自然語言處理的基礎任務。

  第2篇包含PyTorch環境設定和PyTorch的基本使用,以及機器學習的一些基本原理和工作方法。

  第3篇介紹如何使用PyTorch完成自然語言處理任務,各介紹一種模型,包括分詞(又稱斷詞)、RNN、詞嵌入、Seq2seq、注意力機制、Transformer、預訓練語言模型。

  第4篇是實戰篇,第分別講解自然語言理解的任務和自然語言生成的任務,即「中文地址解析」和「詩句補充」。這兩個任務綜合了前面各章的知識,並展示了從資料下載、處理、模型到使用者互動介面開發的全部流程。

  從入門到專案實戰,打下你在NLP這一門最紅技術上的紮實基礎。
 
  ☘ 目標讀者
  ■有一定程式設計基礎的電腦同好。
  ■希望學習機器學習和自然語言處理的人。
  ■電腦及其相關專業的學生。
  ■對自然語言處理領域感興趣的研究者。
  ■對自然語言處理感興趣並樂於實踐的人。

 
 

作者介紹

作者簡介

孫小文


  畢業於北京郵電大學計算機學院(國家示範性軟件學院),目前就職於微軟(中國),研究領域包括自然語言處理、分佈式存儲和計算、搜索技術。

王薪宇

  畢業於北京郵電大學計算機學院(國家示範性軟件學院),曾在知名互聯網公司工作,主要研究領域為自然語言處理。

楊談

  北京郵電大學計算機學院(國家示範性軟件學院)副教授,作為主研人或項目負責人參與了多個國家項目和企業合作項目。
 
 

目錄

第1篇    自然語言處理基礎篇
第1章  自然語言處理概述
1.1  什麼是自然語言處理
1.2  自然語言處理中的挑戰
1.3  自然語言處理中的常用技術
1.4  機器學習中的常見問題
1.5  小結
第2章  Python自然語言處理基礎
2.1  架設環境
2.2  用Python處理字串
2.3  用Python處理語料
2.4  Python的一些特性
2.5  在Python中呼叫其他語言
2.6  小結

第2篇  PyTorch入門篇
第3章  PyTorch介紹
3.1  概述
3.2  與其他框架的比較
3.3  PyTorch環境設定
3.4  Transformers簡介及安裝
3.5  Apex簡介及安裝
3.6  小結
第4章  PyTorch基本使用方法
4.1  張量的使用
4.2  使用torch.nn
4.3  啟動函式
4.4  損失函式
4.5  最佳化器
4.6  資料載入
4.7  使用PyTorch實作邏輯回歸
4.8  TorchText
4.9  使用TensorBoard
4.10  小結
第5章  熱身:使用字元級RNN分類發文
5.1  資料與目標
5.2  輸入與輸出
5.3  字元級RNN
5.4  資料前置處理
5.5  訓練與評估
5.6  儲存和載入模型
5.7  開發應用
5.8  小結

第3篇  用PyTorch完成自然語言處理任務篇
第6章  分詞問題
6.1  中文分詞
6.2  分詞原理
6.3  使用協力廠商工具分詞
6.4  實踐
6.5  小結
第 7 章  RNN
7.1  RNN的原理
7.2  PyTorch中的RNN
7.3  RNN可以完成的任務
7.4  實踐:使用PyTorch附帶的RNN完成發文分類
7.5  小結
第8章  詞嵌入
8.1  概述
8.2  Word2vec
8.3  GloVe
8.4  實踐:使用預訓練詞向量完成發文標題分類
8.5  小結
第9章  Seq2seq
9.1  概述
9.2  使用PyTorch實作Seq2seq
9.3  實踐:使用Seq2seq完成機器翻譯任務
9.4  小結
第10章  注意力機制
10.1  注意力機制的起源
10.2  使用注意力機制的視覺循環模型
10.3  Seq2seq中的注意力機制
10.4  自注意力機制
10.5  其他注意力機制
10.6  小結
第11章  Transformer
11.1  Transformer的背景
11.2  以卷積網路為基礎的Seq2seq
11.3  Transformer的結構
11.4  Transformer的改進
11.5  小結
第12章  預訓練語言模型
12.1  概述
12.2  ELMo
12.3  GPT
12.4  BERT
12.5  Hugging Face Transformers
12.6  其他開放原始碼中文預訓練模型
12.7  實踐:使用Hugging Face Transformers中的BERT做發文標題分類
12.8  小結

第4篇  實戰篇
第13章  專案:中文地址解析
13.1  資料集
13.2  詞向量
13.3  BERT
13.4  HTML5演示程式開發
13.5  小結
第14章  專案:詩句補充
14.1  了解chinese-poetry資料集
14.2  準備訓練資料
14.3  實作基本的LSTM
14.4  根據句子長度分組
14.5  使用預訓練詞向量初始化 Embedding層
14.6  使用Transformer完成詩句生成
14.7  使用GPT-2完成對詩模型
14.8  開發HTML5演示程式
14.9  小結

參考文獻

 
 



  自然語言處理是目前人工智慧領域中最受人矚目的研究方向之一,發展非常迅速。自然語言處理又是一個非常開放的領域,每年都有大量的可以免費閱讀的論文、可以自由下載和使用的開原始程式碼被發佈在網際網路上。感謝這些致力於自然語言處理研究,又樂於分享的研究者和開發者,使我們有機會學習這一領域最新的研究成果,理解自然語言處理領域中的精妙原理,並能夠在開原始程式碼函式庫的基礎上建立一些美妙的應用。

  如果沒有他們的努力和奉獻,無法想像我們僅僅透過兩行程式 ,就能在幾秒內定義和建立一個包含超過1億參數的模型,並下載和載入預訓練參數(耗時數分鐘,具體時間根據網速而定)。這些預訓練參數往往是使用性能強大的圖形處理單元(Graphics Processing Unit, GPU)在巨量的資料中訓練數天才能得到的。

  即使擁有性能強大的GPU,要獲取巨量訓練資料,或者進行長時間的訓練也都是困難的,但是借助公開發佈的預訓練權重,僅僅需要兩行程式就都可以做到。同時還可以在能接受的時間內對模型進行Fine-tuning(微調)訓練,載入與訓練參數後,再使用目標場景的資料訓練,使模型更符合實際的應用場景。

  如果你沒有 GPU,或者只有一台性能一般的家用電腦,也完全可以比較快速地使用模型去完成一些通用的任務,或者在一定的資料中訓練一些不太複雜的模型。

  自然語言處理越來越豐富的應用正在改變我們的生活。從語音合成、語音辨識、機器翻譯,到視覺文字聯合,越來越精確的自然語言理解讓更多事情成為可能。現在的人工智慧技術使電腦可以用越來越接近人類的方式去處理和使用自然語言。

  更令人興奮的是,這些事情我們也可以借助開原始程式碼去實作,並根據大量公開的論文、文件和範例程式去理解程式背後的原理。

 
 

詳細資料

  • ISBN:9786267273593
  • 規格:平裝 / 464頁 / 17 x 23 x 2.27 cm / 普通級 / 單色印刷 / 初版
  • 出版地:台灣

最近瀏覽商品

 

相關活動

  • 【自然科普、電腦資訊】童話裡的心理學【博客來電子書獨家-作者電子贈言簽名扉頁版】
 

購物說明

若您具有法人身份為常態性且大量購書者,或有特殊作業需求,建議您可洽詢「企業採購」。 

退換貨說明 

會員所購買的商品均享有到貨十天的猶豫期(含例假日)。退回之商品必須於猶豫期內寄回。 

辦理退換貨時,商品必須是全新狀態與完整包裝(請注意保持商品本體、配件、贈品、保證書、原廠包裝及所有附隨文件或資料的完整性,切勿缺漏任何配件或損毀原廠外盒)。退回商品無法回復原狀者,恐將影響退貨權益或需負擔部分費用。 

訂購本商品前請務必詳閱商品退換貨原則 

  • 大和圖書聯展
  • 遠流童書展
  • 尖端BL藍月祭