基於 PyTorch 的自然語言處理 (Natural Language Processing with PyTorch)

Delip Rao, Brian McMahan 譯者:劉彥君//周駿蕭//李思雨//吳豪

已絕版

買這商品的人也買了...

相關主題

商品描述

自然語言處理(NLP)為解決人工智能問題提供了無限的機會,
從而使諸如Amazon Alexa和Google Translate之類的產品成為可能。
如果你是初次接觸NLP和深度學習的開發人員或數據科學家,
本實用指南將向你展示如何使用PyTorch(基於Python的深度學習庫)應用這些方法。
兩位研究員為你提供了NLP和深度學習算法的堅實基礎。
他們還演示瞭如何使用PyTorch來構建應用程序,
這些應用程序包含了你所遇到問題的豐富文本表示形式,並且每章都包含多個代碼示例和說明。
探索計算圖和監督學習範式。
掌握PyTorch優化張量庫的基礎。
概述傳統的NLP概念和方法。
學習構建神經網絡的基本思想。
檢查前饋神經網絡,例如多層感知器。
使用嵌入方式來表示單詞、句子、文檔等。
了解如何使用遞歸神經網絡對序列數據建模。
探索序列預測並生成sequence-to-sequence模型。
學習用於構建NLP系統的設計模式。

作者簡介

Delip Rao

是Joostware的創始人,Joostware是一家總部位於舊金山的諮詢公司,專門從事機器學習和NLP研究。
他還是假新聞挑戰賽(Fake News Challenge)的聯合創始人,
該活動旨在將黑客和AI研究人員召集在一起,共同研究新聞中與事實相關的問題。
Delip之前曾在Twitter和Amazon (Alexa)從事NLP研究和產品。

目錄大綱

目錄
前言
第1章概述
監督學習範式
隨機梯度下降法
樣本和目標編碼
獨熱表示(one-hot)
詞頻表示(TF)
TF-IDF表示
目標編碼
計算圖
PyTorch基礎
動態與靜態計算圖
安裝PyTorch
創建張量
張量的類型和大小
張量操作
索引、切片、連接
張量和計算圖
CUDA張量
練習題
答案
小結
參考文獻
第2章自然語言處理
語料庫、詞和類型
特徵工程
一元,二元,三元,…, n元模型
詞形還原和詞幹提取
文檔分類
單詞分類:詞性標註
廣度分類:分塊和命名實體識別
句子結構
詞義與語義
小結
參考文獻
第3章神經網絡基礎
感知器:最簡單的神經網絡
激活函數
sigmoid
Tanh
ReLU
Softmax
損失函數
均方誤差損失
分類交叉熵損失
交叉熵損失
深入監督訓練
構造樣例數據
綜合起來:基於梯度的監督學習
輔助訓練的概念
正確度量模型性能:評估指標
正確度量模型性能:分割數據集
知道何時停止訓練
找到合適的超參數
規範化
案例:餐館評論分類
Yelp評論數據集
理解PyTorch的數據集表示
詞彙表(Vocabulary)、矢量化器(Vectorizer)和數據轉換器(DataLoader)
一種感知器分類器
訓練程序
評估、推斷和檢查
測試數據評估
小結
參考文獻
第4章用於自然語言處理的前饋網絡
多層感知器
一個簡單的例子:二分類
在PyTorch中實現MLP
示例:用MLP進行姓氏分類
姓氏數據集
Vocabulary、Vectorizer和DataLoader
姓氏分類器模型
訓練程序
模型評估及預測
正則化MLP:權重正則化和結構正則化(或Dropout)
卷積神經網絡
CNN超參數
在PyTorch中實現CNN
示例:使用CNN對姓氏進行分類
姓氏數據集類
詞彙表、矢量化程序和數據轉換器
用卷積網絡重新實現姓氏分類器
培訓程序
模型評估及預測
CNN中的雜項主題
池化
批規範化(BatchNorm)
網絡中的網絡連接(1×1卷積)
殘差連接/殘差塊
小結
參考文獻
第5章嵌入單詞和類型
為什麼學習嵌入?
嵌入的效率
學習單詞嵌入的方法
預置字的實際使用
示例:連續詞袋模型的嵌入
Frankenstein數據集
Vocabulary、Vectorizer和DataLoader
CBOWClassifier模型
訓練程序
模型評估及預測
示例:使用預先訓練的嵌入進行文檔分類
新聞數據集
Vocabularv、Vectorizer和DataLoader
NewsClassifier模型
訓練程序
模型評估及預測
小結
參考文獻
第6章自然語言處理的序列建模
遞歸神經網絡簡介
實現Elman RNN
示例:使用字符RNN對姓氏國籍進行分類
SurnameDataset類
矢量化數據結構
姓氏分類器模型
訓練程序和結果
小結
參考文獻
第7章自然語言處理的中級序列建模
普通RNN(或Elman RNN)的問題
用門控方法解決普通RNN存在的問題
示例:用於生成姓氏的字符RNN
SurnameDataset類
矢量化數據結構
從ElmanRNN到GRU
模型1:無條件的姓氏生成模型
模型2:條件姓氏生成模型
訓練程序和結果
訓練序列模型的技巧和竅門
參考文獻
第8章自然語言處理的高級序列建模
序列到序列模型,編碼器-解碼器模型和條件生成
從序列中捕獲更多信息:雙向遞歸模型
從序列中捕獲更多信息:注意力
深度神經網絡中的注意力
評估序列生成模型
示例:神經機器翻譯
機器翻譯數據集
NMT的矢量化管道
NMT模型中的編碼和解碼
訓練程序和結果
小結
參考文獻
第9章經典,前沿與下一步發展
到目前為止,我們學到了什麼?
NLP中的永恆主題
對話與交互系統
話語
信息提取與文本挖掘
文件分析與檢索
NLP前沿
生產NLP系統的設計模式
接下來呢?
參考文獻
作者介紹
封面介紹