購買(mǎi)鏈接:https://item.jd.com/12479014.html
作者:王海良,李卓桓,林旭鳴 著(zhù)
出版社:電子工業(yè)出版社
出版時(shí)間:2019-01-01
版次:1 頁(yè)數:268
開(kāi)本:16開(kāi) 用紙:膠版紙
印次:1 ISBN:9787121349218 包裝:平裝
內容簡(jiǎn)介
出版社:電子工業(yè)出版社
出版時(shí)間:2019-01-01
版次:1 頁(yè)數:268
開(kāi)本:16開(kāi) 用紙:膠版紙
印次:1 ISBN:9787121349218 包裝:平裝
內容簡(jiǎn)介
《智能問(wèn)答與深度學(xué)習》面向在校學(xué)生或計算機軟件從業(yè)人員,由淺入深地介紹了人工智能在文本任務(wù)中的應用。《智能問(wèn)答與深度學(xué)習》不但介紹了自然語(yǔ)言處理、深度學(xué)習和機器閱讀理解等基礎知識,還簡(jiǎn)述了信息論、人工智能等的發(fā)展過(guò)程。
作者簡(jiǎn)介
王海良,Chatopera聯(lián)合創(chuàng )始人、CEO,微軟人工智能極有價(jià)值專(zhuān)家。畢業(yè)于北京郵電大學(xué),加入IBM工作四年,先后工作于軟件開(kāi)發(fā)實(shí)驗室和創(chuàng )新中心,從2016年開(kāi)始工作于創(chuàng )業(yè)公司,三角獸AI算法工程師,呤呤英語(yǔ)AI產(chǎn)品負責人,負責智能對話(huà)系統研發(fā)。
李卓桓,PreAngel合伙人,Plug and Play投資合伙人。擁有25年編程經(jīng)驗,曾任優(yōu)酷網(wǎng)首席科學(xué)家、嘰歪網(wǎng)創(chuàng )始人,水木清華BBS站長(cháng),紫霞BBS站長(cháng)。Conversational AI實(shí)踐者,熱愛(ài)滑雪、跑酷、滑雪傘等極限運動(dòng)。
林旭鳴,北京郵電大學(xué)模式識別實(shí)驗室研究生,目前的研究方向為深度學(xué)習、自然語(yǔ)言處理與機器閱讀理解。本科期間曾獲得國家獎學(xué)金,研究生期間多次在數據類(lèi)競賽中取得Top3的成績(jì)。曾在百度、滴滴出行、微軟等公司實(shí)習。
目錄
1 概述1
1.1 智能問(wèn)答:讓機器更好地服務(wù)于人 1
1.2 問(wèn)答系統類(lèi)型介紹 2
1.2.1 基于事實(shí)的問(wèn)答系統 3
1.2.2 基于常見(jiàn)問(wèn)題集的問(wèn)答系統 3
1.2.3 開(kāi)放域的問(wèn)答系統 4
1.3 使用本書(shū)附帶的源碼程序 4
1.3.1 安裝依賴(lài)軟件 4
1.3.2 下載源碼 5
1.3.3 執行示例程序 5
1.3.4 聯(lián)系我們 6
1.4 全書(shū)結構 6
2 機器學(xué)習基礎 8
2.1 線(xiàn)性代數 8
2.1.1 標量、向量、矩陣和張量 8
2.1.2 矩陣運算 9
2.1.3 特殊類(lèi)型的矩陣 10
2.1.4 線(xiàn)性相關(guān) 11
2.1.5 范數 12
2.2 概率論基礎 12
2.2.1 隨機變量 13
2.2.2 期望和方差 13
2.2.3 伯努利分布 14
2.2.4 二項分布 14
2.2.5 泊松分布 15
2.2.6 正態(tài)分布 15
2.2.7 條件概率、聯(lián)合概率和全概率 17
2.2.8 先驗概率與后驗概率 18
2.2.9 邊緣概率 18
2.2.10 貝葉斯公式 18
2.2.11 最大似然估計算法 19
2.2.12 線(xiàn)性回歸模型 20
2.2.13 邏輯斯蒂回歸模型 21
2.3 信息論基礎 22
2.3.1 熵 23
2.3.2 聯(lián)合熵和條件熵 23
2.3.3 相對熵與互信息 24
2.3.4 信道和信道容量 25
2.3.5 最大熵模型 26
2.3.6 信息論與機器學(xué)習 29
2.4 統計學(xué)習 29
2.4.1 輸入空間、特征空間與輸出空間 30
2.4.2 向量表示 30
2.4.3 數據集 31
2.4.4 從概率到函數 31
2.4.5 統計學(xué)習三要素 32
2.5 隱馬爾可夫模型 33
2.5.1 隨機過(guò)程和馬爾可夫鏈 33
2.5.2 隱馬爾可夫模型的定義 36
2.5.3 三個(gè)基本假設及適用場(chǎng)景 37
2.5.4 概率計算問(wèn)題之直接計算 39
2.5.5 概率計算問(wèn)題之前向算法 40
2.5.6 概率計算問(wèn)題之后向算法 42
2.5.7 預測問(wèn)題之維特比算法 45
2.5.8 學(xué)習問(wèn)題之Baum-Welch算法 48
2.6 條件隨機場(chǎng)模型 52
2.6.1 超越HMM 52
2.6.2 項目實(shí)踐 55
2.7 總結 59
3 自然語(yǔ)言處理基礎 60
3.1 中文自動(dòng)分詞 60
3.1.1 有向無(wú)環(huán)圖 61
3.1.2 最大匹配算法 63
3.1.3 算法評測 69
3.1.4 由字構詞的方法 72
3.2 詞性標注 77
3.2.1 詞性標注規范 77
3.2.2 隱馬爾可夫模型詞性標注 79
3.3 命名實(shí)體識別 81
3.4 上下文無(wú)關(guān)文法 82
3.4.1 原理介紹 83
3.4.2 算法淺析 83
3.5 依存關(guān)系分析 84
3.5.1 算法淺析 85
3.5.2 項目實(shí)踐 92
3.5.3 小結 94
3.6 信息檢索系統 95
3.6.1 什么是信息檢索系統 95
3.6.2 衡量信息檢索系統的關(guān)鍵指標 95
3.6.3 理解非結構化數據 97
3.6.4 倒排索引 98
3.6.5 處理查詢(xún) 100
3.6.6 項目實(shí)踐 102
3.6.7 Elasticsearch 103
3.6.8 小結 112
3.7 問(wèn)答語(yǔ)料 113
3.7.1 WikiQA 113
3.7.2 中文版保險行業(yè)語(yǔ)料庫Insurance QA 113
3.8 總結 115
4 深度學(xué)習初步 116
4.1 深度學(xué)習簡(jiǎn)史 116
4.1.1 感知機 116
4.1.2 寒冬和復蘇 117
4.1.3 走出實(shí)驗室 118
4.1.4 寒冬再臨 119
4.1.5 走向大規模實(shí)際應用 119
4.2 基本架構 120
4.2.1 神經(jīng)元 121
4.2.2 輸入層、隱藏層和輸出層 122
4.2.3 標準符號 123
4.3 神經(jīng)網(wǎng)絡(luò )是如何學(xué)習的 124
4.3.1 梯度下降 124
4.3.2 反向傳播理論 127
4.3.3 神經(jīng)網(wǎng)絡(luò )全連接層的實(shí)現 130
4.3.4 使用簡(jiǎn)單神經(jīng)網(wǎng)絡(luò )實(shí)現問(wèn)答任務(wù) 131
4.4 調整神經(jīng)網(wǎng)絡(luò )超參數 136
4.4.1 超參數 136
4.4.2 參考建議 137
4.5 卷積神經(jīng)網(wǎng)絡(luò )與池化 138
4.5.1 簡(jiǎn)介 138
4.5.2 卷積層的前向傳播 139
4.5.3 池化層的前向傳播 141
4.5.4 卷積層的實(shí)現 141
4.5.5 池化層的實(shí)現 145
4.5.6 使用卷積神經(jīng)網(wǎng)絡(luò )實(shí)現問(wèn)答任務(wù) 148
4.6 循環(huán)神經(jīng)網(wǎng)絡(luò )及其變種 149
4.6.1 簡(jiǎn)介 149
4.6.2 循環(huán)神經(jīng)網(wǎng)絡(luò ) 149
4.6.3 長(cháng)短期記憶單元和門(mén)控循環(huán)單元 153
4.6.4 循環(huán)神經(jīng)網(wǎng)絡(luò )的實(shí)現 156
4.6.5 使用循環(huán)神經(jīng)網(wǎng)絡(luò )實(shí)現問(wèn)答任務(wù) 159
4.7 簡(jiǎn)易神經(jīng)網(wǎng)絡(luò )工具包 160
5 詞向量實(shí)現及應用 161
5.1 語(yǔ)言模型 161
5.1.1 評測 162
5.1.2 ARPA格式介紹 162
5.1.3 項目實(shí)踐 163
5.2 One-hot表示法 164
5.3 詞袋模型 165
5.4 NNLM和RNNLM 165
5.5 word2vec 168
5.5.1 C-BOW的原理 169
5.5.2 Skip-gram的原理 172
5.5.3 計算效率優(yōu)化 174
5.5.4 項目實(shí)踐 179
5.6 GloVe 189
5.6.1 GloVe的原理 189
5.6.2 GloVe與word2vec的區別和聯(lián)系 191
5.6.3 項目實(shí)踐 193
5.7 fastText 198
5.7.1 fastText的原理 198
5.7.2 fastText與word2vec的區別和聯(lián)系 200
5.7.3 項目實(shí)踐 201
5.8 中文近義詞工具包 204
5.8.1 安裝 205
5.8.2 接口 205
5.9 總結 205
6 社區問(wèn)答中的QA匹配 206
6.1 社區問(wèn)答任務(wù)簡(jiǎn)介 206
6.2 孿生網(wǎng)絡(luò )模型 207
6.3 QACNN模型 207
6.3.1 模型構建 207
6.3.2 實(shí)驗結果 214
6.4 Decomposable Attention模型 214
6.4.1 模型介紹 214
6.4.2 模型構建 216
6.5 多比較方式的比較–集成模型 216
6.5.1 模型介紹 216
6.5.2 模型構建 218
6.6 BiMPM模型 219
6.6.1 模型介紹 219
6.6.2 模型構建 221
7 機器閱讀理解 222
7.1 完型填空型機器閱讀理解任務(wù) 222
7.1.1 CNN/Daily Mail數據集 222
7.1.2 Children’s Book Test(CBT)數據集 223
7.1.3 GA Reader模型 226
7.1.4 SA Reader模型 227
7.1.5 AoA Reader模型 228
7.2 答案抽取型機器閱讀理解任務(wù) 230
7.2.1 SQuAD數據集 231
7.2.2 MS MARCO數據集 232
7.2.3 TriviaQA數據集 234
7.2.4 DuReader數據集 235
7.2.5 BiDAF模型 235
7.2.6 R-Net模型 237
7.2.7 S-Net模型 240
7.3 答案選擇型機器閱讀理解任務(wù) 243
7.4 展望 245
參考文獻 246
➤