首页>电子书>安全与解密>Deep Learning(中文版)(An MIT Press Book)

Deep Learning(中文版)(An MIT Press Book)

ls_1998  上传  34.35 MB   文件格式  PDF DeepLeaning 中文版 MIT 人工智能

Deep Learning(中文版)(An MIT Press Book)
仅供学习使用,不得用于商业目的https://github.com/exacity/deeplearningbook-chinese
目录
第一章前言
1.1本书面向的读者.
1.2深度学习的历史趋势
10
1.21神经网络的众多名称和命运变迁
1.2.2与日俱增的数据量
1.2.3与日俱增的模型规模
16
2.4与日俱增的精度、复杂度和对现实世界的冲击
.19
第一部分应用数学与机器学习基础
22
第二章线性代数
24
2.1
向量,矩阵和张量
24
22矩阵和向量相乘
26
23单位矩阵和逆矩阵
28
24线性相关和生成子空间
30
25范数
31
2.6特殊类型的矩阵和向量
33
2.7特征分解
34
28奇异值分解
.36
29 Moore- Penrose伪逆
37
2.10迹运算
211行列式
39
2.12实例:主成分分析
.39

仅供学习使用,不得用于商业目的https://github.com/exacity/deeplearningbook-chinese
目录
第三章概率与信息论
44
3.1为什么要用概率?
.44
3.2随机变量
46
3.3概率分布
.47
3.3.1离散型变量和概率分布律函数
.47
3.32连续型变量和概率密度函数
48
3.4边缘概率
49
35条件概率
49
3.6条件概率的链式法则
50
37独立性和条件独立性
38期望,方差和协方差
.51
39常用概率分布
52
391 Bernoulli分布
52
392 Multinoulli分布
53
3.9.3高斯分布
394指数分布和 Laplace分布
55
39.5 Dirac分布和经验分布
55
396分布的混合
56
3.10常用函数的一些性质
57
3.11贝叶斯规则
3.12连续型变量的技术细节
.60
3.13信息论
..62
3.14结构化概率模型
.65
第四章数值计算
69
4.1上溢和下溢
69
4.2病态条件数
70
4.3基于梯度的优化方法
.71
4.3.1梯度之上: Jacobian和 Hessian矩阵
74
4.4约束优化
79
45实例:线性最小二乘
.82

仅供学习使用,不得用于商业目的https://github.com/exacity/deeplearningbook-chinese
目录
第五章机器学习基础
84
51学习算法
84
511任务,T
85
5.1.2性能度量,P
88
5.1.3经验,E
89
5.1.4实例:线性回归
5.2容量,过拟合和欠拟合
93
5.21没有免费午餐定理
98
5.22正则化
100
53超参数和验证集
102
531交叉验证
103
5.4估计,偏差和方差
103
54.1点估计
.103
542偏差
.104
543方差和标准误差
108
5.4.4权衡偏值和方差以最小化均方误差
.109
5.4.5
致性
.111
5.5最大似然估计
111
55.1条件对数似然和均方误差
113
552最大似然的性质
114
5.6贝叶斯统计
.115
5.6.1最大后验(MAP)估计
117
57监督学习算法
118
57.1概率监督学习
.118
5.72支持向量机
.,,119
5.7.3其他简单的监督学习算法
121
58无监督学习算法
124
5.8.1主成分分析
124
58.2k-均值聚类
127
5.9随机梯度下降
.128
5.10构建机器学习算法
129
5.11推动深度学习的挑战
130
5.111维数灾难
.131

仅供学习使用,不得用于商业目的https://github.com/exacity/deeplearningbook-chinese
6
目录
5.11.2局部不变性和平滑正则化
131
5113流形学习
134
第二部分深层网络:现代实践
138
第六章深度前馈网络
140
6.1实例:学习XOR
.142
6.2基于梯度的学习
.147
6.2.1代价函数
148
6.2.1.1用最大似然学习条件分布
.149
6.2.1.2学习条件统计量
150
6.22输出单元
151
6.22.1用于高斯输出分布的线性单元
151
62.22用于 Bernoulli输出分布的 sigmoid单元
.152
6.22.3用于 Multinoulli输出分布的 softmax单元
.154
6.22.4其他的输出类型
.156
6.3隐藏单元
160
631整流线性单元及其扩展
161
632 logistic sigmoid与双曲正切函数
163
6.3.3其他隐藏单元
163
6.4结构设计
.165
6.4.1通用近似性质和深度
.165
6.42其他结构上的考虑
168
6.5反向传播和其他的微分算法
170
65.1计算图
170
6.52微积分中的链式法则
171
653递归地使用链式法则来实现BP
173
6.5.4全连接MLP中BP的计算
175
655符号到符号的导数
176
656一般化的BP
179
657实例:用于MLP训练的BP
183
6.58复杂化
.184

仅供学习使用,不得用于商业目的https://github.com/exacity/deeplearningbook-chinese
目录
6.59深度学习界以外的微分
.185
6.5.10高阶微分
.187
6.6历史小记
187
第七章深度学习的正则化
191
7.1参数范数惩罚
192
7.1.12参数正则化
193
7.1.2L1参数正则化
196
72作为约束的范数惩罚
198
7.3正则化和欠约束问题
7.4数据集增强
22
7.5噪声鲁棒性
.202
7.5.1向输出目标注入噪声
203
7.6半监督学习
.203
7.7多任务学习
204
7.8提前终止
205
7.9参数绑定和参数共享
211
79.1卷积神经网络
212
7.10稀疏表示
.212
711 Bagging和其他集成的方法
214
7. 12 Dropout
216
7.13对抗训练
224
7.14切面距离、正切传播和流形正切分类器
.225
第八章深度模型中的优化
228
8.1学习和优化有什么不同
228
8.1.1经验风险最小化
.229
8.1.2替代损失函数和提前终止
.230
8.1.3批算法和 minibatch算法
.230
82神经网络的优化挑战
234
8.21病态
234
8.2.2局部极小值
.235
8.23高原,鞍点和其他平坦区域
237

仅供学习使用,不得用于商业目的https://github.com/exacity/deeplearningbook-chinese
目录
8.2.4悬崖和梯度爆炸
239
8.25长期依赖
240
8.26非精确梯度
.241
8.27局部和全局结构间的弱对应
241
8.28优化的理论限制
.243
83基本算法
243
8.3.1随机梯度下降
243
832动量
245
833 Nesterov动量
248
8.4参数初始化策略
.249
85自适应学习率的算法
253
8.5.1 Adagrad
254
8.5.2 RMSProp
254
8.5.3 Adam
255
8.5.4选择正确的优化算法
256
86二阶近似方法
257
8.6.1牛顿方法
.258
8.6.2共轭梯度
259
8.6.3 BFGS
262
87优化技巧和元算法
263
8.7.1 batch normalization
.263
872坐标下降
266
8.7.3 Polyak平均
266
874监督预训练
267
8.75设计有助于优化的模型
269
8.7.6连续方法和课程学习
270
第九章卷积神经网络
273
9.1卷积运算
274
9.2动机
276
9.3池化
282
9.4卷积与池化作为一种无限强的先验
287
9.5基本卷积函数的变体
288

仅供学习使用,不得用于商业目的https://github.com/exacity/deeplearningbook-chinese
目录
9.6结构化输出.
.298
9.7数据类型
9.8高效的卷积算法
23
9.9随机或无监督的特征
.301
9.10卷积神经网络的神经科学基础
.302
911卷积神经网络与深度学习的历史
308
第十章序列建模:循环和递归网络
310
10.1展开计算图.
311
10.2循环神经网络
314
10.2.1 Teacher Forcing和输出循环网络
317
10.22计算循环神经网络的梯度
319
10.2.3作为有向图模型的循环网络
.320
10.2.4基于上下文的RNN序列建模
324
10.3双向RNN
..326
10.4基于编码-解码的序列到序列架构
.328
10.5深度循环网络
329
10.6递归神经网络
.331
10.7长期依赖的挑战
333
10.8回声状态网络
335
0.9渗漏单元和其他多时间尺度的策略
.337
10.9.1时间维度的跳跃连接
337
10.9.2渗漏单元和一系列不同时间尺度
.337
10.9.3删除连接
338
10.10长短期记忆和其他门控RNN
338
10.10.1LSTM
.,,3:39
10.10.2其他门控RNN
341
10.11优化长期依赖
.341
10.11.1截断梯度
342
10.11.2引导信息流的正则化
344
10.12外显记忆
.344

仅供学习使用,不得用于商业目的https://github.com/exacity/deeplearningbook-chinese
10
目录
第十一章实用方法
348
11.1性能度量
349
11.2默认的基准模型
351
11.3是否收集更多数据
352
11.4选择超参数
353
11.4.1手动调整超参数
353
11.4.2自动超参数优化算法
356
11.4.3网格搜索
357
11.4.4随机搜索
.358
11.4.5基于模型的超参数优化
359
11.5调试技巧
360
11.6示例:多位数字识别
363
第十二章应用
366
12.1大规模深度学习
,.366
12.1.1快速的CPU实现
366
12.1.2GPU实现
.367
12.1.3大规模的分布式实现
.369
12.1.4模型压缩
,.370
12.1.5动态结构
.370
12.1.6深度网络的专用硬件实现
372
12.2计算机视觉
.373
122.1预处理
...374
122.1.1对比度归一化
.375
12.2.2数据集增强
378
123语音识别
.378
12.4自然语言处理
380
12.4.1 n-gram
.381
12.4.2神经语言模型
383
12.4.3高维输出
384
124.3.1使用短列表
...384
124.3.2分层 Softmax
.385
124.3.3重要采样
.387

普通下载
意见反馈 联系客服 返回顶部

登录注册找回密码

充值账单订单冲正

*扫码按套餐金额一次性付款立即点击“确认”按钮

*推荐用chrome浏览器访问本站,禁用360浏览器

账号剩余积分: 0
啥都没有哦

*请注意有些支付宝订单号存在换行情况请完整复制

*输入正确支付宝订单号,2021开头的,点“确认”按钮

*有疑问请及时联系Q 421644184或此Q对应的邮箱

*提供支付宝支付订单号截图及平台用户名


不知道如何查看订单号?点我来告知您


在线咨询 x
如果您有任何疑问
点击咨询