登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書

『簡體書』深度学习入门 基于Python的理论与实现

書城自編碼: 3639938
分類:簡體書→大陸圖書→計算機/網絡程序設計
作者: 斋藤康毅
國際書號(ISBN): 9787115485588
出版社: 人民邮电出版社
出版日期: 2021-05-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 87.3

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
武人琴音(十周年纪念版 逝去的武林系列收官之作 形意拳一门三代:尚云祥、韩伯言、韩瑜的人生故事 凸显百年武人命运)
《 武人琴音(十周年纪念版 逝去的武林系列收官之作 形意拳一门三代:尚云祥、韩伯言、韩瑜的人生故事 凸显百年武人命运) 》

售價:HK$ 43.7
剑桥斯堪的纳维亚戏剧史(剑桥世界戏剧史译丛)
《 剑桥斯堪的纳维亚戏剧史(剑桥世界戏剧史译丛) 》

售價:HK$ 154.6
禅心与箭术:过松弛而有力的生活(乔布斯精神导师、世界禅者——铃木大拙荐)
《 禅心与箭术:过松弛而有力的生活(乔布斯精神导师、世界禅者——铃木大拙荐) 》

售價:HK$ 66.1
先进电磁屏蔽材料——基础、性能与应用
《 先进电磁屏蔽材料——基础、性能与应用 》

售價:HK$ 221.8
可转债投资实战
《 可转债投资实战 》

售價:HK$ 99.7
王氏之死(新版,史景迁成名作)
《 王氏之死(新版,史景迁成名作) 》

售價:HK$ 54.9
敢为天下先:三年建成港科大
《 敢为天下先:三年建成港科大 》

售價:HK$ 77.3
长高食谱 让孩子长高个的饮食方案 0-15周岁儿童调理脾胃食谱书籍宝宝辅食书 让孩子爱吃饭  6-9-12岁儿童营养健康食谱书大全 助力孩子身体棒胃口好长得高
《 长高食谱 让孩子长高个的饮食方案 0-15周岁儿童调理脾胃食谱书籍宝宝辅食书 让孩子爱吃饭 6-9-12岁儿童营养健康食谱书大全 助力孩子身体棒胃口好长得高 》

售價:HK$ 47.0

 

建議一齊購買:

+

HK$ 130.7
《深度学习进阶 自然语言处理》
+

HK$ 133.7
《自然语言处理入门》
+

HK$ 118.8
《机器学习——原理、算法与应用》
+

HK$ 196.0
《机器学习与应用》
+

HK$ 115.1
《写给新手的深度学习——用Python学习神经网络和反向传播》
+

HK$ 115.3
《Kubernetes修炼手册》
編輯推薦:
1.日本深度学习入门经典畅销书,原版上市不足2年印刷已达100 000册。长期位列日亚“人工智能”类图书榜首,众多五星好评。
2.使用Python 3,尽量不依赖外部库或工具,从零创建一个深度学习模型。
3.示例代码清晰,源代码可下载,需要的运行环境非常简单。读者可以一边读书一边执行程序,简单易上手。
4.使用平实的语言,结合直观的插图和具体的例子,将深度学习的原理掰开揉碎讲解,简明易懂。
5.使用计算图介绍复杂的误差反向传播法,非常直观。
6.相比AI圣经“花书”,本书更合适入门。

对于非AI方向的技术人员,本书将大大降低入门深度学习的门槛;对于在校大学生、研究生,本书不失为学习深度学习的一本好教材;即便是在工作中已经熟练使用框架开发各类深度学习模型的读者,也可以从本书中获得新的体会。——摘自本书译者序
內容簡介:
本书是深度学习真正意义上的入门书,深入浅出地剖析了深度学习的原理和相关技术。书中使用Python3,尽量不依赖外部库或工具,从基本的数学知识出发,带领读者从零创建一个经典的深度学习网络,使读者在此过程中逐步理解深度学习。书中不仅介绍了深度学习和神经网络的概念、特征等基础知识,对误差反向传播法、卷积神经网络等也有深入讲解,此外还介绍了深度学习相关的实用技巧,自动驾驶、图像生成、强化学习等方面的应用,以及为什么加深层可以提高识别精度等疑难的问题。
本书适合深度学习初学者阅读,也可作为高校教材使用。
關於作者:
斋藤康毅(作者) 东京工业大学毕业,并完成东京大学研究生院课程。现从事计算机视觉与机器学习相关的研究和开发工作。是Introducing Python、Python in Practice、The Elements of Computing Systems、Building Machine Learning Systems with Python的日文版译者。 陆宇杰(译者) 众安科技NLP算法工程师。主要研究方向为自然语言处理及其应用,对图像识别、机器学习、深度学习等领域有密切关注。Python爱好者。
目錄
目录
译者序 xiii
前言 xv
第 1 章 Python入门 1
1.1 Python是什么 1
1.2 Python的安装 2
1.2.1 Python版本 2
1.2.2 使用的外部库 2
1.2.3 Anaconda发行版 3
1.3 Python解释器 4
1.3.1 算术计算 4
1.3.2 数据类型 5
1.3.3 变量 5
1.3.4 列表 6
1.3.5 字典 7
1.3.6 布尔型 7
1.3.7 if 语句 8
1.3.8 for 语句 8
1.3.9 函数 9
1.4 Python脚本文件 9
1.4.1 保存为文件 9
1.4.2 类 10
1.5 NumPy 11
1.5.1 导入NumPy 11
1.5.2 生成NumPy数组 12
1.5.3 NumPy 的算术运算 12
1.5.4 NumPy的N维数组 13
1.5.5 广播 14
1.5.6 访问元素 15
1.6 Matplotlib 16
1.6.1 绘制简单图形 16
1.6.2 pyplot 的功能 17
1.6.3 显示图像 18
1.7 小结 19
第 2 章 感知机 21
2.1 感知机是什么 21
2.2 简单逻辑电路 23
2.2.1 与门 23
2.2.2 与非门和或门 23
2.3 感知机的实现 25
2.3.1 简单的实现 25
2.3.2 导入权重和偏置 26
2.3.3 使用权重和偏置的实现 26
2.4 感知机的局限性 28
2.4.1 异或门 28
2.4.2 线性和非线性 30
2.5 多层感知机 31
2.5.1 已有门电路的组合 31
2.5.2 异或门的实现 33
2.6 从与非门到计算机 35
2.7 小结 36
第3 章 神经网络 37
3.1 从感知机到神经网络 37
3.1.1 神经网络的例子 37
3.1.2 复习感知机 38
3.1.3 激活函数登场 40
3.2 激活函数 42
3.2.1 sigmoid 函数 42
3.2.2 阶跃函数的实现 43
3.2.3 阶跃函数的图形 44
3.2.4 sigmoid 函数的实现 45
3.2.5 sigmoid 函数和阶跃函数的比较 46
3.2.6 非线性函数 48
3.2.7 ReLU函数 49
3.3 多维数组的运算 50
3.3.1 多维数组 50
3.3.2 矩阵乘法 51
3.3.3 神经网络的内积 55
3.4 3 层神经网络的实现 56
3.4.1 符号确认 57
3.4.2 各层间信号传递的实现 58
3.4.3 代码实现小结 62
3.5 输出层的设计 63
3.5.1 恒等函数和softmax 函数 64
3.5.2 实现softmax 函数时的注意事项 66
3.5.3 softmax 函数的特征 67
3.5.4 输出层的神经元数量 68
3.6 手写数字识别 69
3.6.1 MNIST数据集 70
3.6.2 神经网络的推理处理 73
3.6.3 批处理 75
3.7 小结 79
第4 章 神经网络的学习 81
4.1 从数据中学习 81
4.1.1 数据驱动 82
4.1.2 训练数据和测试数据 84
4.2 损失函数 85
4.2.1 均方误差 85
4.2.2 交叉熵误差 87
4.2.3 mini-batch 学习 88
4.2.4 mini-batch 版交叉熵误差的实现 91
4.2.5 为何要设定损失函数 92
4.3 数值微分 94
4.3.1 导数 94
4.3.2 数值微分的例子 96
4.3.3 偏导数 98
4.4 梯度 100
4.4.1 梯度法 102
4.4.2 神经网络的梯度 106
4.5 学习算法的实现 109
4.5.1 2 层神经网络的类 110
4.5.2 mini-batch 的实现 114
4.5.3 基于测试数据的评价 116
4.6 小结 118
第5 章 误差反向传播法 121
5.1 计算图 121
5.1.1 用计算图求解 122
5.1.2 局部计算 124
5.1.3 为何用计算图解题 125
5.2 链式法则 126
5.2.1 计算图的反向传播 127
5.2.2 什么是链式法则 127
5.2.3 链式法则和计算图 129
5.3 反向传播 130
5.3.1 加法节点的反向传播 130
5.3.2 乘法节点的反向传播 132
5.3.3 苹果的例子 133
5.4 简单层的实现 135
5.4.1 乘法层的实现 135
5.4.2 加法层的实现 137
5.5 激活函数层的实现 139
5.5.1 ReLU层 139
5.5.2 Sigmoid 层 141
5.6 Affine/Softmax层的实现 144
5.6.1 Affine层 144
5.6.2 批版本的Affine层 148
5.6.3 Softmax-with-Loss 层 150
5.7 误差反向传播法的实现 154
5.7.1 神经网络学习的全貌图 154
5.7.2 对应误差反向传播法的神经网络的实现 155
5.7.3 误差反向传播法的梯度确认 158
5.7.4 使用误差反向传播法的学习 159
5.8 小结 161
第6 章 与学习相关的技巧 163
6.1 参数的更新 163
6.1.1 探险家的故事 164
6.1.2 SGD 164
6.1.3 SGD的缺点 166
6.1.4 Momentum 168
6.1.5 AdaGrad 170
6.1.6 Adam 172
6.1.7 使用哪种更新方法呢 174
6.1.8 基于MNIST数据集的更新方法的比较 175
6.2 权重的初始值 176
6.2.1 可以将权重初始值设为0 吗 176
6.2.2 隐藏层的激活值的分布 177
6.2.3 ReLU的权重初始值 181
6.2.4 基于MNIST数据集的权重初始值的比较 183
6.3 Batch Normalization 184
6.3.1 Batch Normalization 的算法 184
6.3.2 Batch Normalization 的评估 186
6.4 正则化 188
6.4.1 过拟合 189
6.4.2 权值衰减 191
6.4.3 Dropout 192
6.5 超参数的验证 195
6.5.1 验证数据 195
6.5.2 超参数的化 196
6.5.3 超参数化的实现 198
6.6 小结 200
第7 章 卷积神经网络 201
7.1 整体结构 201
7.2 卷积层 202
7.2.1 全连接层存在的问题 203
7.2.2 卷积运算 203
7.2.3 填充 206
7.2.4 步幅 207
7.2.5 3 维数据的卷积运算 209
7.2.6 结合方块思考 211
7.2.7 批处理 213
7.3 池化层 214
7.4 卷积层和池化层的实现 216
7.4.1 4 维数组 216
7.4.2 基于im2col 的展开 217
7.4.3 卷积层的实现 219
7.4.4 池化层的实现 222
7.5 CNN的实现 224
7.6 CNN的可视化 228
7.6.1 第 1 层权重的可视化 228
7.6.2 基于分层结构的信息提取 230
7.7 具有代表性的CNN 231
7.7.1 LeNet 231
7.7.2 AlexNet 232
7.8 小结 233
第8 章 深度学习 235
8.1 加深网络 235
8.1.1 向更深的网络出发 235
8.1.2 进一步提高识别精度 238
8.1.3 加深层的动机 240
8.2 深度学习的小历史 242
8.2.1 ImageNet 243
8.2.2 VGG 244
8.2.3 GoogLeNet 245
8.2.4 ResNet 246
8.3 深度学习的高速化 248
8.3.1 需要努力解决的问题 248
8.3.2 基于GPU的高速化 249
8.3.3 分布式学习 250
8.3.4 运算精度的位数缩减 252
8.4 深度学习的应用案例 253
8.4.1 物体检测 253
8.4.2 图像分割 255
8.4.3 图像标题的生成 256
8.5 深度学习的未来 258
8.5.1 图像风格变换 258
8.5.2 图像的生成 259
8.5.3 自动驾驶 261
8.5.4 Deep Q-Network(强化学习) 262
8.6 小结 264
附录A Softmax-with-Loss 层的计算图 267
A.1 正向传播 268
A.2 反向传播 270
A.3 小结 277
参考文献 279

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.