深度学习:从基础到实践
来源:哔哩哔哩    时间:2023-06-29 23:26:13


(资料图片仅供参考)

链接:/s/1yORREI0he6WVLmt2rIysuA?pwd=iy5j 

提取码:iy5j

1.“计算机图形研究领域最受尊敬的天才之一”Andrew Glassner编写。2. 基本概念+理论,不涉及复杂的数学内容。3. 近千张图和简单的例子,由浅入深地讲解深度学习的相关知识。

内容简介

本书从基本概念和理论入手,通过近千张图和简单的例子由浅入深地讲解深度学习的相关知识,且不涉及复杂的数学内容。本书分为上下两册。上册着重介绍深度学习的基础知识,旨在帮助读者建立扎实的知识储备,主要介绍随机性与基础统计学、训练与测试、过拟合与欠拟合、神经元、学习与推理、数据准备、分类器、集成算法、前馈网络、激活函数、反向传播等内容。下册介绍机器学习的 scikit-learn 库和深度学习的 Keras 库(这两种库均基于 Python 语言),以及卷积神经网络、循环神经网络、自编码器、强化学习、生成对抗网络等内容,还介绍了一些创造性应用,并给出了一些典型的数据集,以帮助读者更好地了解学习。本书适合想要了解和使用深度学习的人阅读,也可作为深度学习教学培训领域的入门级参考用书。

作者简介

Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年开始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司进行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域最受尊敬的天才之一。”

目录

上册第 1章 机器学习与深度学习入门 11.1 为什么这一章出现在这里 11.1.1 从数据中提取含义 11.1.2 专家系统 31.2 从标记数据中学习 41.2.1 一种学习策略 51.2.2 一种计算机化的学习策略 61.2.3 泛化 81.2.4 让我们仔细看看学习过程 91.3 监督学习 101.3.1 分类 101.3.2 回归 111.4 无监督学习 121.4.1 聚类 131.4.2 降噪 131.4.3 降维 141.5 生成器 161.6 强化学习 181.7 深度学习 191.8 接下来会讲什么 22参考资料 22第 2章 随机性与基础统计学 242.1 为什么这一章出现在这里 242.2 随机变量 242.3 一些常见的分布 292.3.1 均匀分布 302.3.2 正态分布 312.3.3 伯努利分布 342.3.4 多项式分布 342.3.5 期望值 352.4 独立性 352.5 抽样与放回 362.5.1 有放回抽样 362.5.2 无放回抽样 372.5.3 做选择 382.6 Bootstrapping算法 382.7 高维空间 412.8 协方差和相关性 432.8.1 协方差 432.8.2 相关性 442.9 Anscombe四重奏 47参考资料 48第3章 概率 503.1 为什么这一章出现在这里 503.2 飞镖游戏 503.3 初级概率学 523.4 条件概率 523.5 联合概率 553.6 边际概率 573.7 测量的正确性 583.7.1 样本分类 583.7.2 混淆矩阵 603.7.3 混淆矩阵的解释 623.7.4 允许错误分类 643.7.5 准确率 653.7.6 精度 663.7.7 召回率 673.7.8 关于精度和召回率 683.7.9 其他方法 693.7.10 同时使用精度和召回率 713.7.11 f1分数 723.8 混淆矩阵的应用 73参考资料 77第4章 贝叶斯定理 784.1 为什么这一章出现在这里 784.2 频率论者法则以及贝叶斯法则 784.2.1 频率论者法则 794.2.2 贝叶斯法则 794.2.3 讨论 794.3 抛硬币 804.4 这枚硬币公平吗 814.4.1 贝叶斯定理 864.4.2 贝叶斯定理的注意事项 874.5 生活中的贝叶斯定理 894.6 重复贝叶斯定理 914.6.1 后验-先验循环 924.6.2 例子:挑到的是哪种硬币 934.7 多个假设 97参考资料 101第5章 曲线和曲面 1025.1 为什么这一章出现在这里 1025.2 引言 1025.3 导数 1035.4 梯度 108参考资料 112第6章 信息论 1136.1 为什么这一章出现在这里 1136.2 意外程度与语境 1136.2.1 意外程度 1146.2.2 语境 1146.3 用比特作为单位 1156.4 衡量信息 1166.5 事件的大小 1176.6 自适应编码 1176.7 熵 1226.8 交叉熵 1236.8.1 两种自适应编码 1236.8.2 混合编码 1256.9 KL散度 127参考资料 128第7章 分类 1307.1 为什么这一章出现在这里 1307.2 二维分类 1307.3 二维多分类 1347.4 多维二元分类 1357.4.1 one-versus-rest 1357.4.2 one-versus-one 1367.5 聚类 1387.6 维度灾难 141参考资料 149第8章 训练与测试 1508.1 为什么这一章出现在这里 1508.2 训练 1508.3 测试数据 1538.4 验证数据 1568.5 交叉验证 1578.6 对测试结果的利用 160参考资料 161第9章 过拟合与欠拟合 1629.1 为什么这一章出现在这里 1629.2 过拟合与欠拟合 1629.2.1 过拟合 1629.2.2 欠拟合 1649.3 过拟合数据 1649.4 及早停止 1679.5 正则化 1689.6 偏差与方差 1699.6.1 匹配潜在数据 1709.6.2 高偏差,低方差 1729.6.3 低偏差,高方差 1739.6.4 比较这些曲线 1739.7 用贝叶斯法则进行线拟合 175参考资料 179第 10章 神经元 18110.1 为什么这一章出现在这里 18110.2 真实神经元 18110.3 人工神经元 18210.3.1 感知机 18310.3.2 感知机的历史 18310.3.3 现代人工神经元 18410.4 小结 188参考资料 188第 11章 学习与推理 19011.1 为什么这一章出现在这里 19011.2 学习的步骤 19011.2.1 表示 19011.2.2 评估 19211.2.3 优化 19311.3 演绎和归纳 19311.4 演绎 19411.5 归纳 19911.5.1 机器学习中的归纳术语 20111.5.2 归纳谬误 20211.6 组合推理 20311.7 操作条件 204参考资料 206第 12章 数据准备 20812.1 为什么这一章出现在这里 20812.2 数据变换 20812.3 数据类型 21012.4 数据清理基础 21212.4.1 数据清理 21212.4.2 现实中的数据清理 21312.5 归一化和标准化 21312.5.1 归一化 21312.5.2 标准化 21412.5.3 保存数据的转换方式 21512.5.4 转换方式 21612.6 特征选择 21712.7 降维 21712.7.1 主成分分析 21712.7.2 图像的标准化和PCA 22212.8 转换 22612.9 切片处理 22912.9.1 逐样本处理 23012.9.2 逐特征处理 23012.9.3 逐元素处理 23112.10 交叉验证转换 232参考资料 234第 13章 分类器 23613.1 为什么这一章出现在这里 23613.2 分类器的种类 23613.3 k近邻法 23713.4 支持向量机 24113.5 决策树 24713.5.1 构建决策树 25013.5.2 分离节点 25313.5.3 控制过拟合 25513.6 朴素贝叶斯 25513.7 讨论 259参考资料 260第 14章 集成算法 26114.1 为什么这一章出现在这里 26114.2 集成方法 26114.3 投票 26214.4 套袋算法 26214.5 随机森林 26414.6 极端随机树 26514.7 增强算法 265参考资料 270第 15章 scikit-learn 27215.1 为什么这一章出现在这里 27215.2 介绍 27315.3 Python 约定 27315.4 估算器 27615.4.1 创建 27615.4.2 学习fit()用法 27715.4.3 用predict()预测 27815.4.4 decision_function(),predict_proba() 27915.5 聚类 27915.6 变换 28215.7 数据精化 28615.8 集成器 28815.9 自动化 29015.9.1 交叉验证 29015.9.2 超参数搜索 29215.9.3 枚举型网格搜索 29415.9.4 随机型网格搜索 30015.9.5 pipeline 30015.9.6 决策边界 30715.9.7 流水线式变换 30815.10 数据集 30915.11 实用工具 31115.12 结束语 312参考资料 312第 16章 前馈网络 31416.1 为什么这一章出现在这里 31416.2 神经网络图 31416.3 同步与异步流 31616.4 权重初始化 317参考资料 320第 17章 激活函数 32117.1 为什么这一章出现在这里 32117.2 激活函数可以做什么 32117.3 基本的激活函数 32417.3.1 线性函数 32417.3.2 阶梯状函数 32517.4 阶跃函数 32517.5 分段线性函数 32717.6 光滑函数 32917.7 激活函数画廊 33317.8 归一化指数函数 333参考资料 335第 18章 反向传播 33618.1 为什么这一章出现在这里 33618.2 一种非常慢的学习方式 33718.2.1 缓慢的学习方式 33918.2.2 更快的学习方式 34018.3 现在没有激活函数 34118.4 神经元输出和网络误差 34218.5 微小的神经网络 34518.6 第 1步:输出神经元的delta 34718.7 第 2步:使用delta改变权重 35318.8 第3步:其他神经元的delta 35618.9 实际应用中的反向传播 35918.10 使用激活函数 36318.11 学习率 36718.12 讨论 37418.12.1 在一个地方的反向传播 37418.12.2 反向传播不做什么 37418.12.3 反向传播做什么 37518.12.4 保持神经元快乐 37518.12.5 小批量 37718.12.6 并行更新 37818.12.7 为什么反向传播很有吸引力 37818.12.8 反向传播并不是有保证的 37918.12.9 一点历史 37918.12.10 深入研究数学 380参考资料 381第 19章 优化器 38319.1 为什么这一章出现在这里 38319.2 几何误差 38319.2.1 最小值、最大值、平台和鞍部 38319.2.2 作为二维曲线的误差 38619.3 调整学习率 38819.3.1 固定大小的更新 38819.3.2 随时间改变学习率 39419.3.3 衰减规划 39619.4 更新策略 39819.4.1 批梯度下降 39819.4.2 随机梯度下降 40019.4.3 mini batch梯度下降 40119.5 梯度下降变体 40319.5.1 动量 40319.5.2 Nesterov动量 40819.5.3 Adagrad 41019.5.4 Adadelta和RMSprop 41119.5.5 Adam 41319.6 优化器选择 414参考资料 415下册第 20章 深度学习 41720.1 为什么这一章出现在这里 41720.2 深度学习概述 41720.3 输入层和输出层 41920.3.1 输入层 41920.3.2 输出层 42020.4 深度学习层纵览 42020.4.1 全连接层 42120.4.2 激活函数 42120.4.3 dropout 42220.4.4 批归一化 42320.4.5 卷积层 42420.4.6 池化层 42520.4.7 循环层 42620.4.8 其他工具层 42720.5 层和图形符号总结 42820.6 一些例子 42920.7 构建一个深度学习器 43420.8 解释结果 435参考资料 440第 21章 卷积神经网络 44121.1 为什么这一章出现在这里 44121.2 介绍 44121.2.1 “深度”的两重含义 44221.2.2 放缩后的值之和 44321.2.3 权重共享 44521.2.4 局部感知域 44621.2.5 卷积核 44721.3 卷积 44721.3.1 过滤器 45021.3.2 复眼视图 45221.3.3 过滤器的层次结构 45321.3.4 填充 45821.3.5 步幅 45921.4 高维卷积 46221.4.1 具有多个通道的过滤器 46321.4.2 层次结构的步幅 46521.5 一维卷积 46621.6 1×1卷积 46621.7 卷积层 46821.8 转置卷积 46921.9 卷积网络样例 47221.9.1 VGG16 47521.9.2 有关过滤器的其他内容:第 1部分 47721.9.3 有关过滤器的其他内容:第 2部分 48121.10 对手 483参考资料 485第 22章 循环神经网络 48822.1 为什么这一章出现在这里 48822.2 引言 48922.3 状态 49022.4 RNN单元的结构 49422.4.1 具有更多状态的单元 49622.4.2 状态值的解释 49822.5 组织输入 49822.6 训练RNN 50022.7 LSTM和GRU 50222.7.1 门 50322.7.2 LSTM 50522.8 RNN的结构 50822.8.1 单个或多个输入和输出 50822.8.2 深度RNN 51022.8.3 双向RNN 51122.8.4 深度双向RNN 51222.9 一个例子 513参考资料 517第 23章 Keras第 1部分 52023.1 为什么这一章出现在这里 52023.1.1 本章结构 52023.1.2 笔记本 52123.1.3 Python警告 52123.2 库和调试 52123.2.1 版本和编程风格 52223.2.2 Python编程和调试 52223.3 概述 52323.3.1 什么是模型 52423.3.2 张量和数组 52423.3.3 设置Keras 52423.3.4 张量图像的形状 52523.3.5 GPU和其他加速器 52723.4 准备开始 52823.5 准备数据 53023.5.1 重塑 53023.5.2 加载数据 53623.5.3 查看数据 53723.5.4 训练-测试拆分 54123.5.5 修复数据类型 54123.5.6 归一化数据 54223.5.7 固定标签 54423.5.8 在同一个地方进行预处理 54723.6 制作模型 54823.6.1 将网格转换为列表 54823.6.2 创建模型 55023.6.3 编译模型 55423.6.4 模型创建摘要 55623.7 训练模型 55723.8 训练和使用模型 55923.8.1 查看输出 56023.8.2 预测 56223.8.3 训练历史分析 56623.9 保存和加载 56723.9.1 将所有内容保存在一个文件中 56723.9.2 仅保存权重 56823.9.3 仅保存架构 56823.9.4 使用预训练模型 56923.9.5 保存预处理步骤 56923.10 回调函数 57023.10.1 检查点 57023.10.2 学习率 57223.10.3 及早停止 573参考资料 575第 24章 Keras第 2部分 57724.1 为什么这一章出现在这里 57724.2 改进模型 57724.2.1 超参数计数 57724.2.2 改变一个超参数 57824.2.3 其他改进方法 58024.2.4 再增加一个全连接层 58124.2.5 少即是多 58224.2.6 添加dropout 58424.2.7 观察 58724.3 使用scikit-learn 58824.3.1 Keras包装器 58824.3.2 交叉验证 59124.3.3 归一化交叉验证 59424.3.4 超参数搜索 59624.4 卷积网络 60224.4.1 工具层 60324.4.2 为CNN准备数据 60424.4.3 卷积层 60624.4.4 对MNIST使用卷积 61124.4.5 模式 61924.4.6 图像数据增强 62124.4.7 合成数据 62324.4.8 CNN的参数搜索 62424.5 RNN 62424.5.1 生成序列数据 62524.5.2 RNN数据准备 62724.5.3 创建并训练RNN 63124.5.4 分析RNN性能 63424.5.5 一个更复杂的数据集 63924.5.6 深度RNN 64124.5.7 更多数据的价值 64324.5.8 返回序列 64624.5.9 有状态的RNN 64924.5.10 时间分布层 65024.5.11 生成文本 65324.6 函数式API 65824.6.1 输入层 65924.6.2 制作函数式模型 660参考资料 664第 25章 自编码器 66525.1 为什么这一章出现在这里 66525.2 引言 66625.2.1 有损编码和无损编码 66625.2.2 区域编码 66725.2.3 混合展示 66925.3 最简单的自编码器 67125.4 更好的自编码器 67525.5 探索自编码器 67725.5.1 深入地观察隐藏变量 67725.5.2 参数空间 67925.5.3 混合隐藏变量 68325.5.4 对不同类型的输入进行预测 68425.6 讨论 68525.7 卷积自编码器 68525.7.1 混合卷积自编码器中的隐藏变量 68825.7.2 在CNN中对不同类型的输入进行预测 68925.8 降噪 68925.9 VAE 69125.9.1 隐藏变量的分布 69125.9.2 VAE的结构 69225.10 探索VAE 697参考资料 703第 26章 强化学习 70426.1 为什么这一章出现在这里 70426.2 目标 70426.3 强化学习的结构 70826.3.1 步骤1:智能体选择一个动作 70926.3.2 步骤2:环境做出响应 71026.3.3 步骤3:智能体进行自我更新 71126.3.4 简单版本的变体 71226.3.5 回到主体部分 71326.3.6 保存经验 71426.3.7 奖励 71426.4 翻转 71826.5 L学习 71926.6 Q学习 72826.6.1 Q值与更新 72926.6.2 Q学习策略 73126.6.3 把所有东西放在一起 73226.6.4 显而易见而又被忽略的事实 73326.6.5 Q学习的动作 73426.7 SARSA 73926.7.1 实际中的SARSA 74126.7.2 对比Q学习和SARSA 74426.8 强化学习的全貌 74826.9 经验回放 74926.10 两个应用 750参考资料 751第 27章 生成对抗网络 75327.1 为什么这一章出现在这里 75327.2 一个比喻:伪造钞票 75427.2.1 从经验中学习 75627.2.2 用神经网络伪造 75727.2.3 一个学习回合 75927.3 为什么要用“对抗” 76027.4 GAN的实现 76027.4.1 鉴别器 76127.4.2 生成器 76127.4.3 训练GAN 76227.4.4 博弈 76327.5 实际操作中的GAN 76427.6 DCGAN 76927.7 挑战 77127.7.1 使用大样本 77227.7.2 模态崩溃 772参考资料 773第 28章 创造性应用 77528.1 为什么这一章出现在这里 77528.2 可视化过滤器 77528.2.1 选择网络 77528.2.2 可视化一个过滤器 77628.2.3 可视化层 77828.3 deep dreaming 77928.4 神经风格迁移 78228.4.1 在矩阵中捕获风格 78328.4.2 宏观蓝图 78428.4.3 内容损失 78528.4.4 风格损失 78628.4.5 实现风格迁移 78928.4.6 讨论 79328.5 为本书生成更多的内容 794参考资料 795第 29章 数据集 79729.1 公共数据集 79729.2 MNIST和Fashion-MNIST 79729.3 库的内建数据集 79829.3.1 scikit-learn 79829.3.2 Keras 798

X 关闭

Copyright ©  2015-2022 每日手机网版权所有  备案号:浙ICP备2022016517号-15   联系邮箱:5 146 761 13 @qq.com