技术教育社区
www.teccses.org

用Python动手学强化学习(第2版全彩印刷)

封面

作者:(日)久保隆宏

页数:262

出版社:人民邮电出版社

出版日期:2021

ISBN:9787115564221

电子书格式:pdf/epub/txt

内容简介

强化学习是机器学习的重要分支之一。《用Python动手学强化学习》结合实际可运行的Python代码,通过简明的文字、丰富的插图和示例,通俗易懂地介绍了从基础概念到前沿应用等方方面面的内容,包括根据环境和经验制订计划的学习方法、强化学习与神经网络的组合,以及强化学习的弱点和克服方法。读者通过下载书中代码并亲自动手运行,可以快速入门强化学习并进行实践。

作者简介

[日]久保隆宏(作者)
任职于日本大型系统集成商TIS,具有丰富的机器学习研究和开发经验。论文共享网站站arXivTimes运营者,积极致力于技术普及,著有《TensorFlow应用指南》(合著)。
梁垿(译者)
硕士毕业于日本早稻田大学,研究方向为机器学习。目前在日本大型系统集成商TIS任自然语言处理工程师。热爱长跑与读书,喜欢科幻、蒸汽朋克、克苏鲁等题材的作品。
程引(译者)
工学博士学位,毕业于上海交通大学。目前在日本BizReach公司(Visional Group)AI部门任算法工程师。业务方向为推荐系统与自然语言处理,研究兴趣包括强化学习与自动控制。

本书特色

1.从基础到应用,一本书快速入门强化学习
2.基于Python实现强化学习,直观理解运作过程
3.内容丰富,涵盖强化学习基本概念、算法详解、前沿应用、弱点及对策
4.132张图表与大量示例,全彩印刷图文并茂提供良好阅读体验
5.附免费下载源代码为读者提供亲身实践机会

目录

第 1章 了解强化学习 1

1.1 强化学习与各关键词之间的关系 1

1.2 强化学习的优点和弱点 8

1.3 强化学习的问题设定:马尔可夫决策过程 9

第 2章 强化学习的解法(1):根据环境制订计划 21

2.1 价值的定义和计算:贝尔曼方程 22

2.2 基于动态规划法的价值近似的学习:价值迭代 28

2.3 基于动态规划法的策略的学习:策略迭代 32

2.4 基于模型的方法和无模型的方法的区别 36

第3章 强化学习的解法(2):根据经验制订计划 39

3.1 平衡经验的积累与利用:Epsilon-Greedy 算法 41

3.2 是根据实际奖励还是预测来修正计划:蒙特卡洛方法和时序差分学习 46

3.3 用经验来更新价值近似还是策略:基于价值和基于策略 62

第4章 使用面向强化学习的神经网络 73

4.1 将神经网络应用于强化学习 74

4.2 通过含有参数的函数实现价值近似:价值函数近似 100

4.3 将深度学习应用于价值近似:DQN 109

4.4 通过含有参数的函数实现策略:策略梯度 121

4.5 将深度学习应用于策略:A2C 133

4.6 是价值近似还是策略呢 153

第5章 强化学习的弱点 157

5.1 获取样本的效率低 157

5.2 容易陷入局部最优行动和过拟合160

5.3 复现性差 163

5.4 以弱点为前提的对策 164

第6章 克服强化学习弱点的方法 169

6.1 应对采样效率低的方法:与基于模型的方法一起使用、表征学习 170

6.2 改善复现性的方法:进化策略 198

6.3 应对局部最优行动和过拟合的方法:模仿学习和逆强化学习 206

第7章 强化学习的应用领域 237

7.1 行动的最优化 239

7.2 学习的最优化 248

参考文献 252

下载地址

立即下载

(解压密码:www.teccses.org)

Article Title:《用Python动手学强化学习(第2版全彩印刷)》
Article link:https://www.teccses.org/1272843.html