您好,欢迎光临有路网!
Python强化学习:算法、核心技术与行业应用
QQ咨询:
有路璐璐:

Python强化学习:算法、核心技术与行业应用

  • 作者:(美)埃内斯·比尔金
  • 出版社:机械工业出版社
  • ISBN:9787111734895
  • 出版日期:2023年10月01日
  • 页数:364
  • 定价:¥129.00
  • 分享领佣金
    手机购买
    城市
    店铺名称
    店主联系方式
    店铺售价
    库存
    店铺得分/总交易量
    发布时间
    操作

    新书比价

    网站名称
    书名
    售价
    优惠
    操作

    图书详情

    内容提要
    本书使用受现实世界商业和行业问题启发的实际示例来讲授强化学习技术的相关知识。本书分为四部分:部分涵盖强化学习的必要背景,包括定义、数学基础和强化学习解决方案的概述;第二部分深入介绍先进的强化学习算法(规模化的深度Q-学习、基于策略的方法、基于模型的方法、多智能体强化学习等),包括每种算法的优缺点;第三部分介绍强化学习中的**技术,包括机器教学、泛化和域随机化、元强化学习等主题,还涵盖强化学习中有助于改进模型的各种**主题;第四部分讲解强化学习的各种应用,例如自主系统、供应链管理、营销和金融、智慧城市与网络**等,并讨论强化学习领域的一些挑战及未来方向。学完本书,你将掌握如何训练和部署自己的强化学习智能体来解决强化学习问题。
    目录
    CONTENTS 目 录 译者序 前言 作者简介 审校者简介 **部分 强化学习基础 第1章 强化学习简介 2 1.1 为什么选择强化学习 2 1.2 机器学习的三种范式 3 1.2.1 监督学习 3 1.2.2 无监督学习 4 1.2.3 强化学习 4 1.3 强化学习应用领域和成功案例 5 1.3.1 游戏 6 1.3.2 机器人技术和自主系统 7 1.3.3 供应链 8 1.3.4 制造业 8 1.3.5 个性化和**系统 9 1.3.6 智慧城市 9 1.4 强化学习问题的元素 10 1.4.1 强化学习概念 10 1.4.2 将井字棋游戏建模为强化 学习问题 11 1.5 设置强化学习环境 12 1.5.1 硬件要求 12 1.5.2 操作系统 13 1.5.3 软件工具箱 13 1.6 总结 14 1.7 参��文献 15 第2章 多臂老虎机 17 2.1 探索–利用权衡 17 2.2 什么是多臂老虎机问题 18 2.2.1 问题定义 18 2.2.2 一个简单多臂老虎机问题 的实验 19 2.3 案例研究:在线广告 22 2.4 A/B/n测试 23 2.4.1 符号 23 2.4.2 应用于在线广告场景 24 2.4.3 A/B/n测试的优缺点 27 2.5 ε-贪心策略行动 27 2.5.1 应用于在线广告场景 27 2.5.2 ε-贪心策略行动的优缺点 29 2.6 使用置信上界进行行动选择 30 2.6.1 应用于在线广告场景 30 2.6.2 使用置信上界的优缺点 32 2.7 汤普森(后)采样 33 2.7.1 应用于在线广告场景 33 2.7.2 汤普森采样的优缺点 36 2.8 总结 36 2.9 参考文献 36 第3章 上下文多臂老虎机 37 3.1 为什么我们需要函数近似 37 3.2 对上下文使用函数近似 38 3.2.1 案例研究:使用合成用户 数据的上下文在线广告 39 3.2.2 使用正则化逻辑斯谛回归 的函数近似 42 3.2.3 目标函数:悔值小化 45 3.2.4 解决在线广告问题 46 3.3 对行动使用函数近似 50 3.3.1 案例研究:使用来自美国 人口普查的用户数据的上 下文在线广告 51 3.3.2 使用神经网络进行函数 近似 55 3.3.3 计算悔值 57 3.3.4 解决在线广告问题 57 3.4 多臂老虎机和上下文老虎机的 其他应用 59 3.4.1 **系统 59 3.4.2 网页/应用程序功能设计 60 3.4.3 **保健 60 3.4.4 动态定价 60 3.4.5 金融 60 3.4.6 控制系统调整 60 3.5 总结 61 3.6 参考文献 61 第4章 马尔可夫决策过程的制定 63 4.1 马尔可夫链 63 4.1.1 具有马尔可夫性的随机 过程 63 4.1.2 马尔可夫链中的状态分类 65 4.1.3 转移和稳态行为 66 4.1.4 示例:网格世界中的n- 步行为 67 4.1.5 示例:一个可遍历马尔可 夫链中的样本路径 69 4.1.6 半马尔可夫过程和连续时 间马尔可夫链 70 4.2 引入奖励:马尔可夫奖励过程 70 4.2.1 将奖励附加到网格世界 示例 71 4.2.2 不同初始化的平均奖励之 间的关系 72 4.2.3 回报、折扣和状态值 72 4.2.4 解析式地计算状态值 73 4.2.5 迭代式地估计状态值 74 4.3 引入行动:马尔可夫决策过程 75 4.3.1 定义 75 4.3.2 网格世界作为马尔可夫决 策过程 76 4.3.3 状态值函数 77 4.3.4 行动值函数 77 4.3.5 优状态值和行动值 函数 78 4.3.6 贝尔曼优性 78 4.4 部分可观测的马尔可夫决策过程 79 4.5 总结 80 4.6 练习 80 4.7 参考文献 81 第5章 求解强化学习问题 82 5.1 探索动态规划 82 5.1.1 示例用例:食品卡车的库存补充 82 5.1.2 策略评估 85 5.1.3 策略迭代 90 5.1.4 值迭代 94 5.1.5 动态规划方法的缺点 95 5.2 用蒙特卡罗法训练智能体 96 5.2.1 蒙特卡罗预测 97 5.2.2 蒙特卡罗控制 104 5.3 时间差分学习 111 5.3.1 一步时间差分学习 112 5.3.2 n-步时间差分学习 117 5.4 了解模拟在强化学习中的 重要性 117 5.5 总结 118 5.6 练习 119 5.7 参考文献 119 第二部分 深度强化学习 第6章 规模化的深度Q-学习 122 6.1 从表格型Q-学习到深度Q- 学习 122 6.1.1 神经网络拟合的Q-迭代 123 6.1.2 在线Q-学习 127 6.2 深度Q网络 128 6.2.1 DQN中的关键概念 128 6.2.2 DQN算法 129 6.3 DQN扩展:Rainbow 130 6.3.1 扩展 130 6.3.2 集成智能体的性能 134 6.3.3 如何选择使用哪些扩展:Rainbow的消融实验 134 6.3.4 “死亡三组合”发生了什

    与描述相符

    100

    北京 天津 河北 山西 内蒙古 辽宁 吉林 黑龙江 上海 江苏 浙江 安徽 福建 江西 山东 河南 湖北 湖南 广东 广西 海南 重庆 四川 贵州 云南 西藏 陕西 甘肃 青海 宁夏 新疆 台湾 香港 澳门 海外