您好,欢迎光临有路网!
现代自然语言生成
QQ咨询:
有路璐璐:

现代自然语言生成

  • 作者:黄民烈
  • 出版社:电子工业出版社
  • ISBN:9787121402494
  • 出版日期:2021年01月01日
  • 页数:272
  • 定价:¥79.00
  • 分享领佣金
    手机购买
    城市
    店铺名称
    店主联系方式
    店铺售价
    库存
    店铺得分/总交易量
    发布时间
    操作

    新书比价

    网站名称
    书名
    售价
    优惠
    操作

    图书详情

    内容提要
    本书总结了以神经网络为代表的现代自然语言生成的基本思想、模型和框架。本书共12 章,首先介绍了自然语言生成的研究背景、从统计语言模型到神经网络语言建模的过程,以及自然语言建模的思想与技术演化过程;其次从基础模型角度介绍了基于循环神经网络、基于Transformer 的语言生成模型,从优化方法角度介绍了基于变分自编码器、基于生成式对抗网络的语言生成模型,从生成方式角度介绍了非自回归语言生成的基本模型和框架;然后介绍了融合规划的自然语言生成、融合知识的自然语言生成、常见的自然语言生成任务和数据资源,以及自然语言生成的评价方法;*后总结了本书的写作思路及对自然语言生成领域未来发展趋势的展望。 本书可作为高等院校计算机科学与技术、人工智能、大数据等相关专业高年级本科生、研究生相关课程的教材,也适合从事自然语言处理研究、应用实践的科研人员和工程技术人员参考。
    目录
    第1 章自然语言生成的研究背景. . . . . . . 1 1.1 自然语言生成的背景概述. . . . . . . 1 1.2 基本定义与研究范畴. . . . . . . . . . . .2 1.3 自然语言生成与自然语言理解. . .3 1.4 传统的模块化生成框架. . . . . . . . . 4 1.5 端到端的自然语言生成框架. . . . . 7 1.6 典型的自然语言生成任务. . . . . . . 9 1.7 自然语言生成的可控性. . . . . . . . 12 1.8 本书结构. . . . . . . . . . . . . . . . . . . . . . 14 第2 章从统计语言模型到神经网络语言建模. . . . . . . . . . . . . . . . . . . . . . 15 2.1 统计语言模型. . . . . . . . . . . . . . . . . 15 2.1.1 基本原理. . . . . . . . . . . . . . . . . . 15 2.1.2 平滑技术. . . . . . . . . . . . . . . . . . 17 2.1.3 语言模型评价. . . . . . . . . . . . . . 19 2.1.4 统计语言模型的缺点. . . . . . . . 20 2.2 神经网络语言模型. . . . . . . . . . . . . 21 2.2.1 前馈神经网络语言模型. . . . . . 21 2.2.2 基于循环神经网络的神经语言模型. . . . . . . . . . . . . . 24 2.2.3 基于Transformer 的神经语言模型. . . . . . . . . . . . . . 24 2.3 静态词向量模型. . . . . . . . . . . . . . . 26 2.3.1 分布假设与分布式表示. . . . . . 26 2.3.2 词向量模型CBOW 和Skip-gram. . . . . . . . . . . . . . . . .27 2.3.3 词向量模型训练优化:负采样. . . . . . . . . . . . . . . . . . . .30 2.3.4 词向量模型训练优化:层次化softmax . . . . . . . . . . . . 31 2.3.5 静态词向量的缺陷. . . . . . . . . . 32 2.4 语境化语言表示模型. . . . . . . . . . 33 2.4.1 ELMo . . . . . . . . . . . . . . . . . . . . 34 2.4.2 BERT . . . . . . . . . . . . . . . . . . . . 36 2.4.3 XLNet. . . . . . . . . . . . . . . . . . . .38 2.5 本章小结. . . . . . . . . . . . . . . . . . . . . . 39 第3 章基于RNN 的语言生成模型. . .41 3.1 RNN 的基本原理. . . . . . . . . . . . . . 41 3.2 RNN 的训练算法. . . . . . . . . . . . . . 42 3.3 长短期记忆神经网络与门控循环单元. . . . . . . . . . . . . . . . . 45 3.4 RNN 的架构设计. . . . . . . . . . . . . . 47 3.4.1 多层RNN . . . . . . . . . . . . . . . . 47 3.4.2 双向RNN . . . . . . . . . . . . . . . . 48 3.5 基于RNN 的语言模型. . . . . . . . 48 3.5.1 模型结构. . . . . . . . . . . . . . . . . . 49 3.5.2 主要问题. . . . . . . . . . . . . . . . . . 50 3.5.3 模型改进. . . . . . . . . . . . . . . . . . 51 3.6 序列到序列模型. . . . . . . . . . . . . . . 52 3.6.1 基本原理. . . . . . . . . . . . . . . . . . 52 3.6.2 模型结构. . . . . . . . . . . . . . . . . . 53 3.6.3 注意力机制. . . . . . . . . . . . . . . . 54 3.7 解码器的解码方法. . . . . . . . . . . . . 57 3.7.1 基于搜索的解码方法. . . . . . . . 59 3.7.2 基于采样的解码方法. . . . . . . . 61 3.8 序列到序列模型存在的问题. . . .64 3.9 本章小结. . . . . . . . . . . . . . . . . . . . . . 65 第4 章基于Transformer 的语言生成模型. . . . . . . . . . . . . . . . . 66 4.1 Transformer 模型的基本原理. . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.1.1 多头注意力机制. . . . . . . . . . . . 66 4.1.2 Transformer 基本单元. . . . . . 69 4.2 基于Transformer 的编码器—解码器结构. . . . . . . . . . 71 4.2.1 基本原理. . . . . . . . . . . . . . . . . . 71 4.2.2 位置编码模块. . . . . . . . . . . . . . 73 4.2.3 Transformer 编码器. . . . . . . . 74 4.2.4 Transformer 解码器. . . . . . . . 74 4.3 Transformer 模型与RNN 模型的比较. . . . . . . . . . . . . . 77 4.4 Transformer 模型问题与解决方案. . . . . . . . . . . . . . . . . . . . . . 79 4.4.1 长距离依赖问题. . . . . . . . . . . . 79 4.4.2 运算复杂度问题. . . . . . . . . . . . 81 4.5 基于Transformer 的预训练语言生成模型. . . . . . . . . . . . . . . . . . . . . . 85 4.5.1 GPT 模型. . . . . . . . . . . . . . . . .86 4.5.2 GPT-2 和GPT-3 . . . . . . . . . . 88 4.5.3 GPT 模型的扩展. . . . . . . . . . . 90 4.6 本章小结. . . . . . . . . . . . . . . . . . . . . . 92 第5 章基于变分自编码器的语言生成模型. . . . . . . . . . . . . . . . . 93 5.1 自编码器. . . . . . . . . . . . . . . . . . . . . . 93 5.2 变分自编码器. . . . . . . . . . . . . . . . . 94 5.3 条件变分自编码器. . . . . . . . . . . . . 98 5.4 解码器设计. . . . . . . . . . . . . . . . . . 100 5.5 变分自编码器在语言生成 任务上的应用实例. . . . . . . . . . . .102 5.5.1 含类别约束的条件变分自编码器模型. . . . . . . . . . . . . 102 5.5.2 含隐变量序列的条件变分自编码器模型. . . . . . . . . . . . . 104 5.6 主要问题及解决方案. . . . . . . . . 107 5.6.1 隐变量消失. . . . . . . . . . . . . . .107 5.6.2 可解释性增强. . . . . . . . . . . . .109 5.7 本章小结. . . . . . . . . . . . . . . . . . . . . 111 第6 章基于生成式对抗网络的语言生成模型. . . . . . . . . . . . . . . . 113 6.1 生成式对抗网络的背景. . . . . . . 113 6.2 生成式对抗网络的基本原理. . .115 6.3 生成式对抗网络的基本结构. . .118 6.4 生成式对抗网络的优化问题. . .120 6.4.1 使用强化学习方法训练生成式对抗网络. . . . . . . . . . . . . . . . .120 6.4.2 使用近似方法训练生成式对抗网络. . . . . . . . . . . . . . . . .123 6.5 生成式对抗模型在文本与图像中的区别. . . . . . . . . . . . . . . . 126 6.6 生成式对抗网络的应用. . . . . . . 128 6.6.1 对话生成. . . . . . . . . . . . . . . . .128 6.6.2 无监督的风格迁移. . . . . . . . . 129 6.7 本章小结. . . . . . . . . . . . . . . . . . . . . 130 第7 章非自回归语言生成. . . . . . . . . . . 131 7.1 基本原理. . . . . . . . . . . . . . . . . . . . . 131 7.1.1 适用场景的问题定义. . . . . . . 131 7.1.2 自回归模型和非自回归模型. . . . . . . . . . . . . . . . . . . . 132 7.1.3 模型结构. . . . . . . . . . . . . . . . .132 7.2 非自回归模型的挑战. . . . . . . . . 136 7.2.1 一对多问题. . . . . . . . . . . . . . .136 7.2.2 内部依赖问题. . . . . . . . . . . . .137 7.3 非自回归模型的改进. . . . . . . . . 138 7.3.1 网络结构的改进. . . . . . . . . . . 138 7.3.2 模型理论的改进. . . . . . . . . . . 139 7.3.3 后处理的方法. . . . . . . . . . . . .142 7.3.4 半自回归方法. . . . . . . . . . . . .143 7.4 应用与拓展. . . . . . . . . . . . . . . . . . 144 7.5 本章小结. . . . . . . . . . . . . . . . . . . . . 145 第8 章融合规划的自然语言生成. . . . .146 8.1 数据到文本生成任务中的规划. . . . . . . . . . . . . . . . . . . . . . . . . 147 8.1.1 数据到文本生成任务的定义. . . . . . . . . . . . . . . . . . . . 147 8.1.2 传统的模块化方法. . . . . . . . . 149 8.1.3 神经网络方法. . . . . . . . . . . . .150 8.2 故事生成任务中的规划. . . . . . . 158 8.2.1 故事生成任务的定义. . . . . . . 158 8.2.2 传统方法. . . . . . . . . . . . . . . . .159 8.2.3 神经网络方法. . . . . . . . . . . . .160 8.3 本章小结. . . . . . . . . . . . . . . . . . . . . 163 第9 章融合知识的自然语言生成. . . . .164 9.1 引入知识的动机. . . . . . . . . . . . . . 164 9.2 引入知识面临的挑战. . . . . . . . . 165 9.3 知识的编码与表示. . . . . . . . . . . .166 9.3.1 结构化知识表示. . . . . . . . . . . 167 9.3.2 非结构化知识表示. . . . . . . . . 170 9.4 融合知识的解码方法. . . . . . . . . 172 9.4.1 拷贝网络. . . . . . . . . . . . . . . . .172 9.4.2 生成式预训练. . . . . . . . . . . . .174 9.5 应用实例. . . . . . . . . . . . . . . . . . . . . 175 9.5.1 基于多跳常识推理的语言生成. . . . . . . . . . . . . . . . .175 9.5.2 故事生成. . . . . . . . . . . . . . . . .180 9.6 发展趋势. . . . . . . . . . . . . . . . . . . . . 185 9.6.1 语言模型与知识的融合. . . . . 185 9.6.2 预训练模型与知识的融合. . . 186 9.7 本章小结. . . . . . . . . . . . . . . . . . . . . 189 第10 章常见的自然语言生成任务和数据资源. . . . . . . . . . . . . . . . . . . 190 10.1 机器翻译. . . . . . . . . . . . . . . . . . . .190 10.1.1 常规机器翻译. . . . . . . . . . . .190 10.1.2 低资源机器翻译. . . . . . . . . . 191 10.1.3 无监督机器翻译. . . . . . . . . . 192 10.2 生成式文本摘要. . . . . . . . . . . . . 192 10.2.1 短文本摘要. . . . . . . . . . . . . .192 10.2.2 长文本摘要. . . . . . . . . . . . . .193 10.2.3 多文档摘要

    与描述相符

    100

    北京 天津 河北 山西 内蒙古 辽宁 吉林 黑龙江 上海 江苏 浙江 安徽 福建 江西 山东 河南 湖北 湖南 广东 广西 海南 重庆 四川 贵州 云南 西藏 陕西 甘肃 青海 宁夏 新疆 台湾 香港 澳门 海外