第1章绪论
1.1概述
1.1.1第1章:绪论
1.1.2第2章:词、句子和语料
1.1.3第3章:概率论
1.1.4第4章:基于词的翻译模型
1.1.5第5章:基于短语的翻译模型
1.1.6第6章:解码
1.1.7第7章:语言模型
1.1.8第8章:评测
1.1.9第9章:判别式训练
1.1.10第10章:整合语言学信息
1.1.11第11章:基于树的翻译模型
1.2机器翻译简史
1.2.1肇始
1.2.2ALPAC报告及其后果
1.2.3首批商用系统
1.2.4基于中间语系统的研究
1.2.5数据驱动方法
1.2.6目前的开发商
1.2.7技术现状
1.3应用
1.3.1全自动高质量机器翻译
1.3.2要旨翻译
1.3.3集成语音技术
1.3.4手持设备中的翻译
1.3.5后编辑
1.3.6译者的工具
1.4可用资源
1.4.1工具
1.4.2语料
1.4.3评测竞赛
1.5小结
1.5.1核心概念
1.5.2延伸阅读
1.6习题
第2章词、句子和语料
2.1词
2.1.1词例化
2.1.2词的分布
2.1.3词性
2.1.4形态学
2.1.5词汇语义学
2.2句子
2.2.1句子结构
2.2.2语法理论
2.2.3句子结构的翻译
2.2.4语篇
2.3语料
2.3.1文本的类型
2.3.2获取平行语料
2.3.3句子对齐
2.4小结
2.4.1核心概念
2.4.2延伸阅读
2.4.3习题
第3章概率论
3.1概率分布估计
3.1.1估计分析
3.1.2常见概率分布
3.1.3基于统计的概率估计
3.2概率分布计算
3.2.1形式定义
3.2.2联合概率分布
3.2.3条件概率分布
3.2.4贝叶斯法则
3.2.5插值
3.3概率分布的特性
3.3.1均值和方差
3.3.2期望和方差
3.3.3熵
3.3.4互信息
3.4小结
3.4.1核心概念
3.4.2延伸阅读
3.4.3习题
第二部分核心方法
第4章基于词的翻译模型
4.1基于词的机器翻译
4.1.1词汇翻译
4.1.2数据统计
4.1.3估计概率分布
4.1.4对齐
4.1.5IBM模型1
4.2学习词汇翻译模型
4.2.1语料不完备问题
4.2.2期望*大化算法
4.2.3IBM模型1中的期望*大化算法
4.2.4困惑度
4.3确保流畅的输出
4.3.1流利译文的经验证据
4.3.2语言模型
4.3.3噪声信道模型
4.4更**的IBM模型
4.4.1IBM模型2
4.4.2IBM模型3
4.4.3训练模型3:采样对齐空间
4.4.4IBM模型4
4.4.5IBM模型5
4.5词对齐
4.5.1词对齐任务
4.5.2词对齐质量评估
4.5.3基于IBM模型的词对齐
4.6小结
4.6.1核心概念
4.6.2延伸阅读
4.6.3习题
第5章基于短语的翻译模型
5.1标准模型
5.1.1基于短语的翻译模型提出的动因
5.1.2数学定义
5.2学习短语翻译表
5.2.1从词对齐中抽取短语
5.2.2一致性定义
5.2.3短语抽取算法
5.2.4应用实例
5.2.5短语翻译概率估计
5.3翻译模型的扩展
5.3.1对数线性模型
5.3.2双向翻译概率
5.3.3词汇化加权
5.3.4词语惩罚
5.3.5短语惩罚
5.3.6作为分类问题的短语翻译
5.4调序模型的扩展
5.4.1调序限制
5.4.2词汇化调序
5.5基于短语模型的期望*大化训练
5.5.1短语对齐的联合模型
5.5.2对齐空间的复杂度
5.5.3模型训练
5.6小结
5.6.1核心概念
5.6.2延伸阅读
5.6.3习题
第6章解码
6.1翻译过程
6.1.1翻译一个句子
6.1.2计算句子的翻译概率
6.2柱搜索
6.2.1翻译选项
6.2.2通过假设扩展的解码过程
6.2.3计算复杂度
6.2.4翻译假设重组
6.2.5栈解码
6.2.6直方图剪枝和阈值剪枝
6.2.7调序限制
6.3未来代价估计
6.3.1不同的翻译困难
6.3.2翻译选项的未来代价估计
6.3.3任意输入跨度的未来代价估计
6.3.4在搜索中使用未来代价
6.4其他解码算法
6.4.1基于覆盖栈的柱搜索算法
6.4.2A*搜索算法
6.4.3贪婪爬山解码
6.4.4有限状态转换机解码
6.5小结
6.5.1核心概念
6.5.2延伸阅读
6.5.3习题
第7章语言模型
7.1n元文法语言模型
7.1.1马尔可夫链
7.1.2估计
7.1.3困惑度
7.2计数平滑
7.2.1加1平滑法
7.2.2删除估计平滑法
7.2.3古德图灵平滑法
7.2.4评估
7.3插值和后备
7.3.1插值
7.3.2递归插值
7.3.3后备
7.3.4预测词的差异性
7.3.5历史的差异性
7.3.6修正的Kneser—Ney平滑算法
7.3.7评估
7.4控制语言模型的大小
7.4.1不同的n元文法的数目
7.4.2在磁盘上进行估计
7.4.3**的数据结构
7.4.4减小词汇表规模
7.4.5抽取相关的n元文法
7.4.6根据需要加载n元文法
7.5小结
7.5.1核心概念
7.5.2延伸阅读
7.5.3习题
第8章评测
8.1人工评测
8.1.1流利度和忠实度
8.1.2评测目的
8.1.3其他评测标准
8.2自动评测
8.2.1准确率和召回率
8.2.2词错误率
8.2.3BLEU:一个双语评测的替代指标
8.2.4METEOR
8.2.5关于评测的争论
8.2.6评测指标的评测
8.2.7自动评测不足的证据
8.3假设检验
8.3.1计算置信区间
8.3.2成对比较
8.3.3自举重采样
8.4面向任务的评测
8.4.1后编辑的代价
8.4.2内容理解测试
8.5小结
8.5.1核心概念
8.5.2延伸阅读
8.5.3习题
第三部分前沿研究
第9章判别式训练
9.1寻找候选译文
9.1.1搜索图
9.1.2词格
9.1.3n—best列表
9.2判别式方法的原理
9.2.1译文的特征表示
9.2.2标注译文的正确性
9.2.3监督学习
9.2.4*大熵
9.3参数调节
9.3.1实验设置
9.3.2Powell搜索方法
9.3.3单纯型算法
9.4大规模判别式训练
9.4.1训练问题
9.4.2目标函数
9.4.3梯度下降
9.4.4感知机
9.4.5正则化
9.5后验方法与系统融合
9.5.1*小贝叶斯风险
9.5.2置信度估计
9.5.3系统融合
9.6小结
9.6.1核心概念
9.6.2延伸阅读
9.6.3习题
第10章整合语言学信息
10.1直译
10.1.1数字和名字
10.1.2名字翻译
10.1.3直译的有限状态方法
10.1.4资源
10.1.5反向直译与翻译
10.2形态学
10.2.1词素
10.2.2简化丰富的形态变化
10.2.3翻译形态丰富的语言
10.2.4单词拆分
10.3句法重构
10.3.1基于输入语言句法的调序
10.3.2学习调序规则
10.3.3基于词性标记的调序
10.3.4基于句法树的调序
10.3.5预留选择
10.4句法特征
10.4.1方法论
10.4.2数的一致性
10.4.3一致性
10.4.4句法分析概率
10.5因子化翻译模型
10.5.1因子化翻译的分解
10.5.2因子化模型训练
10.5.3模块的融合
10.5.4**解码
10.6小结
10.6.1核心概念
10.6.2延伸阅读
10.6.3习题
第11章基于树的翻译模型
11.1同步文法
11.1.1短语结构语法
11.1.2同步短语结构语法
11.1.3同步树替换文法
11.2同步文法的学习
11.2.1层次短语模型的学习
11.2.2句法翻译规则的学习
11.2.3规则的简化
11.2.4文法规则的打分
11.3基于句法分析算法的解码
11.3.1线图分析
11.3.2核心算法
11.3.3线图的组织
11.3.4假设重组
11.3.5栈剪枝
11.3.6文法规则的使用
11.3.7立方剪枝
11.3.8文法二叉化
11.3.9外向代价估计
11.4小结
11.4.1核心概念
11.4.2延伸阅读
11.4.3习题
参考文献
索引