Hadoop权威指南

  • 出版时间: 2017年07月01日
  • 作者: Tom White
  • 浏览: 71
  • 发表评论

第Ⅰ部分介绍Hadoop基础知识,主题涉及Hadoop、MapReduce、Hadoop分布式文件系统、YARN、Hadoop的I/O操作。第Ⅱ部分介绍MapReduce,主题包括MapReduce应用开发;MapReduce的工作机制、MapReduce的类型与格式、MapReduce的特性。第Ⅲ部分介绍Hadoop的运维,主题涉及构建Hadoop集群、管理Hadoop。第Ⅳ部分介绍Hadoop相关开源项目,主题涉及Avro、Parquet、Flume、Sqoop、Pig、Hive、Crunch、Spark、HBase、ZooKeeper。第Ⅴ部分提供了三个案例,分别来自医疗卫生信息技术服务商塞纳(Cerner)、微软的人工智能项目ADAM(一种大规模分布式深度学习框架)和开源项目Cascading(一个新的针对MapReduce的数据处理API)。 本书是一本权威、全面的Hadoop参考书和工具书,阐述了Hadoop生态圈的*发展和应用,程序员可以从中探索海量数据集的存储和分析,管理员可以从中了解Hadoop集群的安装和运维。

第Ⅰ部分 Hadoop基础知识

1第1章 初识Hadoop

1.1 数据!数据! 3

1.2 数据的存储与分析 5

1.3 查询所有数据 6

1.4 不仅仅是批处理 7

1.5 相较于其他系统的优势 8

1.5.1 关系型数据库管理系统 8

1.5.2 网格计算 10

1.5.3 志愿计算 11

1.6 Apache Hadoop发展简史 12

1.7 本书包含的内容 16

2第2章 关于MapReduce

2.1 气象数据集 19

2.2 使用Unix工具来分析数据 21

2.3 使用Hadoop来分析数据 22

2.3.1 map和reduce 23

2.3.2 Java MapReduce 24

2.4 横向扩展 31

2.4.1 数据流 31

2.4.2 biner函数 35

2.4.3 运行分布式的MapReduce作业 37

2.5 Hadoop Streaming 37

2.5.1 Ruby版本 38

2.5.2 Python版本 40

3第3章 Hadoop分布式文件系统

3.1 HDFS的设计 42

3.2 HDFS的概念 44

3.2.1 数据块 44

3.2.2 namenode和datanode 45

3.2.3 块缓存 46

3.2.4 联邦HDFS 47

3.2.5 HDFS的高可用性 47

3.3 命令行接口 50

3.4 Hadoop文件系统 52

3.5 Java接口 56

3.5.1 从Hadoop URL读取数据 56

3.5.2 通过FileSystem API读取数据 58

3.5.3 写入数据 61

3.5.4 目录 63

3.5.5 查询文件系统 63

3.5.6 删除数据 68

3.6 数据流 68

3.6.1 剖析文件读取 68

3.6.2 剖析文件写入 71

3.6.3 一致模型 74

3.7 通过distcp并行复制 76

4第4章 关于YARN

4.1 剖析YARN应用运行机制 79

4.1.1 资源请求 80

4.1.2 应用生命期 81

4.1.3 构建YARN应用 81

4.2 YARN与MapReduce 1相比 82

4.3 YARN中的调度 85

4.3.1 调度选项 85

4.3.2 容量调度器配置 87

4.3.3 公平调度器配置 89

4.3.5 延迟调度 93

4.3.5 主导资源公平性 94

4.4 延伸阅读 95

5第5章 Hadoop的I/O操作

5.1 数据完整性 96

5.1.1 HDFS的数据完整性 97

5.1.2 LocalFileSystem 98

5.1.3 ChecksumFileSystem 98

5.2 压缩 99

5.2.1 codec 100

5.2.2 压缩和输入分片 105

5.2.3 在MapReduce中使用压缩 106

5.3 序列化 109

5.3.1 Writable接口 110

5.3.2 Writable类 112

5.3.3 实现定制的Writable集合 121

5.3.4 序列化框架 125

5.4 基于文件的数据结构 127

5.4.1 关于SequenceFile 127

5.4.2 关于MapFile 135

5.4.3 其他文件格式和面向列的格式 136

第Ⅱ部分 关于MapReduce

6第6章 MapReduce应用开发

6.1 用于配置的API 142

6.1.1 资源合并 143

6.1.2 变量扩展 144

6.2 配置开发环境 144

6.2.1 管理配置 146

6.2.2 辅助类GenericOptionsParser,Tool和ToolRunner 149

6.3 用MRUnit来写单元测试 152

6.3.1 关于Mapper 152

6.3.2 关于Reducer 156

6.4 本地运行测试数据 156

6.4.1 在本地作业运行器上运行作业 156

6.4.2 测试驱动程序 158

6.5 在集群上运行 160

6.5.1 打包作业 160

6.5.2 启动作业 162

6.5.3 MapReduce的Web界面 165

6.5.4 获取结果 167

6.5.5 作业调试 168

6.5.6 Hadoop日志 171

6.5.7 远程调试 173

6.6 作业调优 174

6.7 MapReduce的工作流 176

6.7.1 将问题分解成MapReduce作业 177

6.7.2 关于JobControl 178

6.7.3 关于Apache Oozie 179

7第7章 MapReduce的工作机制 184

7.1 剖析MapReduce作业运行机制 184

7.1.1 作业的提交 185

7.1.2 作业的初始化 186

7.1.3 任务的分配 187

7.1.4 任务的执行 188

7.1.5 进度和状态的更新 189

7.1.6 作业的完成 191

7.2 失败 191

7.2.1 任务运行失败 191

7.2.2 application master运行失败 193

7.2.3 节点管理器运行失败 193

7.2.4 资源管理器运行失败 194

7.3 shuffle和排序 195

7.3.1 map端 195

7.3.2 reduce端 197

7.3.3 配置调优 199

7.4 任务的执行 201

7.4.1 任务执行环境 201

7.4.2 推测执行 202

7.4.3 关于OutputCommitters 204

8第8章 MapReduce的类型与格式 207

8.1 MapReduce的类型 207

8.1.1 默认的MapReduce作业 212

8.1.2 默认的Streaming作业 216

8.2 输入格式 218

8.2.1 输入分片与记录 218

8.2.2 文本输入 229

8.2.3 二进制输入 233

8.2.4 多个输入 234

8.2.5 数据库输入(和输出) 235

8.3 输出格式 236

8.3.1 文本输出 236

8.3.2 二进制输出 237

8.3.3 多个输出 237

8.3.4 延迟输出 242

8.3.5 数据库输出 242

9第9章 MapReduce的特性 243

9.1 计数器 243

9.1.1 内置计数器 243

9.1.2 用户定义的Java计数器 248

9.1.3 用户定义的Streaming计数器 251

9.2 排序 252

9.2.1 准备 252

9.2.2 部分排序 253

9.2.3 全排序 255

9.2.4 辅助排序 259

9.3 连接 264

9.3.1 map端连接 266

9.3.2 reduce端连接 266

9.4 边数据分布 270

9.4.1 利用JobConf来配置作业 270

9.4.2 分布式缓存 270

9.5 MapReduce库类 276

第Ⅲ部分 Hadoop的操作

10第10章 构建Hadoop集群 279

10.1 集群规范 280

10.1.1 集群规模 281

10.1.2 网络拓扑 282

10.2 集群的构建和安装 284

10.2.1 安装Java 284

10.2.2 创建Unix 用户账号 284

10.2.3 安装Hadoop 284

10.2.4 SSH配置 285

10.2.5 配置Hadoop 286

10.2.6 格式化HDFS 文件系统 286

10.2.7 启动和停止守护进程 286

10.2.8 创建用户目录 288

10.3 Hadoop配置 288

10.3.1 配置管理 289

10.3.2 环境设置 290

10.3.3 Hadoop守护进程的关键属性 293

10.3.4 Hadoop守护进程的地址和端口 300

10.3.5 Hadoop的其他属性 303

10.4 安全性 305

10.4.1 KerberosHadoop 306

10.4.2 委托令牌 308

10.4.3 其他安全性改进 309

10.5 利用基准评测程序测试Hadoop集群 311

10.5.1 Hadoop基准评测程序 311

10.5.2 用户作业 313

11第11章 管理Hadoop 314

11.1 HDFS 314

11.1.1 永久性数据结构 314

11.1.2 安全模式 320

11.1.3 日志审计 322

11.1.4 工具 322

11.2 监控 327

11.2.1 日志 327

11.2.2 度量和JMXJava管理扩展) 328

11.3 维护 329

11.3.1 日常管理过程 329

11.3.2 委任和解除节点 331

11.3.3 升级 334

第Ⅳ部分 Hadoop相关开源项目

12第12章 关于Avro 341

12.1 Avro数据类型和模式 342

12.2 内存中的序列化和反序列化特定API 347

12.3 Avro数据文件 349

12.4 互操作性 351

12.4.1 Python API 351

12.4.2 Avro工具集 352

12.5 模式解析 352

12.6 排列顺序 354

12.7 关于Avro MapReduce 356

12.8 使用Avro MapReduce进行排序 359

12.9 其他语言的Avro 362

13第13章 关于Parquet 363

13.1 数据模型 364

13.2 Parquet文件格式 367

13.3 Parquet的配置 368

13.4 Parquet文件的读/写 369

13.4.1 Avro、Protocol Buffers和Thrift 371

13.4.2 投影模式和读取模式 373

13.5 Parquet MapReduce 374

14第14章 关于Flume 377

14.1 安装Flume 378

14.2 示例 378

14.3 事务和可靠性 380

14.4 HDFS Sink 382

14.5 扇出 385

14.5.1 交付保证 386

14.5.2 复制和复用选择器 387

14.6 通过代理层分发 387

14.7 Sink组 391

14.8 Flume与应用程序的集成 395

14.9 组件编目 395

14.10 延伸阅读 397

15第15章 关于Sqoop 398

15.1 获取Sqoop 398

15.2 Sqoop连接器 400

15.3 一个导入的例子 401

15.4 生成代码 404

15.5 深入了解数据库导入 405

15.5.1 导入控制 407

15.5.2 导入和一致性 408

15.5.3 增量导入 408

15.5.4 直接模式导入 408

15.6 使用导入的数据 409

15.7 导入大对象 412

15.8 执行导出 414

15.9 深入了解导出功能 416

15.9.1 导出与事务 417

15.9.2 导出和SequenceFile 418

15.10 延伸阅读 419

16第16章 关于Pig 420

16.1 安装与运行Pig 421

16.1.1 执行类型 422

16.1.2 运行Pig程序 423

16.1.3 Grunt 424

16.1.4 Pig Latin编辑器 424

16.2 示例 425

16.3 与数据库进行比较 428

16.4 PigLatin 429

16.4.1 结构 430

16.4.2 语句 431

16.4.3 表达式 436

16.4.4 类型 437

16.4.5 模式 438

16.4.6 函数 443

16.4.7 宏 445

16.5 用户自定义函数 446

16.5.1 过滤UDF 447

16.5.2 计算UDF 450

16.5.3 加载UDF 452

16.6 数据处理操作 455

16.6.1 数据的加载和存储 455

16.6.2 数据的过滤 455

16.6.3 数据的分组与连接 458

16.6.4 数据的排序 463

16.6.5 数据的组合和切分 465

16.7 Pig实战 465

16.7.1 并行处理 465

16.7.2 匿名关系 466

16.7.3 参数代换 467

16.8 延伸阅读 468

17第17章 关于Hive 469

17.1 安装Hive 470

Hive的shell环境 471

17.2 示例 472

17.3 运行Hive 473

17.3.1 配置Hive 473

17.3.2 Hive服务 476

17.3.3 Metastore 478

17.4 Hive与传统数据库相比 480

17.4.1 读时模式vs.写时模式 480

17.4.2 更新、事务和索引 481

17.4.3 其他SQL—on—Hadoop技术 482

17.5 HiveQL 483

17.5.1 数据类型 484

17.5.2 操作与函数 487

17.6 表 488

17.6.1 托管表和外部表 488

17.6.2 分区和桶 490

17.6.3 存储格式 494

17.6.4 导入数据 498

17.6.5 表的修改 500

17.6.6 表的丢弃 501

17.7 查询数据 501

17.7.1 排序和聚集 501

17.7.2 MapReduce脚本 502

17.7.3 连接 503

17.7.4 子查询 506

17.7.5 视图 507

17.8 用户定义函数 508

17.8.1 写UDF 510

17.8.2 写UDAF 512

17.9 延伸阅读 516

18第18章 关于Crunch 517

18.1 示例 518

18.2 Crunch核心API 521

18.2.1 基本操作 522

18.2.2 类型 527

18.2.3 源和目标 530

18.2.4 函数 532

18.2.5 物化 535

18.3 管线执行 537

18.3.1 运行管线 538

18.3.2 停止管线 539

18.3.3 查看Crunch计划 540

18.3.4 迭代算法 543

18.3.5 给管线设置检查点 544

18.4 Crunch库 545

18.5 延伸阅读 547

19第19章 关于Spark 548

19.1 安装Spark 549

19.2 示例 549

19.2.1 Spark应用、作业、阶段和任务 551

19.2.2 Scala独立应用 552

19.2.3 Java示例 553

19.2.4 Python示例 554

19.3 弹性分布式数据集 555

19.3.1 创建 555

19.3.2 转换和动作 557

19.3.3 持久化 561

19.3.4 序列化 563

19.4 共享变量 564

19.4.1 广播变量 564

19.4.2 累加器 565

19.5 剖析Spark作业运行机制 565

19.5.1 作业提交 566

19.5.2 DAG的构建 566

19.5.3 任务调度 569

19.5.4 任务执行 570

19.6 执行器和集群管理器 570

19.7 延伸阅读 574

20第20章 关于HBase 575

20.1 HBase基础 575

20.2 概念 576

20.2.1 数据模型的“旋风之旅” 576

20.2.2 实现 578

20.3 安装 581

20.4 客户端 584

20.4.1 Java 584

20.4.2 MapReduce 588

20.4.3 REST和Thrift 589

20.5 创建在线查询应用 589

20.5.1 模式设计 590

20.5.2 加载数据 591

20.5.3 在线查询 595

20.6 HBase和RDBMS的比较 598

20.6.1 成功的服务 599

20.6.2 HBase 600

20.7 Praxis 601

20.7.1 HDFS 601

20.7.2 用户界面 602

20.7.3 度量 602

20.7.4 计数器 602

20.8 延伸阅读 602

21第21章 关于ZooKeeper 604

21.1 安装和运行ZooKeeper 605

21.2 示例 607

21.2.1 ZooKeeper中的组成员关系 608

21.2.2 创建组 608

21.2.3 加入组 611

21.2.4 列出组成员 612

21.2.5 删除组 614

21.3 ZooKeeper服务 615

21.3.1 数据模型 615

21.3.2 操作 618

21.3.3 实现 622

21.3.4 一致性 624

21.3.5 会话 626

21.3.6 状态 628

21.4 使用ZooKeeper来构建应用 629

21.4.1 配置服务 629

21.4.2 可复原的ZooKeeper应用 633

21.4.3 锁服务 637

21.4.4 更多分布式数据结构和协议 639

21.5 生产环境中的ZooKeeper 640

21.5.1 可恢复性和性能 641

21.5.2 配置 642

21.6 延伸阅读 643

第Ⅴ部分 案例学习

22第22章 医疗公司塞纳(Cerner)的可聚合数据 647

22.1 从多CPU到语义集成 647

22.2 进入Apache Crunch 648

22.3 建立全貌 649

22.4 集成健康医疗数据 651

22.5 框架之上的可组合性 654

22.6 下一步 655

23第23章 生物数据科学:用软件拯救生命 657

23.1 DNA的结构 659

23.2 遗传密码:将DNA字符转译为蛋白质 660

22.3 将DNA想象成源代码 661

23.4 人类基因组计划和参考基因组 663

22.5 DNA测序和比对 664

23.6 ADAM,一个可扩展的基因组分析平台 666

23.7 使用Avro接口描述语言进行自然语言编程 666

23.8 使用Parquet进行面向列的存取 668

23.9 一个简单例子:用SparkADAM做k—mer计数 669

23.10 从个性化广告到个性化医疗 672

23.11 联系我们 673

24第24章 开源项目Cascading 674

24.1 字段、元组和管道 675

24.2 操作 678

24.3 Taps,Schemes和Flows 680

24.4 Cascading实践应用 681

24.5 灵活性 684

24.6 ShareThis中的Hadoop和Cascading 685

24.7 总结 689

附录A 安装Apache Hadoop 691

附录B 关于CDH 697

附录C 准备NCDC气象数据 699

附录D 新版和旧版JavaMapReduce API 702

我来评分 :6
0

转载注明:转自5lulu技术库

本站遵循:署名-非商业性使用-禁止演绎 3.0 共享协议