1.HDFS简介
1.1 Hadoop Distributed File System,简称HDFS。解决海量数据的分布式存储。
1.2 分布式文件系统
-  计算机集群中内部机器通过光纤高速交换机进行连接,机架之间通过宽带更高的光纤交换机连接。 
-  有一个主节点机器其他的为从节点机器,主节点承担数据目录(元数据)服务,从节点负责具体的数据存储任务。 
  
  
 1.3 HDFS实现目标
-  兼容廉价的硬件设备 
-  实现流数据读写:批量读取全部数据或大部分数据。 
-  支持大数据集 
-  支持简单的文件模型 
-  强大的跨平台特性 
1.4 HDFS自身的局限性
- 不适合低延迟数据访问
- 无法高效存储大量小文件:HDFS是通过元数据来指引客户端到节点寻找相关数据文件,一个文件被切分存到不同节点。元数据被保存在NameNode节点,HDFS会建立一个碎银数据结构,小文件多,则索引数据结果变得复杂,查询效率变低。
- 不支持多用户写入及任意修改文件:只允许追加,不允许修改。
2.HDFS相关概念
2.1 块的概念:HDFS中核心概念,分摊磁盘的读写开销(在大量数据间分摊磁盘寻址开销),比普通的文件系统块要大得多,默认为64M。如果块过大,MapReduce执行任务的并行度降低。
2.2 HDFS块设计的优点
- 支持大规模文件存储:对较大数据进行分割,使其可以分布存储在某些节点(不分的话,单机存不下)。
- 简化系统设计
- 适合数据备份
2.3 HDFS两大组件
-  名称节点:整个HDFS集群的管家,有数据目录。 
 元数据:包括数据分割的份数,块与文件的映射关系、块的存储位置等信息。
 FsImage:保存系统文件树以及文件树中所有文件和文件夹中的元数据。是存储相关元数据的,包括文件的复制等级、修改访问时间、访问权限、块大小以及组成的文件的块。
  
 EditLog:记录对数据进行的诸如创建、删除、重命名等操作。
-  数据节点:存储实际数据。 
-  从节点向主节点汇报自己存储的数据块,主节点生成一个数据清单。 
-  如何避免EditLog的不断增大: 
 SecondaryNode:名称节点的冷备份,也负责对EditLog的维护处理,定期与主节点通信,在某个阶段会请求名称节点停止使用EditLog文件,名称节点停止使用EditLog而生成一个新的edits.new,将又生成的EditLog文件更新写到edits.new中去,第二名称节点通过Http Get方式从名称节点上把FsImage和旧的EditLog下载到本地,然后合并得到新的FsImage文件,然后发送个名称节点,然后名称节点把edits.new更改为EditLog。
  
3.HDFS体系结构
3.1 数据访问
 
3.2 HDFS 命名空间
 
 3.3 使用的通信协议
 
3.4 HDFS局限性
- 命名空间限制:名称结点是保存在内存中的,因此名称结点能够容纳的对象的个数会受到空间大小的限制。
- 性能瓶颈:整个分布式文件的吞吐量,受限于单个名称结点的吐吞量。
- 隔离问题:由于集群中只有一个名称结点,只有一个命名空间,因此无法对不同应用程序进行隔离。
- 具有单点故障:第二名称结点是冷备份,后来2.0版本有所改进。
4.HDFS存储原理
-  数据冗余保存:每个块都被冗余保存(默认3份). -  优点:加速数据传输速度。多机器访问一个数据时。 
-  很容易检查数据错误。 
-  保证数据可靠性。自动复制生成新的副本,保证正确的副本数量。 
-  存储策略:一个块,生成副本,第一个副本存储在上传数据的结点。外部结点若向集群写入数据,则一个块的副本,集群会随机挑选一个磁盘不太满,CPU不太忙的结点存储块的第一个副本,第二副本放在和第一个机架不同的结点上,第三个副本放在和第一个副本相同的机架的不同结点上。 
  
-  读取策略:HDFS提供的一个API可以确定一个数据结点所属的机架ID。获取数据:根据客户端的机架ID和数据副本的机架ID,选择最近的数据副本读取数据。否则的话,就随机选择结点。 
 
-  
-  数据的错误与恢复: - 名称结点出错:热备份,则直接启动第二名称结点。
  
- DateNode出错:通过该节点的数据的其他副本复制该节点的所有数据,放到其他结点。
  
- 数据本身出错:校验码,数据创建时生成校验码,并和数据放在同一目录下。读到数据时,计算其校验码与源校验码对比,看是否出错。
  
 
- 名称结点出错:热备份,则直接启动第二名称结点。
5.HDFS编程-数据读写
-  Hadoop中的一个通用文件系统的抽象基类FileSystem,如下继承其的子类。 - DistributedFileSystem
- 数据的读写open/read/close - FSDateInputStream
- DFSInputStream
  
 
 
-  hadoop.conf.Configuration - Configuration conf=new Configuration();会通过构造函数加载hdfs-site.xml和core-site.xml文件,获取相关配置信息。
 
-  数据读取流程 
  
6.HDFS编程实践
-  hadoop fs +: - ls :显示文件详细信息
- mkdir:创建相关文件夹
- cat:指定文件内容输出到标准输出。
 
-  本地文件复制到HDFS系统 - hadoop fs -cp 本地目录 HDFS路径
 
-  利用Java API与HDFS交互:需要加载hadoop开发的jar包,一般位于/usr/local/hadoop/share/hadoop目录下,需要将其导入编辑器Eclipse中。选择属性—>Java Build Path—>Libraries—>Add External JARS。 
-  需要将配置的两个文件core-site.xml和hdfs-site.xml复制到Java工程目录下的bin目录下,否则后面运行会出错。 
-  基本编程结构:测试某文件是否存在。 
import org.apache.hadoop.conf.Configuration;//管理相关配置文件
import org.apache.hadoop.fs.FileSystem;		//文件相关的基类
import org.apache.hadoop.fs.Path;			//路径类public class Chap
{try{String filename="hdfs://localhost:9000/user/hadoop/test.txt";Configuration conf =new Configuration();FileSystem fs=FileSystem.get(conf);if(fs.exists(new Path(filename))){System.out.println("文件存在");}else{System.out.println("文件不存在");}}catch(Exception e){e.printStackTrace();}
}