hdfs的块大小以及hdfs的读写流程
作者:互联网
-
hdfs上的文件是以块为单位进行存储的
大小一般设置为128m,不能太小,也不能太大。
详细情况看以下链接
-
hdfs的写数据流程
(1)客户端向 NameNode 请求上传文件,NameNode 检查目标文件是否已存在,父目录是否存在。
(2)NameNode 返回是否可以上传
(3)客户端请求第一个 Block 上传到哪几个 DataNode 服务器上
(4)NameNode 返回 比如3 个 DataNode 节点,分别为 dn1、dn2、dn3。这些节点由计算最短距离得到
(5)客户端将需要上传的数据封装为一个个的 chunk,当chunk累计大小到达64k时,就将这他们封装为一个packet,一个个的packet组成packet队列,等待上传。
与此同时,还有一个ACK队列存在,ACK队列不但保存校验信息,还会保存一份packet数据,以供dn写入数据失败重新读取。
(6)客户端请求 dn1 上传数据,dn1 收到请求会继续调用dn2,然后 dn2 调用 dn3,将这个通信管道建立完成。
(7)dn1、dn2、dn3 逐级应答客户端。
(8)客户端开始往 dn1 上传第一个 Block(先从磁盘读取数据放到一个客户端的本地内存缓存,达到64k就封装成一个packet放入packetc队列),以 Packet 为单位,dn1 收到一个 Packet 就会传给 dn2,dn2 传给 dn3;dn1 每传一个 packet
会放入一个应答队列等待应答。注意客户端将一个文件分割成多个block块存储到hdfs上,这里的dn1传给dn2,dn2传给dn3是在做每个block块的备份,hdfs默认是3份,所以这里举例三个节点
(9)当一个 Block 传输完成之后,客户端再次请求 NameNode 上传第二个 Block 的服务
器。(重复执行 3-7 步)。
-
hdfs读数据流程
(1)客户端 向 NameNode 请求下载文件,NameNode 通过查询元数据,找到文件块所在的 DataNode 地址。
(2)挑选一台 DataNode服务器,优先找最近的节点读取,如 DataNode1, block1。若最近的节点负载过高,则找下个节点读取下个block,如DataNode2, block2。请求读取数据。
(3)DataNode 开始传输数据给客户端(从磁盘里面读取数据输入流,以 Packet 为单位来做校验)。hdfs是以block块来存储的,但是datanode和客户端之间传递数据是以组成每个block块的packect为单位来传输的。
(4)客户端以 Packet 为单位接收,先在本地缓存,然后写入目标文件
标签:hdfs,读写,packet,dn1,dn2,NameNode,流程,客户端 来源: https://www.cnblogs.com/xstCoding/p/16295993.html