其他分享
首页 > 其他分享> > Hadoop介绍

Hadoop介绍

作者:互联网

         

         Apache Hadoop项目是一个提供高可靠可扩展(横向)的分布式计算的开源软件平台。允许使用简单的编程模型跨计算机集群分布式处理大型数据集。它旨在从单个服务器扩展到数千台计算机,每台计算机都提供本地计算和存储。Hadoop本身不是依靠硬件来提供高可用性,而是设计用于检测和处理应用程序层的故障,从而在计算机集群之上提供高可用性服务,每个计算机都可能容易出现故障。

产生背景

        1.Hadoop最早起源于Nutch。Nutch的目的是构建一个大型的全网搜索引擎(网页抓取、索引、查询等功能),但是随着抓取网页数量的增加,遇到了严重的可扩展性问题(不能解决数十亿网页的存储和索引问题)
        2.2003-2004年谷歌发表的三篇论文提供了可行的解决方案
                GFS(Google FileSystem)分布式文件系统,解决海量数据的存储
                MapReduce分布式计算框架,解决海量数据的计算问题
                bigtable分布式数据库,解决海量数据的快速查找
        3.Doug Cutting将Google 的三篇文章用Java重新实现。
                GFS——HDFS

标签:存储,网页,计算机,海量,分布式计算,介绍,Hadoop
来源: https://blog.csdn.net/a318199328/article/details/121611085