Hadoop介绍
作者:互联网
Apache Hadoop项目是一个提供高可靠,可扩展(横向)的分布式计算的开源软件平台。允许使用简单的编程模型跨计算机集群分布式处理大型数据集。它旨在从单个服务器扩展到数千台计算机,每台计算机都提供本地计算和存储。Hadoop本身不是依靠硬件来提供高可用性,而是设计用于检测和处理应用程序层的故障,从而在计算机集群之上提供高可用性服务,每个计算机都可能容易出现故障。
产生背景
1.Hadoop最早起源于Nutch。Nutch的目的是构建一个大型的全网搜索引擎(网页抓取、索引、查询等功能),但是随着抓取网页数量的增加,遇到了严重的可扩展性问题(不能解决数十亿网页的存储和索引问题)
2.2003-2004年谷歌发表的三篇论文提供了可行的解决方案
GFS(Google FileSystem)分布式文件系统,解决海量数据的存储
MapReduce分布式计算框架,解决海量数据的计算问题
bigtable分布式数据库,解决海量数据的快速查找
3.Doug Cutting将Google 的三篇文章用Java重新实现。
GFS——HDFS
标签:存储,网页,计算机,海量,分布式计算,介绍,Hadoop 来源: https://blog.csdn.net/a318199328/article/details/121611085