其他分享
首页 > 其他分享> > storm知识点学习总结(一)

storm知识点学习总结(一)

作者:互联网

storm --流式处理框架

   storm是个实时的、分布式以及具备高容错的计算系统

   - storm 进程常驻内存

  - storm 数据不经过磁盘,在内存中处理

  Twitter开源的分布式实时大数据处理框架,最早开源于github

  storm 架构   -Nimbus  -Supervisor  -Worker

  编程模型: - DAG      -Spout  -Bolt

  数据传输: - ZMQ (Twitter早起的产品)

                     - ZeroMQ 开源的消息传递框架,并不是一个MessageQueue

                    -Netty Netty是基于NIO的网络框架,更加高效 (之所以storm0.9版本之后使用netty,是因为ZMQ的license和storm的licemse不兼容)

  高可靠性: -异常处理    -消息可靠性保障机制(ACK)

  可维护性: -stormUI图形化监控接口

  流式处理(同步与异步):客户端提交数据进行计算,并不会等待数据计算结果 

  逐条处理:例如ETL(数据清洗)

  统计分析: 例如计算pv、uv、访问热点以及某些数据的聚合、加和、平均等

  --客户端提交数据之后,计算完成结果存储到redis、Hbase、Mysql或者其他的MQ当中

   客户端并不关心最终的计算结果是多少

  实时请求应答服务(同步) -客户端提交数据请求之后,立刻取得计算结果并返回给客户端

 DRPC:

 实时请求处理:

storm : 进程 、线程常驻内存运行,数据不仅如此磁盘,数据通过网络进行传递

MapReduce: 为TB、PB级别数据设计 的批处理计算框架

storm与mapreduce的比较:

storm: 流式处理、毫秒级、DAG模型、常驻运行

MapReduce: 批处理、分钟级、map+reduce模型 、反复启停

storm:纯流式处理 

           - 专门为流式处理设计

          - 数据传输模式更为简单,很多地方也更为高效

         -并不是不能做批处理,它也可以用来做微批处理,来提高吞吐

 Spark Streaming :微批处理  

       -- 将RDD做的很小来用小的批处理来接近流式处理

      --基于内存和DAG处理任务做的很快

 storm: 流式处理,毫秒级,已经很稳定,独立系统专门流式计算设计

 SparkStreaming: 微批处理、秒级、稳定性改进中、spark核心之上的一种计算模型,能与其他的组件进行很好的结合

 storm计算模型: 

          Topology-DAG 有向无环图的实现

          --对于strom实时计算逻辑的封装

          --即、由一系列通过数据流相互关联的spout、bolt所组成的拓扑结构

         --生命周期:此拓扑只要启动就会一直在集群中运行,直到手动将其kill,否则不会终止

       tuple  --元祖

   ---storm中最小的数据组成单元

      stream --数据流

      --从spout中源源不断传递数据给bolt、以及上一个bolt传递给下一个bolt,所形成的这些数据通道即叫做stream

      --stream声明时需给其指定一个ID

      spout -数据源 

      -拓扑中数据流的来源。一般会从指定外部的数据源读取元祖(tuple)发送到拓扑(Topology)中

     -一个spout可以发送多个数据流(stream)

    --可先通过OutputFieldsDeclear中的declear方法声明定义的不同数据流,发送数据时SpoutOutPutCollector中的emit方法指定数据流的参数将数据发送出去

   --spout中最核心的方法是nextyouple,该方法会被storm线程不断对的调用、主动从数据源拉取数据,在通过emit方法将数据生成元祖(tuple)发送给只有的bolt计算

  

    -bolt  数据流处理组件

    - 拓扑中数据处理均有bolt完成。对于简单的任务或者数据流转换,单个bolt可以简单的实现;更加复杂的场景往往需要多个bolt分多个步骤处理完成

    -一个bolt可以发送多个数据流(Stream)

   --可以先通过outputFiledDeclear中的declear方法生命定义的不同数据流,发送数据时通过spoutOutputcollector中的emit方法指定数据流id参数将数据发送出去

   --bolt最核心的方法是executor方法,该方法负责接收一个元祖数据、真正实现核心的业务逻辑

  stream Grouping --数据流分组

用storm 实现wordcount单词统计

 数据发送类

package com.storm.spout;

import java.util.List;
import java.util.Map;
import java.util.Random;

import backtype.storm.spout.SpoutOutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.topology.base.BaseRichSpout;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Values;
import backtype.storm.utils.Utils;

public class Wdcspout extends BaseRichSpout{

    private SpoutOutputCollector collector;

    String[] text = {
            "nihao hello ok",
            "nice to meet hello",
            "where are you ok",
            "where is you home"
            
    };
    
    Random r = new Random();
    @Override
    public void nextTuple() {
        // TODO Auto-generated method stub
        
        List line = new Values(text[r.nextInt(3)]);
        this.collector.emit(line);
    
        System.out.println("line==============="+line);
        Utils.sleep(1000);
        
    }

    @Override
    public void open(Map conf, TopologyContext context, SpoutOutputCollector collector) {
        // TODO Auto-generated method stub
        this.collector = collector;
        
        
        
    }

    /**
     * 
     * 
     */
    @Override
    public void declareOutputFields(OutputFieldsDeclarer declarer) {
        // TODO Auto-generated method stub
        declarer.declare(new Fields("line"));
    }

}

数据处理类:

package com.storm.bolt;

import java.util.List;
import java.util.Map;

import backtype.storm.task.OutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.topology.base.BaseRichBolt;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Tuple;
import backtype.storm.tuple.Values;

public class Wcdbolt extends BaseRichBolt{

    private OutputCollector collector;

    @Override
    public void execute(Tuple input) {
        // TODO Auto-generated method stub
        //1、获取数据,并对获取的数据进行切分
        String[] words =  input.getString(0).split(" ");
        //2、发送数据
        for(String word: words) {
            
            List tuple = new Values(word);
            this.collector.emit(tuple);
            
        }
        
        
        
        
    }

    @Override
    public void prepare(Map conf, TopologyContext context, OutputCollector collector) {
        // TODO Auto-generated method stub
        this.collector = collector;
    }

    @Override
    public void declareOutputFields(OutputFieldsDeclarer declarer) {
        // TODO Auto-generated method stub
        declarer.declare(new Fields("tuple"));
    }

}

第二个处理数据的bolt

package com.storm.bolt;

import java.util.HashMap;
import java.util.Map;


import backtype.storm.task.OutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.topology.base.BaseRichBolt;
import backtype.storm.tuple.Tuple;

public class wcdsbolt extends BaseRichBolt{

    private OutputCollector collector;

    
    Map<String, Integer> map = new HashMap<>();
    @Override
    public void execute(Tuple input) {
        // TODO Auto-generated method stub
        //对接受到的数据进行处理 
        String word = input.getStringByField("tuple");
        int count = 1;
        //如果单词不存在,则把单词的统计数添加到map中,否则,在原址value的基础之上加1 
        if(map.containsKey(word)) {
            count = map.get(word)+1;
        }
        
        map.put(word, count);
        
        System.err.println(word+"----------------------------"+count);
        
        
    }

    @Override
    public void prepare(Map conf, TopologyContext context, OutputCollector collector) {
        // TODO Auto-generated method stub
        this.collector = collector;
    }

    @Override
    public void declareOutputFields(OutputFieldsDeclarer arg0) {
        // TODO Auto-generated method stub
        
    }

}

对处理结果提交到本地运行

package com.storm.test;

import org.jgrapht.alg.TarjanLowestCommonAncestor.LcaRequestResponse;

import com.storm.bolt.Wcdbolt;
import com.storm.bolt.wcdsbolt;
import com.storm.spout.Wdcspout;

import backtype.storm.LocalCluster;
import backtype.storm.topology.TopologyBuilder;
import backtype.storm.tuple.Fields;
import backtype.storm.Config;;

public class test1 {

    public static void main(String[] args) {
        
        TopologyBuilder tm = new TopologyBuilder();
        
        //单线程处理
        /*tm.setSpout("wcdspout", new Wdcspout());
        tm.setBolt("wcdbolt", new Wcdbolt()).shuffleGrouping("wcdspout");
        tm.setBolt("wcdsbolt", new wcdsbolt()).shuffleGrouping("wcdbolt");*/
        //多线程处理
        tm.setSpout("wcdspout", new Wdcspout());
        tm.setBolt("wcdbolt", new Wcdbolt(),3).shuffleGrouping("wcdspout");
        tm.setBolt("wcdsbolt", new wcdsbolt(),3).fieldsGrouping("wcdbolt", new Fields("tuple"));
        
        
        
        LocalCluster lm = new LocalCluster();
        
        lm.submitTopology("w", new Config(), tm.createTopology());    
    }
}

注: 当用多线程处理的时候,注意对于分发策略的选择。   否则会发生数据统计异常的错误 。分发策略主要由grouping方法来进行处理的。

 

storm grouping --数据流分组;(即数据的分发策略)

 

1、 shuffle grouping

      --随机分组,随机派发stream里面的tuple,保证每个bolt task 接受到的tuple数目大致相同 。

     --轮询,平均分配。

  2、 Fields grouping

     --按字段分组,比如,按“user-id”这个字段来进行分组,那么具有同样“user-id”的tuple会被分到相同的bolt里面的一个task,而不同的"user-id"则可能会被分到不同的task

     --

 3、 All grouping

   -- 广播分发,对于每一个tuple,所有的bolt都会收到

4、Global Grouping

   --全局分组,把tuple分配给task id 最低的task

  5、None grouping

    -- 不分组,这个分组的意思是说storm不关心到底是怎样进行分组的,目前这种分组和shufflegrouping 的分组效果是一样的。有一点不同的地方就是storm会把使用none grouping 的这个bolt放到这个bolt的订阅者的同一个线程中区,(未来storm如果可能的话,会进行这样的设计)

  6、direct grouping

   --指向型分组,这是一种比较特殊的分组方法,用这种分组意味着消息(tuple)的发送者指定由消息接受者的那个task处理这个消息。只要被声明为Direct stream 的消息流可以声明这种分组方法。而且这种消息的tuple必须使用emitDirect方式来发送。消息处理着可以通过TopologyContext来获取处理它的消息的task的id

 

7、Local or shuffle grouping 

   --本地或随机分组。如果目标bolt有一个或者多个task与源bolt的task在同一个工作进程中,tuple将会被随机发送给这些同进程中的task,否则,和普通的shuffle grouping 行为一致

8、 customgrouping

   --自定义,相当于mapreduce哪里自己去实现一个partition一样。

 

storm 架构设计

    

Nimbus: --资源调度  --任务分配  --接受jar包

Supervisor: --接受Nimbus分配的任务

-- 启动、停止自己管理的worker进程(当前supervisor上worker数量由配置文件设定)

--Worker

   --运行具体处理运算组件的进程(每个worker对应执行一个Topology的子集)

   --worker任务类型,即spout,bolt任务两种

   --启动executor(executor即worker JVM进程中的一个java线程,一般默认每个executor负责执行一个task任务 )

--zookeeper:

storm 提交任务流程:  1、将提交的jar包上传至nimbus服务器numbus/inbox目录下  2、对topology进行检验处理   3、建立Topology在本地的存放目录nimbus\stormdist\topology-id(该目录下包含三个文件)

       stormjar.jar:  --从nimbus/inbox目录下移动来的Topology的jar包

       stormcode.ser:   --对Topology对象序列化法

       stormconf.ser:  --topology的运行配置

  nimbus任务分配:即根据代码初始化spout/bolt的task数目,并分配给对应的task-id,最后将这些信息写入到zookeeper的/task节点下

  nimbus在zookeeper上创建taskbeats节点,监控task的心跳

  将任务分配信息写入到assignment/topology-id节点中,此时即可认为任务提交完毕

  在zookeeper的/storms/topology-id节点下存放任务运行的时间、状态等信息

  定期检查zookeeper上storm节点,是否有新任务提交,删除本地不在运行的任务

  根据nimbus指定的任务信息启动该节点上的worker

   查看需要执行的task任务信息,获取到相应的task信息,即spout/bolt任务信息,执行具体的运算,并根据IP以及端口发送消息数据

  

 

  

storm的安装:

伪分布式的安装:

1、 上传安装压缩包   2、将安装压缩包解压  3、配置环境变量  4、启动storm相关命令

storm dev-zookeeper >> ./logs/zk.out 2>&1 & (将启动日志重定向到logs目录中,2>&1代表将标准的错误输出重定向到标准的正确输出中)

 

标签:总结,知识点,task,tuple,backtype,bolt,storm,import
来源: https://www.cnblogs.com/wcgstudy/p/11257829.html