其他分享
首页 > 其他分享> > 百万级要素优化:基于PG与PostGIS的实时矢量瓦片服务

百万级要素优化:基于PG与PostGIS的实时矢量瓦片服务

作者:互联网

背景介绍

对于某些应用场景,数据量很容易达到百万级要素,数据每天都在改变。而且还要考虑在1-6级这种小级别时候的数据展示,那么这个时候仅仅是PG与PostGIS简单的矢量瓦片服务比较困难达到客户想要的效果,这个时候就要考虑做一些优化了。

优化方法

百万级要素优化对于不同的业务来说,有相应不同的解决办法,没有最好,只有更好,这个时候要做考量,下面介绍几个常用的会考虑使用的方法:

1、依据业务,对要素进行抽稀过滤

根据业务层面,在不同场景浏览不同的要素,虽然总的要素在几百万,但是这个时候过滤一部分后剩余要素可以进行实时矢量瓦片展示。

2、几种抽稀过滤的算法

除第一种方法外,其余几种方法包含一些个人的想法与思路,其它小伙伴有其他好的思路,或者对我的想法思路有疑问的话,欢迎在评论区留言。

1)道格拉斯-普客算法(DP)

该算法个人理解为是简化的算法,对于线或者面的边界,可以使用该算法对节点进行抽稀,达到对线或者面的简化。但是为什么在点要素抽稀过滤中也介绍该算法呢?

答案:在轨迹数据中,每一次存储的都是点位信息(点),所以对于该种数据可以使用该算法进行过滤,但是对于一个点即代表一种信息的数据来说,该算法不太适用。

2)基于网格的抽稀过滤算法

该算法结果为均匀分布。

  1. 根据数据范围以及阈值将范围划分网格。
  2. 遍历网格,利用网格与数据求交(使用PostgreSQL的gist索引,加快速度),计算交到的要素。
  3. 将交到要素随机选取一个,其余要素舍弃。
  4. 遍历完网格后,即可完成要素过滤。

本人写了一个简单的实现,供各位参考。

--drop FUNCTION point_simplify_grid;
CREATE
OR REPLACE FUNCTION point_simplify_grid (
    PAR_minx DOUBLE PRECISION,
    PAR_miny DOUBLE PRECISION,
    PAR_maxx DOUBLE PRECISION,
    PAR_maxy DOUBLE PRECISION,
    PAR_threshold DOUBLE PRECISION
) RETURNS geometry AS $$
DECLARE REC_points RECORD ; ARR_result_points geometry []; GEO_point geometry ; grid_key VARCHAR (10) ; GEOM_result geometry ; grid_num_x INTEGER ; grid_num_y INTEGER ; grid_json jsonb ;
BEGIN
    grid_num_x := CEIL (
        (PAR_maxx - PAR_minx) / PAR_threshold
    ) ; grid_num_y := CEIL (
        (PAR_maxy - PAR_miny) / PAR_threshold
    ) ; grid_json := '{}' :: jsonb ; ARR_result_points := '{}' :: geometry []; FOR REC_points IN SELECT
        *
    FROM
        tycd_view
    WHERE
        geom && st_makeenvelope (
            PAR_minx,
            PAR_miny,
            PAR_maxx,
            PAR_maxy,
            4326
        ) LOOP grid_key := CEIL (
            (
                st_x (REC_points.geom) - PAR_minx
            ) / PAR_threshold
        ) || ',' || CEIL (
            (
                st_y (REC_points.geom) - PAR_miny
            ) / PAR_threshold
        ) ;
    IF NOT (grid_json ? grid_key) THEN
        ARR_result_points := array_append(
            ARR_result_points,
            st_setsrid (REC_points.geom, 4326)
        ) ; grid_json := grid_json || ('{"' || grid_key || '":true}') :: jsonb ;
    END
    IF ;
    END loop ; GEOM_result := st_union (ARR_result_points) ; RETURN GEOM_result ;
    END ; $$ LANGUAGE plpgsql;

--select st_asgeojson(point_simplify_grid(73,3,135,53,0.2))

 

github链接:https://github.com/MrSmallLiu/point_dilution

3)基于距离的抽稀过滤算法

该算法结果为均匀分布。

  1. 设置距离阈值。
  2. 选取初始点,计算其它点到该点的距离,阈值范围内的点,舍弃。
  3. 从上次结果中,选取另一个点作为基准点,再次执行(2)的步骤,只需计算保留下来的点。
  4. 全部点计算完成后,即可完成要素抽稀过滤。

4)基于随机数的抽稀过滤算法

该算法结果可以保持数据疏密。

对于大数据量时的随机数,可以达到伪随机性,所以可以利用该算法进行随机性的抽稀。

  1. 设置经验阈值,例如r=0.5,同时因为该算法效率可以实时进行,可以考虑基于每一次查询矢量切片时,根据级别设置阈值。
  2. 查询的sql语句中或者其它方式后面添加where条件,where random()>0.5时保留要素。
  3. 基于以上就可以完成50%的抽稀率。

使用的局限:

  1. 对于小数据量可能效果达不到。

优势:

  1. 效率很高,可以不用提前处理数据。
  2. 可以将random()做到数据字段中,使用btree加速。
  3. 设置字段中后,可以保证例如小级后的结果例如3级,在后续级别中保留例如4-18级。

5)基于网格与随机数抽稀过滤算法

该算法结果可以保持数据疏密。

  1. 根据范围与网格大小阈值,划分数据网格。
  2. 遍历网格,利用网格与数据求交(使用PostgreSQL的gist索引,加快速度),计算交到的要素。
  3. 在网格内根据随机数,将网格内数据随机丢弃一些。
  4. 网格遍历完成后,即完成数据抽稀过滤。

该算法弥补了单纯基于数据数的一些局限性,不会导致数据存在缺块(对于大数据量,可能性微乎其微)。

6)基于距离并保持疏密程度的抽稀过滤算法

该算法结果可以保持数据疏密。

  1. 设置距离阈值,设置丢弃比例。
  2. 选取初始点,遍历其它要素,计算其它要素到该要素的距离,小于距离阈值的归为一片。
  3. 将该片数据,基于丢弃比例,舍弃一部分要素。
  4. 继续下一个点为基准点,循环(2)(3)的步骤。
  5. 全部要素完成后,即可完成数据抽稀过滤。

以上即为介绍的几种抽稀过滤算法,可以在合适的场景使用合适的方式。其中虽然有些算法存在局限性(基于随机数的算法),但是对于大数据量来说,可能性很低,并且效率极高,可以做到实时,以下效果也是采用该方法。

效果展示

示例:

 

标签:要素,PAR,PostGIS,算法,过滤,grid,抽稀,瓦片,PG
来源: https://www.cnblogs.com/lishanyang/p/15115101.html