其他分享
首页 > 其他分享> > 进阶-第53__深入聚合数据分析_string field聚合实验以及fielddata原理初探

进阶-第53__深入聚合数据分析_string field聚合实验以及fielddata原理初探

作者:互联网

1  添加测试数据

PUT /test_index/test_type/1

{

  "test_field":"test"

}

PUT /test_index/test_type/2

{

  "test_field":"test"

}

 

 

2  对于分词的field执行aggregation,发现报错。。。

聚合操作

GET /test_index/test_type/_search

{

  "aggs": {

    "group_by_test_field": {

      "terms": {

        "field": "test_field"

      }

    }

  }

}

结果

{

  "error": {

    "root_cause": [

      {

        "type": "illegal_argument_exception",

        "reason": "Fielddata is disabled on text fields by default. Set fielddata=true on [test_field] in order to load fielddata in memory by uninverting the inverted index. Note that this can however use significant memory."

      }

    ],

    "type": "search_phase_execution_exception",

    "reason": "all shards failed",

    "phase": "query",

    "grouped": true,

    "failed_shards": [

      {

        "shard": 0,

        "index": "test_index",

        "node": "21o2lqRDTx2-C0g_2MYfmA",

        "reason": {

          "type": "illegal_argument_exception",

          "reason": "Fielddata is disabled on text fields by default. Set fielddata=true on [test_field] in order to load fielddata in memory by uninverting the inverted index. Note that this can however use significant memory."

        }

      }

    ],

    "caused_by": {

      "type": "illegal_argument_exception",

      "reason": "Fielddata is disabled on text fields by default. Set fielddata=true on [test_field] in order to load fielddata in memory by uninverting the inverted index. Note that this can however use significant memory."

    }

  },

  "status": 400

}

 

对分词的field,直接执行聚合操作,会报错,大概意思是说,你必须要打开fielddata,然后将正排索引数据加载到内存中,才可以对分词的field执行聚合操作,而且会消耗很大的内存

 

3  给分词的field,设置fielddata=true,发现可以执行,但是结果却。。。

给分词的field,设置fielddata=true

POST /test_index/_mapping/test_type

{

  "properties": {

    "test_field": {

      "type": "text",

      "fielddata": true

    }

  }

}

查看mapping

GET /test_index/_mapping/test_type

 

结果:

{

  "test_index": {

    "mappings": {

      "test_type": {

        "properties": {

          "test_field": {

            "type": "text",

            "fields": {

              "keyword": {

                "type": "keyword",

                "ignore_above": 256

              }

            },

            "fielddata": true

          }

        }

      }

    }

  }

}

查询测试

GET /test_index/test_type/_search

{

  "size": 0,

  "aggs": {

    "group_by_test_field": {

      "terms": {

        "field": "test_field"

      }

    }

  }

}

结果

{

  "took": 9,

  "timed_out": false,

  "_shards": {

    "total": 5,

    "successful": 5,

    "failed": 0

  },

  "hits": {

    "total": 2,

    "max_score": 0,

    "hits": []

  },

  "aggregations": {

    "group_by_test_field": {

      "doc_count_error_upper_bound": 0,

      "sum_other_doc_count": 0,

      "buckets": [

        {

          "key": "test",

          "doc_count": 2

        }

      ]

    }

  }

}

 

如果要对分词的field执行聚合操作,必须将fielddata设置为true

 

4  使用内置field不分词,对string field进行聚合

新版本中,会自动为分词的词语建立一个不分词的keyword,默认截取256个字符不分词

使用不分词的字段进行搜索

GET /test_index/test_type/_search

{

  "size": 0,

  "aggs": {

    "group_by_test_field": {

      "terms": {

        "field": "test_field.keyword"

      }

    }

  }

}

 

结果

{

  "took": 2,

  "timed_out": false,

  "_shards": {

    "total": 5,

    "successful": 5,

    "failed": 0

  },

  "hits": {

    "total": 2,

    "max_score": 0,

    "hits": []

  },

  "aggregations": {

    "group_by_test_field": {

      "doc_count_error_upper_bound": 0,

      "sum_other_doc_count": 0,

      "buckets": [

        {

          "key": "test",

          "doc_count": 2

        }

      ]

    }

  }

}

 

如果对不分词的field执行聚合操作,直接就可以执行,不需要设置fieldata=true

 

5  分词field+fielddata的工作原理

不分词

doc value --> 不分词的所有field,可以执行聚合操作 --> 如果你的某个field不分词,那么在index-time,就会自动生成doc value --> 针对这些不分词的field执行聚合操作的时候,自动就会用doc value来执行

分词

分词field,是没有doc value的。。。原因:在index-time,如果某个field是分词的,那么是不会给它建立doc value正排索引的,因为分词后,占用的空间过于大,所以默认是不支持分词field进行聚合的

 

分词field默认没有doc value,所以直接对分词field执行聚合操作,是会报错的

 

对于分词field,必须打开和使用fielddata,完全存在于纯内存中。。。结构和doc value类似。。。如果是ngram或者是大量term,那么必将占用大量的内存。。。

 

如果一定要对分词的field执行聚合,那么必须将fielddata=true,然后es就会在执行聚合操作的时候,现场将field对应的数据,建立一份fielddata正排索引,fielddata正排索引的结构跟doc value是类似的,但是只会讲fielddata正排索引加载到内存中来,然后基于内存中的fielddata正排索引执行分词field的聚合操作

 

如果直接对分词field执行聚合,报错,才会让我们开启fielddata=true,告诉我们,会将fielddata uninverted index,正排索引,加载到内存,会耗费内存空间

 

为什么fielddata必须在内存?因为大家自己思考一下,分词的字符串,需要按照term进行聚合,需要执行更加复杂的算法和操作,如果基于磁盘和os cache,那么性能会很差

 

  1. Fieldate 是加载到内存里面去的,而doc value 是放到磁盘上去的。
  2. Fieldate 是给分词的用的,而dao value 是给不分词的用的。
  3. Fieldate 是在进行聚合操作时,当发现该字段是分词的,才在内存中建立fieldata 正排索引;而doc value 是在创建mapping或者put,post 时,对不分词创建的。

标签:__,index,聚合,进阶,doc,field,test,分词,fielddata
来源: https://blog.csdn.net/qq_35524586/article/details/88596723