04--Redis安装配置、原生命令、Redis高级:慢查询、事务、位图、HyperLogLog、GEO
作者:互联网
redis内容
1 redis安装配置
2 5大数据类型操作
3 通用指令
4 高级数据类型
BitMaps位图
HyperLogLog 超小内存唯一值计数 # 与布隆过滤器类似
GEO地理位置信息
5 功能丰富:
pipeline事务
Luau脚本
发布订阅(消息)
6 持久化:rdb和aof
7 主从复制 (一主一从,一主多从) # 支持主服务器同步到从服务器中
8 sentinel哨兵(高可用) # v2.8 支持高可用
9 redis集群原理和搭建 # v3.0 支持分布式
10 缓存更新策略,缓存粒度、缓存穿透、击穿、雪崩
1 redis安装和配置
##### 1 下载安装 源码安装
# 下载
wget http://download.redis.io/releases/redis-5.0.7.tar.gz
# 解压
tar -xzf redis-5.0.7.tar.gz
# 建立软连接
ln -s redis-5.0.7 redis # 方便版本迭代
cd redis
make&&make install
# 可执行文件 在src目录下可以看到
redis-server ---> redis服务器
redis-cli ---> redis命令行客户端
redis-benchmark ---> redis性能测试工具
redis-check-aof ---> aof文件修复工具
redis-check-dump ---> rdb文件检查工具
redis-sentinel ---> sentinel服务器,哨兵
##### 2 服务端启动配置
# 三种启动方式 需要在redis可执行文件目录中 ./src/
1 默认启动 # 用的很少
redis-server
2 动态参数启动 # 用的很少
redis-serve --port 6380 # 启动,监听6380端口
3 配置文件启动 # 常用
redis-server conf/redis.conf
# 常用配置参数
daemonize yes # 是否以守护进程启动
pidfile /var/run/redis.pid # 进程号(文件)的位置,删除就是关闭进程
port 6379 # 端口号
dir "/opt/soft/redis/data" # 工作目录 数据存放的目录
logfile “6379.log” # 日志位置
# bind 127.0.0.1 # 只监听本地地址的客户端 不支持远程连接
bind 0.0.0.0
protected-mode no # 保护模式 关闭
requirepass 123456 # 连接密码
# 查看是否启动 查看进程
ps aux |grep redis
# 查看redis端口
netstat -antpl|grep redis
# 关闭进程 redis-server
kill -9 进程id号
redis-cli shutdown
# 客户端连接
redis-cli -h 地址 -p 端口
redis-cli # 默认连接 本地ip的 6379
# 配置了密码,如何连接登陆
# 方式一
redis-cli -h 127.0.0.1 -p 6370 -a 123456
# 方式二
redis-cli -h 服务器地址
auth 密码
# 查看redis的配置信息 可直接在交互式命令行下修改
CONFIG GET * # 查看所有配置信息
CONFIG SET maxmemory 128M # 设置内存最大占用 128m
CONFIG REWRITE # 把修改写到配置文件中
# redis的应用场景
-缓存系统
-计数器 :网站访问量,转发量,评论数(文章转发,商品销量,单线程模型,不会出现并发问题)
-消息队列 :发布订阅,阻塞队列实现(简单的分布式,blpop:阻塞队列,生产者消费者)
-排行榜 :有序集合 阅读排行,点赞排行,推荐(销量高的,推荐)
-社交网络 :很多特效跟社交网络匹配,粉丝数,关注数
-实时系统 :垃圾邮件处理系统,布隆过滤器(id 去重)
# 注意:!!!
1.redis是单线程架构,故所有时间复杂度为0(n)的命令操作,你需要判断消费时间多长
因为所有命令是单线程排队执行的,某个命令时间过长,会导致整体都夯住
2 API的使用
2.1 通用命令
##### 1---keys 时间复杂度为o(n)
# 打印出所有key
keys *
# 打印出所有以he开头的key
keys he*
# 打印出所有以he开头,第三个字母是h到l的范围
keys he[h-l]
# 三位长度,以he开头 ?表示任意一位
keys he?
# 强调:
keys命令一般不在生产环境中使用,生产环境key很多
使用scan命令
##### 2---dbsize 计算key的总数 o(1)
dbsize
# redis内置了计数器,插入删除值该计数器会更改
所以可以在生产环境使用
##### 3---exists key o(1)
# 设置a
set a b
# 查看a是否存在
exists a
(integer) 1
# 存在返回1 不存在返回0
##### 4---del key o(1)
删除成功返回1,key不存在返回0
##### 5---expire key seconds o(1)
expire name 3 # 设置3s 过期
ttl name # 查看name还有多长时间过期
persist name # 去掉name的过期时间
##### 6---type key o(1)
type name # 查看name类型,返回string
##### 7---其他命令
info # 查看信息 内存,cpu,主从相关
client list # 查看正在连接的会话
client kill ip:端口 # 关闭某个redis客户端
dbsize # 查看共有多少个key
flushall # 清空所有
flushdb # 只清空当前库
select 数字 # 选择某个库 总共16个库
monitor # 记录操作日志,夯住(日志审计) !!!
# 7的相关命令 可写在简历中:自动化监控redis相关项目
eg:python的subprocess 执行相关命令
./src/redis-cli -a 123456 client list
2.2 字符串命令
# 字符串键值结构
key value
hello world # 可以很复杂,如:接口返回数据 直接用json格式字符串
counter 1 # 数字类型
bits 10101010 # 二进制(位图)
# 字符串value不能大于512m,一般建议100k以内
# 用于缓存、计数器、分布式锁、分布式id生成...
##### 1---基本使用:get、set、del
get name # 时间复杂度 o(1)
set name lqz # 时间复杂度 o(1)
del name # 时间复杂度 o(1)
##### 2---其他使用:incr、decr、incrby、decrby
incr age # 对age的value值自增1
decr age # 对age的value值自减1
incrby age 10 # 对age的value值增加10
decrby age 10 # 对age的value值减少10
# 统计网站访问量 (单线程无竞争,天然适合做计数器)
# 缓存mysql的信息 (json格式)
# 分布式id生成 (多个机器同时并发着生成,不会重复)
##### 3---set,setnx,setxx
set name lqz # 不管key是否存在,都设置
setnx name lqz # key不存在时才设置(新增操作)
set name lqz nx # 同上
set name lqz xx # key存在,才设置(更新操作)
##### 4---mget mset
mget key1 key2 key3 # 批量获取key1,key2 o(n)
mset key1 value1 key2 value2 key3 value3 # 批量设置 o(n)
# n次get和mget的区别
n次get时间 = n次网络时间 + n次命令时间
mget时间 = 1次网络时间 + n次命令时间
##### 5---其他:getset,append,strlen
getset name lqznb # 设置新值并返回旧值 o(1)
append name 666 # 将value追加到旧的value o(1)
strlen name # 计算字符串长度(注意中文) o(1)
##### 6---其他:incrybyfloat,getrange,setrange
increbyfloat age 3.5 # 为age自增3.5,传负值表示自减 o(1)
getrange key start end # 获取字符串制定下标所有的值 o(1)
setrange key index value # 从指定index开始设置value值 o(1)
2.3 hash命令
# 本质类似于 字典
##### 1---hget、hset、hdel
hget key field # 获取hash key的某个field的value o(1)
hset key field value # 设置hash key的某个field的value o(1)
hdel key field # 删除hash key的某个field o(1)
# eg:
hset user:1:info age 23 # key的形式:user:id:info 写的很长 防止重复
hget user:1:info age
hset user:1:info name lqz
hgetall user:1:info
hdel user:1:info age
##### 2---hexists、hlen
hexists key field # 判断hash key 是否存在field o(1)
hlen key # 获取hash key field的数量 o(1)
# eg:
hexists user:1:info name
hlen user:1:info
##### 3---hmget、hmset
hmget key field1 field2 ...fieldN # 批量获取hash key 的一批field对应的值 o(n)
hmset key field1 value1 field2 value2 # 批量设置hash key的一批field value o(n)
##### 4---hgetall、hvals、hkeys
hgetall key # 返回hash key 对应的所有field和value o(n)
hvals key # 返回hash key 对应的所有field的value o(n)
hkeys key # 返回hash key 对应的所有field o(n)
### 小心使用hgetall。先使用hlen判断字典长度,再判断批量获取还是分批获取
##### 5---其他操作 hsetnx,hincrby,hincrbyfloat
hsetnx key field value # 设置hash key对应field的value(如果field已存在,则失败) o(1)
hincrby key field intCounter # 设置hash key对应的field的value自增intCounter o(1)
hincrbyfloat key field floatCounter # hincrby 浮点数 o(1)
# 用途:
1 计算网站每个用户主页的访问量
hincrby userinfopageview user:1:info count
2 缓存mysql的信息,直接设置hash格式
2.4 列表类型
# 有序队列:可重复,可以从左侧添加,右侧添加,可以从左右两边弹出
##### 1---插入操作
# rpush 从右侧插入
rpush key value1 value2 ...valueN # o(1~n)
# lpush 从左侧插入
lpush key value1 value2 ...valueN # o(1~n)
# linsert 从某个位置插入
# 从元素value的前或后插入newValue o(n),需要遍历列表
linsert key before|after value newValue
# eg:
linsert listkey before b java
linsert listkey after b php
##### 2---删除操作
# 从列表左侧弹出一个item o(1)
lpop key
# 从列表右侧弹出一个item o(1)
rpop key
# 根据count值,从列表中删除为value的项 o(n)
lrem key count value
count>0 # 从左到右,删除最多count个 value
count<0 # 从右向左,删除最多|count|个 value
count=0 # 删除所有为value的项
# eg:
lrem listkey 0 a # 删除列表中所有值a
lrem listkey -1 c # 从右侧删除1个c
# 按照索引范围修剪列表 o(n)
ltrim key start end
# eg: ltrim listkey 1 4 # 只保留下表1--4的元素
##### 3---查询操作
# 获取列表指定索引范围所有item 包含end o(n)
lrange key start end
# eg:
lrange listkey 0 2
lrange listkey 1 -1 # 获取第一个位置到倒数第一个位置的元素
# 获取列表指定索引的item o(n)
lindex key index
# eg:
lindex listkey 0
lindex listkey -1
# 获取列表长度
llen key
##### 4---修改操作
# 设置列表指定索引值为newValue o(n)
lset key index newValue
# eg: lset listkey 2 ppp # 把第二个位置设为'ppp'
##### 5---其他操作
blpop key timeout # lpop的阻塞版,timeout是阻塞超时时间 o(1)
brpop key timeout # rpop的阻塞版,timeout是阻塞超时时间 o(1)
# 要实现栈的功能 先进后出
lpush+lpop 左插左出
# 实现队列功能 先进先出
lpush+rpop 左插右出
# 固定大小的列表
lpush+ltrim
# 消息队列
lpush+brpop
# 用途: 主要是用来 存有先后顺序的 实现timeLine(时间线/轴)功能
eg: 微博关注的人、状态发布
按时间轴排列,依次在列表中放入 关注人的微博id 或者 状态id
2.5 集合操作
# 无序,无重复,集合间操作(交叉并补)
# 向集合key添加element(如果element存在,添加失败) o(1)
sadd key element
# 从集合中的element移除掉 o(1)
srem key element
# 计算集合大小
scard key
# 判断element是否在集合中
sismember key element
# 从集合中随机取出count个元素,不会破坏集合中的元素(抽奖)
srandmember key count
# 从集合中随机弹出一个元素 原集合该元素就没了
spop key
# 获取集合中所有元素 !!! 无序,小心使用,会阻塞住 o(n)
smembers key
# 计算1和2的差集
sdiff user:1:follow user:2:follow
# 计算1和2的交集
sinter user:1:follow user:2:follow
# 计算1和2的并集
sunion user:1:follow user:2:follow
# 将差集,交集,并集结果保存在destkey集合中
sdiff|sinter|suion + store destkey
# 用途
1.抽奖系统 :通过spop来弹出用户的id,活动取消,直接删除
2.点赞/点踩/喜欢等 :用户如果点了赞,就把用户id放到该条记录的集合中
3.标签 :给用户/文章等添加标签,sadd user:1:tags 标签1 标签2 标签3
4.共同好友 :sinter交集 集合间的操作
sadd:可以做标签相关
spop/srandmember:可以做随机数相关
sadd/sinter:社交相关
2.6 有序集合
# 本质:有一个分值字段,来保证顺序
key score value
user:ranking 1 lqz
user:ranking 99 lqz2
user:ranking 88 lqz3
# 集合与有序集合
集合:无重复元素,无序,element
有序集合:无重复元素,有序,element+score
# 列表和有序集合
列表:可以重复,有序,element
有序集合:无重复元素,有序,element+score
# 添加元素 score可重复,可添加多个,element不能重复 o(logN)
zadd key score element # 元素重复时,就是修改元素对应的分数
# 删除元素,可多个同时删除 o(1)
zrem key element
# 获取元素的分数 o(1)
zscore key element
# 增加或减少元素的分数 o(1)
zincrby key increScore element
# 返回元素总个数 o(1)
zcard key
# 返回element元素的排名(从小到大排)
zrank key element
# 返回排名,不带分数 o(log(n)+m) n是元素个数,m是要获取的值
zrange key 0 -1
# 返回排名,带分数
zrange key 0 -1 withscores
# 返回指定分数范围内的升序元素 o(log(n)+m)
zrangebyscore key minScore maxScore
eg:zrangebyscore user:1:ranking 90 210 withscores # 获取90分到210分的元素
# 返回有序集合内在指定分数范围内的个数 o(log(n)+m)
zcount key minScore maxScore
# 删除指定排名内的升序元素 o(log(n)+m)
zremrangebyrank key start end
eg:zremrangebyrank user:1:rangking 1 2 # 删除升序排名中1到2的元素
# 删除指定分数内的升序元素 o(log(n)+m)
zremrangebyscore key minScore maxScore
eg:zremrangebyscore user:1:ranking 90 210 # 删除分数90到210之间的元素
# 其他操作
zrevrank # 从高到低排序
zrevrange # 从高到低排序取一定范围
zrevrangebyscore # 返回指定分数范围内的降序元素
zinterstore # 对两个有序集合交集
zunionstore # 对两个有序集合求并集
# 用途:
排行榜:音乐排行榜,销售榜,关注榜,游戏排行榜
3 高级api使用
http://www.liuqingzheng.top/db/Redis系列/03-Redis系列之-高级用法/
3.1 慢查询
# 慢查询介绍
配置一个时间(默认也有配置),如果查询时间超过了设置时间,认为这是一个慢查询
# redis执行生命周期
1.客户端发送命令--->2.进入服务端命令队列--->3.执行命令--->4.返回结果
慢查询发生在第3阶段
# 客户端超时不一定是慢查询,但慢查询是客户端超时的一个可能因素
# 慢查询配置
slowlog-max-len # 设置慢查询对列的大小
# 表示记录多少条慢查询命令 默认为128
# 是一个先进先出的对列 固定长度 保存在内存中
slowlog-log-slower-than # 慢查询阈值(单位:微秒μs)
# 表示命令执行时间超过该值 就记录到慢查询对列中
>0 # 是否记录的时间阈值 默认为10000μs =10ms
=0 # 记住所有命令
<0 # 不记录任何命令
# 动态修改配置 或者 修改配置文件(只写配置参数和值)
# 设置记录阈值 1000μs =1ms
config set slowlog-log-slower-than 1000
# 最多记录1000条
config set slowlog-max-len 1000
# 持久化到本地配置文件
config rewrite
# 慢查询命令操作
slowlog get [n] # 获取慢查询队列的第N个命令
'''
日志由4个属性组成:
1)日志的标识id
2)发生的时间戳
3)命令耗时
4)执行的命令和参数
'''
slowlog len # 获取慢查询队列长度
slowlog reset # 清空慢查询队列
# 宝贵经验
1 slowlog-max-len 不要设置过小 # 通常设置1000左右
2 slowlog-log-slower-than 不要设置过大,默认10ms # 通常设置1ms
3 理解命令生命周期
4 定期持久化慢查询
# 延伸使用:
redis性能不高了,如何取排除
# ---> 写成简历中项目收获、项目中遇到的问题
之前在项目遇到的问题是:redis正常情况速度挺快,有几次突然redis很慢
我就正常排查,大概方向就是肯定有漫长命令在执行
通过 慢查询命令: slowlog len/get/reset
记录哪些命令会导致慢查询后,以后尽量避免使用
3.2 pipeline和watch
3.2.1 pipeline
# 详细:参考 批量执行redis命令
https://www.jianshu.com/p/75137d23ae4a
# pipeline(管道)
命令中不支持pipeline,但各个语言客户端支持
将一批命令,批量打包,在redis服务端批量计算(执行),然后把结果批量返回 节约RTT时间(Round Trip Time)
# 但是 各个命令之间不能有数据依赖
# 用途:
1.实现redis事务
2.实现乐观锁
# 注意:
1.pipeline期间将“独占” 一个客户端链接 故常pipeline和其他正常操做分离在不同client中
2.pipeline的命令执行过程中,其他client的命令可能会在本pipeline的中间被执行
3.pipeline是需要server和client的共同支持才能实现
4.pipeline的可发送命令数量 受 client端缓冲区大小、server端query buffer/output buffer 限制
# 面试常问:redis的通过pipeline批量 与 原生get、mget有啥区别
n条原生命令时间 = n次网络时间 + n次命令时间
1次pipeline(n条命令) = 1次网络时间 + n次命令时间
mget等原生批量命令时间 = 1次网络时间 + n次命令时间
1.与get等对比:pipeline实现了批量执行多个命令操作,节约了网络io时间
2.与mget等对比:
a.pipeline提交的批量命令,服务端可以拆成多次执行 pipeline并非原子性
若部分命令失败,pipeline不会整体回滚
mget等原生批量操作,是一次性执行的,是原子性的
b.原生批量命令是一个命令对应多个key,Pipeline支持多个命令
c.原生批量命令是Redis服务端支持实现的,而Pipeline需要服务端和客户端的共同实现
d.更底层的对比,在redis的底层 io多路复用模型中,把数据从内核缓存区 复制到 用户缓存区时
原生批量命令:需要多次 从内核缓存区(执行结果) 去接受数据
pipeline管道:只需要一次 接受数据
# 节约了这部分资源 性能比批量高一点点
# 使用建议
1 注意每次pipeline携带的数据量 # 大包分小包 小包大小为8k
2 pipeline每次只能作用在一个Redis的节点上
3 M(mset,mget….)操作和pipeline的区别
# watch 实现乐观锁
3.2.2 基于pipeline实现事务和watch
# pipeline管道不是原子性的,但通过pipeline实现的事务是原子性的 全成功or失败
##### python客户端实现 基于pipeline的事务
import redis
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
r = redis.Redis(connection_pool=pool)
# 创建pipeline
pipe = r.pipeline(transaction=True)
# 开启事务
pipe.multi()
# 事务添加命令
pipe.set('name', 'lqz')
# 其他代码,可能出异常
pipe.set('role', 'nb')
# 提交事务
pipe.execute()
##### redis 原生事务
multi # 开启事务
set name lqz # 将命令放到管道queue中
set age 18
exec # 退出事务 并执行queue中的所有命令
# Watch key 命令用于监视一个(或多个) key 监控一直持续到EXEC命令
如果在事务执行之前 这个(或这些) key 被其他命令所改动,那么事务将被打断
# eg: 常用来决定事务是执行还是回滚、乐观锁
# eg: 模拟事务--只能当前客户端自建某个key,其他客户端不允许
# 客户端1:
watch age # 在开启事务之前,先watch
multi
decr age
exec
# 客户端2:
mutil
decr age
exec
# 若在客户端1的exec(执行事务)命令前,先执行客户端2的事务命令 那么客户端1的事务执行就会失败
因为现在被watch 监控的key,已经被修改了
# watch的作用:
乐观锁:乐观的认为本次的key不会被修改,如果被修改,那么本次事务就不成功
被watch的事务,key被修改后 事务不会执行成功
eg: 利用redis的乐观锁,实现秒杀系统的数据同步(基于watch实现)
https://www.cnblogs.com/liuqingzheng/p/9997092.html
# redis的乐观锁 秒杀系统核心逻辑测试,创建100个线程并发秒杀
import redis
from threading import Thread
def choose(name, conn):
# conn.set('count',10)
with conn.pipeline() as pipe:
# 先监视,自己的值没有被修改过
conn.watch('count')
# 事务开始
pipe.multi()
old_count = conn.get('count')
count = int(old_count)
# input('我考虑一下')
# time.sleep(random.randint(1, 2))
if count > 0: # 有库存
pipe.set('count', count - 1)
# 执行,把所有命令一次性推送过去
ret = pipe.execute()
print(ret)
if len(ret) > 0:
print('第%s个人抢购成功' % name)
else:
print('第%s个人抢购失败' % name)
if __name__ == '__main__':
conn = redis.Redis(host='127.0.0.1', port=6379)
for i in range(100):
t = Thread(target=choose, args=(i, conn))
t.start()
3.3 发布订阅(使用较少)
# 角色
发布者、订阅者、频道
发布者发布了消息,所有的订阅者都可以收到,就是生产者消费者模型(后订阅了,无法获取历史消息)
# 不是专业的消息队列,发布订阅功能使用很少
通常使用专业的消息队列 rabbitmq 来发布订阅
3.4 BitMaps位图
# 本质就是字符串 bitmaps就是可以操作字符串的bit位
# redis字符串最大 512M 约40亿大小
# 用途:
独立用户的统计 # 一般的公司根本用不到
参考:https://blog.csdn.net/uisoul/article/details/117959561
# 基本原理:统计每日活跃用户
假设用户1亿 userid是自增的int类型
就使用位图 bit对应的序号 就相当于 用户userid号
# 只要用户当日登录,就将对应bit 设置为1
setbit user:view:2020-5-17 3 1
# 统计当日活跃用户数量
bitcount user:view:2020-5-17 --> 1
set hello big # 放入key位hello 值为big的字符串
### 可以直接操纵位
getbit key offset # 取位图第offset个位置的值 0/1
setbit key offset value # 给位图指定索引 设置值
# eg:
setbit hello 7 1 # 把hello的第7个位置设为1 big就变成了cig
setbit test 50 1 # 当key不存在时,在key的value的第50位设为1,那其他位都以0补
bitcount key [start end] # 获取位图指定范围位值为1的个数 默认为全部字节
# eg:
bitcount user:view:2020-5-17
# 做多个Bitmap的and(交集)/or(并集)/not(非)/xor(异或),操作并将结果保存在destkey中
bitop op destkey key [key...]
# eg:
bitop and after_lqz lqz lqz2 # 把lqz和lqz2按位与操作 放到after_lqz中
bitpos key targetBit start end # 计算指定范围内第一个比特值为指定bit(0或1)的偏移量
# eg:
bitpos lqz 1 # lqz 对应位图中第一个bit为1的位置
bitpos lqz 0 # lqz 对应位图中第一个bit为0的位置
bitpos lqz 1 1 2 # 返回从第一个字节到第二个字节之间 第一个1的位置
3.5 HyperLogLog
# 超小内存唯一值计数 每个键大小为12kb
# 本质就是一个基于HyperLogLog算法 超小内存去重的字符串集合
# 三个命令
# 向hyperloglog类型的key 添加元素,可以同时添加多个
pfadd key element
# 计算key的独立总数
pfcount key
# 合并多个hyperloglog,把sourcekey1和sourcekey2合并为 destroy
pfmerge destroy sourcekey1 sourcekey2
# eg:
pfadd uuids1 "uuid1" "uuid2" "uuid3" "uuid4"
pfadd uuids2 "uuid3" "uuid4" "uuid5" "uuid6"
pfmerge uuidsall uuids1 uuids2 # 合并
pfcount uuidsall #统计个数 返回6
# 用途:极小的空间完成独立数量统计
统计注册 IP 数
统计月访问 IP 数
统计用户每天搜索不同词条的个数
# 总结:
1.百万级别独立用户统计,百万条数据只占15k
2.错误率 0.81%
3.无法取出单条数据,只能统计个数
4.一般可以bitmap和hyperloglog配合使用
bitmap标识哪些用户活跃,hyperloglog计数
# 与布隆过滤器类似 都有误差
3.6 GEO 地理信息定位
# 本质是有序集合 zset
# GEO(地理信息定位):存储经纬度,计算两地距离,范围等
# eg:
北京:116.28,39.55
天津:117.12,39.08
可以计算天津到北京的距离,天津周围50km的城市,外卖等
# 相关命令
# 增加地理位置信息
geoadd key longitude latitude member
# eg:
geoadd cities:locations 116.28 39.55 beijing # 把北京地理信息天津到cities:locations中
geoadd cities:locations 117.12 39.08 tianjin
geoadd cities:locations 114.29 38.02 shijiazhuang
geoadd cities:locations 118.01 39.38 tangshan
geoadd cities:locations 115.29 38.51 baoding
# 获取地理位置信息
geopos key member
# eg:
geopos cities:locations beijing # 获取北京地理信息
# 获取两个地理位置的直线距离 unit:m(米) km(千米) mi(英里) ft(尺)
geodist key member1 member2 [unit]
# eg:
geodist cities:locations beijing tianjin km # 北京到天津的距离,89公里
# 根据给定的经纬度,返回半径不超过指定距离的元素
georadius key logitude latitude radiusm|km|ft|mi [withcoord] [withdist] [withhash] [COUNT count] [asc|desc] [store key][storedist key]
# 获取指定位置范围内的地理位置信息集合
georadiusbymember key member radiusm|km|ft|mi [withcoord] [withdist] [withhash] [COUNT count] [asc|desc] [store key][storedist key]
# 其他参数
withcoord 返回结果中包含经纬度
withdist 返回结果中包含距离中心节点位置
withhash 返回解雇中包含geohash
COUNT count 指定返回结果的数量
asc|desc 返回结果按照距离中心店的距离做升序/降序排列
store key 将返回结果的地理位置信息保存到指定键
storedist key 将返回结果距离中心点的距离保存到指定键
# eg:
georadiusbymember cities:locations beijing 150 km
1) "beijing"
2) "tianjin"
3) "tangshan"
4) "baoding"
标签:pipeline,HyperLogLog,04,Redis,redis,value,---,命令,key 来源: https://www.cnblogs.com/Edmondhui/p/16663916.html