你想了解一线大厂的分布式唯一ID生成方案吗?
作者:互联网
目录
- 前言
- UUID
- mysql主键自增
- mysql多实例主键自增
- 雪花算法
- redis生成方案
- 总结
- 悬念
前言
分布式系统中我们会对一些数据量大的业务进行分拆,如:用户表,订单表。因为数据量巨大一张表无法承接,就会对其进行分库分表。小伙伴们可以去看一下老顾的以前的文章你知道怎么分库分表吗?如何做到永不迁移数据和避免热点吗? 和
如何永不迁移数据和避免热点? 根据服务器指标分配数据量(揭秘篇)
但一旦涉及到分库分表,就会引申出分布式系统中唯一主键ID的生成问题,永不迁移数据和避免热点的文章中要求需要唯一ID的特性:
1、整个系统ID唯一
2、ID是数字类型,而且是趋势递增的
3、ID简短,查询效率快
什么是递增?如:第一次生成的ID为12,下一次生成的ID是13,再下一次生成的ID是14。这个就是生成ID递增。
什么是趋势递增?如:在一段时间内,生成的ID是递增的趋势。如:再一段时间内生成的ID在【0,1000】之间,过段时间生成的ID在【1000,2000】之间。但在【0-1000】区间内的时候,ID生成有可能第一次是12,第二次是10,第三次是14。
那有什么方案呢?往下看
UUID
这个方案是小伙伴们第一个能过考虑到的方案
优点:
1、代码实现简单。
2、本机生成,没有性能问题
3、因为是全球唯一的ID,所以迁移数据容易
缺点:
1、每次生成的ID是无序的,无法保证趋势递增
2、UUID的字符串存储,查询效率慢
3、存储空间大
4、ID本事无业务含义,不可读
应用场景:
1、类似生成token令牌的场景
2、不适用一些要求有趋势递增的ID场景
此UUID方案是不适用老顾的需求
mysql主键自增
这个方案就是利用了mysql的主键自增auto_increment,默认每次ID加1。
优点:
1、数字化,id递增
2、查询效率高
3、具有一定的业务可读
缺点:
1、存在单点问题,如果mysql挂了,就没法生成iD了
2、数据库压力大,高并发抗不住
mysql多实例主键自增
这个方案就是解决mysql的单点问题,在auto_increment基本上面,设置step步长
每台的初始值分别为1,2,3...N,步长为N(这个案例步长为4)
优点:解决了单点问题
缺点:一旦把步长定好后,就无法扩容;而且单个数据库的压力大,数据库自身性能无法满足高并发
应用场景:数据不需要扩容的场景
此方案也不满足老顾的需求,因为不方便扩容(记住这个方案,嘿嘿)
雪花snowflake算法
这个算法网上介绍了很多,老顾这里就不详细介绍。雪花算法生成64位的二进制正整数,然后转换成10进制的数。64位二进制数由如下部分组成:
- 1位标识符:始终是0
- 41位时间戳:41位时间截不是存储当前时间的时间截,而是存储时间截的差值(当前时间截 - 开始时间截 )得到的值,这里的的开始时间截,一般是我们的id生成器开始使用的时间,由我们程序来指定的
- 10位机器标识码:可以部署在1024个节点,如果机器分机房(IDC)部署,这10位可以由 5位机房ID + 5位机器ID 组成
- 12位序列:毫秒内的计数,12位的计数顺序号支持每个节点每毫秒(同一机器,同一时间截)产生4096个ID序号
优点:
1、此方案每秒能够产生409.6万个ID,性能快
2、时间戳在高位,自增序列在低位,整个ID是趋势递增的,按照时间有序递增
3、灵活度高,可以根据业务需求,调整bit位的划分,满足不同的需求
缺点:
1、依赖机器的时钟,如果服务器时钟回拨,会导致重复ID生成
在分布式场景中,服务器时钟回拨会经常遇到,一般存在10ms之间的回拨;小伙伴们就说这点10ms,很短可以不考虑吧。但此算法就是建立在毫秒级别的生成方案,一旦回拨,就很有可能存在重复ID。
此方案暂不符合老顾的需求(嘿嘿,看看怎么优化这个方案,小伙伴们先记住)
redis生成方案
利用redis的incr原子性操作自增,一般算法为:
年份 + 当天距当年第多少天 + 天数 + 小时 + redis自增
优点:有序递增,可读性强
缺点:占用带宽,每次要向redis进行请求
整体测试了这个性能如下:
需求:同时10万个请求获取ID
1、并发执行完耗时:9s左右
2、单任务平均耗时:74ms
3、单线程最小耗时:不到1ms
4、单线程最大耗时:4.1s
性能还可以,如果对性能要求不是太高的话,这个方案基本符合老顾的要求。
但不完全符合业务老顾希望id从 1 开始趋势递增。(当然算法可以调整为 就一个 redis自增,不需要什么年份,多少天等)。
总结
如果今天老顾就介绍以上几个方案,其实没有必要,网上多的是;
一线大厂的分布式id方案绝没有这个简单,他们对高并发,高可用的要求很高。
如redis方案中,每次都要去redis去请求,有网络请求耗时,并发强依赖了redis。这个设计是有风险的,一旦redis挂了,整个系统不可用。
而且一线大厂也会考虑到ID安全性的问题,如:redis方案中,用户是可以预测下一个id号是多少,因为算法是递增的。
这样的话竞争对手 第一天中午12点下个订单,就可以看到平台的订单id是多少,第二天中午12点再下一单,又平台订单id到多少。这样就可以猜到平台1天能产生多少订单了,这个是绝对不允许的,公司绝密啊。
悬念
那一线大厂是如何设计的呢?老顾这里先卖个关子,下一篇文章中会介绍一线大厂是怎么设计的,小伙伴们先想一下,回顾上面的方案。
老顾提示一下,很多方案的实现,一线大厂的设计思路其实和小伙伴们思路差不多,只是多想了1~2层,设计上面多了1~2个环节。
这篇文章先到这里,下一篇注重介绍一线大厂的设计,谢谢!!!
目录
- 前言
- 改造数据库主键自增
- 竞争问题
- 突发阻塞问题
- 双buffer方案
- 总结
前言
上一篇文章中介绍了分布式唯一ID你想了解一线大厂的分布式唯一ID生成方案吗? ,留了一个悬念,这里老顾就介绍一下两种大厂的方案思路。希望能够帮到大家。
改造数据库主键自增
老顾在前一篇文章中介绍了利用数据库的自增主键的特性,可以实现分布式ID;这个ID比较简短明了,适合做userId,正好符合如何永不迁移数据和避免热点? 根据服务器指标分配数据量(揭秘篇)文章中的ID的需求。但这个方案有严重的问题:
1、一旦步长定下来,不容易扩容
2、数据库压力山大
我们小伙伴们看看怎么优化这个方案,先看数据库压力大,为什么压力大?是因为我们每次获取ID的时候,都要去数据库请求一次。那我们可以不可以不要每次去取?
思路我们可以请求数据库得到ID的时候,可设计成获得的ID是一个ID区间段。
我们看上图,有张id规则表:
1、id表示为主键,无业务含义。
2、biz_tag为了表示业务,因为整体系统中会有很多业务需要生成ID,这样可以共用一张表维护
3、max_id表示现在整体系统中已经分配的最大ID
4、desc描述
5、update_time表示每次取的ID时间
我们再来看看整体流程:
1、【用户服务】在注册一个用户时,需要一个用户ID;会请求【生成ID服务(是独立的应用)】的接口
2、【生成ID服务】会去查询数据库,找到user_tag的id,现在的max_id为0,step=1000
3、【生成ID服务】把max_id和step返回给【用户服务】;并且把max_id更新为max_id = max_id + step,即更新为1000
4、【用户服务】获得max_id=0,step=1000;
5、 这个用户服务可以用ID=【max_id + 1,max_id+step】区间的ID,即为【1,1000】
6、【用户服务】会把这个区间保存到jvm中
7、【用户服务】需要用到ID的时候,在区间【1,1000】中依次获取id,可采用AtomicLong中的getAndIncrement方法。
8、如果把区间的值用完了,再去请求【生产ID服务】接口,获取到max_id为1000,即可以用【max_id + 1,max_id+step】区间的ID,即为【1001,2000】
这个方案就非常完美的解决了数据库自增的问题,而且可以自行定义max_id的起点,和step步长,非常方便扩容。
而且也解决了数据库压力的问题,因为在一段区间内,是在jvm内存中获取的,而不需要每次请求数据库。即使数据库宕机了,系统也不受影响,ID还能维持一段时间。
竞争问题
以上方案中,如果是多个用户服务,同时获取ID,同时去请求【ID服务】,在获取max_id的时候会存在并发问题。
如用户服务A,取到的max_id=1000 ;用户服务B取到的也是max_id=1000,那就出现了问题,Id重复了。那怎么解决?
其实方案很多,加分布式锁,保证同一时刻只有一个用户服务获取max_id。当然也可以用数据库自身的锁去解决。
利用事务方式加行锁,上面的语句,在没有执行完之前,是不允许第二个用户服务请求过来的,第二个请求只能阻塞。
突发阻塞问题
上图中,多个用户服务获取到了各自的ID区间,在高并发场景下,id用的很快,如果3个用户服务在某一时刻都用完了,同时去请求【ID服务】。因为上面提到的竞争问题,所有只有一个用户服务去操作数据库,其他二个会被阻塞。
小伙伴就会问,有这么巧吗?同时id用完。我们这里举的是3个用户服务,感觉概率不大;如果是100个用户服务呢?概率是不是一下子大了。
出现的现象就是一会儿突然系统耗时变长,一会儿好了,就是这个原因导致的,怎么去解决?
双buffer方案
在一般的系统设计中,双buffer会经常看到,怎么去解决上面的问题也可以采用双buffer方案。
在设计的时候,采用双buffer方案,上图的流程:
1、当前获取ID在buffer1中,每次获取ID在buffer1中获取
2、当buffer1中的Id已经使用到了100,也就是达到区间的10%
3、达到了10%,先判断buffer2中有没有去获取过,如果没有就立即发起请求获取ID线程,此线程把获取到的ID,设置到buffer2中。
4、如果buffer1用完了,会自动切换到buffer2
5、buffer2用到10%了,也会启动线程再次获取,设置到buffer1中
6、依次往返
双buffer的方案,小伙伴们有没有感觉很酷,这样就达到了业务场景用的ID,都是在jvm内存中获得的,从此不需要到数据库中获取了。允许数据库宕机时间更长了。
因为会有一个线程,会观察什么时候去自动获取。两个buffer之间自行切换使用。就解决了突发阻塞的问题。
总结
此方案是美团公司使用的分布式ID算法,小伙伴们如果想了解更深,可以去网上搜下,老顾这里应该介绍了比较详细了。
当然此方案美团还做了一些别的优化,监控id使用频率,自动设置步长step,从而达到对id节省使用。
此ID方案非常适合老顾前几篇文章中的id需求如何永不迁移数据和避免热点? 根据服务器指标分配数据量(揭秘篇) 。
但此ID存在一定的问题,就是太过连续,竞争对手可以预测,不适合订单ID。那还有没有别的方案。下次老顾介绍一下美团的另一种生成ID方案。谢谢!!!
标签:方案,用户服务,max,ID,大厂,生成,id,分布式 来源: https://blog.csdn.net/weixin_40803257/article/details/89497093