在分部署的集群服务中,当涉及到数据的分区,分片的时候,不可避免的会涉及到数据倾斜的问题的。数据倾斜方案的设计对于整体系统性能的设计是存在一些性能方面的限制或者是风险的。
数据倾斜常见的集中场景。
1.kakfa中,大量的数据分发到对应的指定的某个分区上面,导致kafka的消费能力急剧降低;
方式一:kakfa底层存在相关的机制,对应的可以使用热balance机制来实现rebalance重平衡操作的。在重平衡期间,服务对外不提供服务的,存在一定的性能损耗。
方式二:kafka的分区操作的话,对应的存在相关的Partitioner接口的。我们可以自定义相关的Partitioner的信息的。默认的是使用如下的方式实现的
int nextValue = counter.getAndIncrement();
return DefaultPartitioner.toPositive(nextValue) % numPartitions;
我们可以自定义实现自己的分区策略的。这样的话,就可以使用随机数来解决相关的数据倾斜的问题的。
方法三:使用ProducerRecord,在创建的时候指定相关的随机分区也是可以实现问题的解决的。
2.spark处理任务的时候,数据发生严重的倾斜,对应的数据发送到了指定的一个或者是几个reduce中,当然也有可能是业务自身的问题,在特定的时间段,特定的业务的数据量会出现激增的操作,这个属于业务正常的情况;
方案一:对应的key中增加随机数,这样的话,可以达成随机的特性的,后续需要对key执行处理,消除原有数据中的随机数信息
方案二:增加伪列信息,后续的话,根据伪列实现自定义的分区操作,可以解决数据倾斜分区的问题的。
3.比如es中,数据全部倾斜到了一个指定的分片的时候?
方式一:es中可以在创建的时候指定使用rebalance策略的。
方式二:实现es自定义的发送到shade的接口和实现的,
es的数据分配主要是allocator&decider两者决定的。具体的怎么决定的可以参考下面的文档的
https://www.cnblogs.com/yangyang12138/p/13488347.html
https://blog.csdn.net/jingkyks/article/details/43308231
下面来谈一下是否存在自定义实现的思路和解决办法?
下面是主要的涉及到的数据分发涉及到的方式。可以自定义实现相关的策略。集群情况下主要使用ShardsAllocator这个来实现的。
这个实现很有难度,不建议使用自定义的方式,存在一定的技术难度。
4.mongodb的数据倾斜问题的解决方案
方式一:mongodb的rebalance解决方案,使用mongodb对应的配置参数的方案来实现数据的充平衡实现的。
总结:出现数据倾斜的主要的原因在于在数据的书写的过程中使用到了相关的分片,分区等的操作的,使用分区,分片以及副本的思路可以很好的解决高并发的问题,但随之而来的一个问题那就是数据的倾斜的处理了。在分布式情况下,怎么保证数据均匀的分不到对应的节点上去,是一个需要思考的问题的。这个问题的起源不是局限于单个的服务框架或者是集群,而是伴随着整个的分区,分片产生的。所以,对应的每一个服务都有自己的关于rebalance的问题的一套解决方案了。包括技术解决方案以及业务解决方案的。



