如果要设计一套KV存储的系统,用户PUT一个key和value,存储到系统中,并且提供用户根据key来GET对应的value。要求随着用户规模变大,系统是可以水平扩展的,主要要解决以下几个问题。
要设计上面的系统,最简单的方案就是取模hash。基本的原理就是:假设集群一共有N台机器提供服务,对于用户的请求编号,比如编号M,那么就把这个请求通过取模发送到指定机器。
机器序号 = M % N
举个例子,比如有下面这些机器
0. 192.168.1.1 1. 192.168.2.2 2. 192.168.3.3 3. 192.168.4.4
用户PUT 100个请求,此时客户端(可以设计)带上一个编号,分别是1-100,那么
1%4 = 1 <<-->> 192.168.2.2 2%4 = 2 <<-->> 192.168.3.3 3%4 = 3 <<-->> 192.168.4.4 ... 100%4 = 0 <<-->> 192.168.1.1
这样就可以很简单把用户的请求负载均衡到4台机器上了,解决了第一个问题。可以看看下面代码实现
content = """Consistent hashing is a special kind of hashing such that when a hash table is resized and consistent hashing is used, only K/n keys need to be remapped on average, where K is the number of keys, and n is the number of slots. In contrast, in most traditional hash tables, a change in the number of array slots causes nearly all keys to be remapped.""" ### 所有机器列表 servers = [ "192.168.1.1", "192.168.2.2", "192.168.3.3", "192.168.4.4" ] class NormalHash(object): """Normal Hash """ def __init__(self, nodes=None): if nodes: self.nodes = nodes self.number = len(nodes) def get_node(self, index): """Return node by index % servers number """ if index < 0: return None return self.nodes[index%self.number] def normal_hash(): """Normal hash usage example""" nh = NormalHash(servers) words = content.split() # 模拟初始化每天机器的db database = {} for s in servers: database[s] = [] for i in xrange(len(words)): database[nh.get_node(i)].append(words[i]) print database
上面这部分是客户端的代码,NormalHash其实可以是在服务端实现,客户端每次要PUT或者GET一个key,就调用服务端的sdk,获取对应机器,然后操作。
取模hash有一个明显的缺点,就是上面提出的第二个问题,如何解决扩容机器后数据分布的问题?继续上面的例子,比如这时候要新增一台机器,机器规模变成
0. 192.168.1.1 1. 192.168.2.2 2. 192.168.3.3 3. 192.168.4.4 4. 192.168.5.5
那么问题就来了,如果现在用户要通过GET请求数据,同样还是1-100的请求编号,这时候取模就变成
i % 5 1%5 = 1 <<-->> 192.168.2.2 2%5 = 2 <<-->> 192.168.3.3 3%5 = 3 <<-->> 192.168.4.4 4%5 = 4 <<-->> 192.168.5.5 ->> 这里开始就变化了 ...
很显然,对于新的PUT操作不会有影响,但是对于用户老的数据GET请求, 数据就不一致了,这时候必须要进行移数据,可以推断出,这里的数据变更是很大的,在80%左右。
但是,如果扩容的集群是原来的倍数,之前是N台,现在扩容到 M * N台,那么数据迁移量是50%。
取模hash能解决负载均衡问题,而且实现很简单,维护meta信息成本也很小,但是扩容集群的时候,最好是按照整数倍扩容,否则数据迁移成本太高。
我个人觉得,取模hash已经能满足业务比较小的场景了,在机器只有几台或者几十台的时候,完全能够应付了。而且这种方案很简洁,实现起来很容易,很容易理解。
一致性hash基本实现如下图,这张图最早出现在是memcached分布式实现里。如何理解一致性hash呢?
IP地址 hash value(例子) 数据范围 192.168.1.1 -->> 1000 -->> (60000, 1000](可以看环来理解,和时钟一样) 192.168.2.2 -->> 8000 -->> (1000, 8000] 192.168.3.3 -->> 25000 -->> (8000, 25000] 192.168.4.4 -->> 60000 -->> (25000, 60000]
一致性hash在某种程度上是可以解决数据的负载均衡问题的,再来看看扩容的情况,这时候新增加一个节点,图
机器情况变成
IP地址 hash value(例子) 数据范围 192.168.1.1 -->> 1000 -->> (60000, 1000](注意:取模后的逻辑大小) 192.168.2.2 -->> 8000 -->> (1000, 8000] 192.168.5.5 -->> 15000 -->> (8000, 15000] (新增的) 192.168.3.3 -->> 25000 -->> (15000, 25000] 192.168.4.4 -->> 60000 -->> (25000, 60000]
这时候被影响的数据范围仅仅是(8000, 15000]的数据,这部分需要做迁移。同样的如果有一台机器宕机,那么受影响的也只是比这台机器对应环上的点大,比下一个节点值小的点。
一致性hash能解决热点分布的问题,对于缩容和扩容也能低成本进行。但是一致性hash在小规模集群中,就会有问题,很容易出现数据热点分布不均匀的现象,因为当机器数量比较少的时候,hash出来很有可能各自几点管理的“范围”有大有小。而且一旦规模比较小的情况下,如果数据原本是均匀分布的,这时候新加入一个节点,就会影响数据分布不均匀。
虚拟节点可以解决一致性hash在节点比较少的情况下的问题,简单而言就是在一个节点实际虚拟出多个节点,对应到环上的值,然后按照顺时针或者逆时针划分区间
下面贴上一致性hash的代码,replicas实现了虚拟节点,当replicas=1的时候,就退化到上面的图,一个节点真实对应到一个环上的点。
# -*- coding: UTF-8 -*- import md5 content = """Consistent hashing is a special kind of hashing such that when a hash table is resized and consistent hashing is used, only K/n keys need to be remapped on average, where K is the number of keys, and n is the number of slots. In contrast, in most traditional hash tables, a change in the number of array slots causes nearly all keys to be remapped.""" # 所有机器列表 servers = [ "192.168.1.1", "192.168.2.2", "192.168.3.3", "192.168.4.4" ] class HashRing(object): def __init__(self, nodes=None, replicas=3):