博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
数据库分表算法
阅读量:5082 次
发布时间:2019-06-13

本文共 2321 字,大约阅读时间需要 7 分钟。

在大中型项目中,在数据库设计的时候,考虑到数据库最大承受数据量,通常会把数据库或者数据表水平切分,以降低单个库,单个表的压力。这里介绍两个项目中 常用的数据表切分方法。当然这些方法都是在程序中?使用一定的技巧来路由到具体的表的。首先我们要确认根据什么来水平切分?在我们的系统(SNS)中,用 户的UID贯穿系统,唯一自增长,根据这个字段分表,再好不过。

function getTable( $uid ){  $ext =  substr ( md5($uid) ,0 ,2 );  return "user_".$ext;}/* * 参    数:$project 字符串	项目 *			 $group 数组	待进行分表的字段及值 *			 &$tables	数组	目前已经分的表,以值址方式传参 *			 $length 整型	截取字符串前几位,此项与分表的数据密切相关,默认为2 * 功    能:分表引擎 */function engineSplitTable($project, $group, &$tables, $length = MD5_PREFIX_LENGTH) {	$keys = array_keys($group);	$values = array_values($group);	$sequence = substr(md5(implode('', $values)), 0, $length);		$table = $project.'_'.implode('_', $keys).'_'.$sequence;		if(isset($tables[$table])) {	} else {		$tables[$table] = array('textFile' => '', 'fields' => '', 'counter' => 0);	}	return $table;}

 注意:md5出来的字串仅包含0~9a~f,你可以把每位看成一个16进制的数字。那么 substr ( md5($uid) ,0 ,2 ) 出来的范围就是16进制的 00~ff,转成10进制就是 0~16*16

md5后的各位实际上是: 10个数字 + 6个字符的组合  = 16

md5后的值要么全是小写字母,要么全是大写字母,不会出现混合的情况,所以字母就只有 a-f || A-F 这两种之一

 

通过这个技巧,我们可以将不同的UID分散到256中用户表中,分别是user_00,user_01 ...... user_ff。因为UID是数字且递增,根据md5的算法,可以将用户数据几乎很均匀的分别到不同的user表中。

但是这里有个问题是,如果我们的系统的用户越来越多,势必单张表的数据量越来越大,而且根据这种算法无法扩展表,这又会回到文章开头出现的问题了。

一般情况下:设计分表之初就应该考虑到该表能达到的最大数据量,选择分多少张表,如果真的超过了预估,可以考虑集群。

方法二:使用移位

public function getTable( $uid ) { return "user_" . sprintf( "d", ($uid >> 20) );}

 这里,我们将uid向右移动20位,这样我们就可以把大约前100万的用户数据放在第一个表user_0000,第二个100万的用户数据放在第二个表 user_0001中,这样一直下去,如果我们的用户越来越多,直接添加用户表就行了。由于我们保留的表后缀是四位,这里我们可以添加1万张用户表,即 user_0000,user_0001 ...... user_9999。一万张表,每张表100万数据,我们可以存100亿条用户记录。当然,如果你的用户数据比这还多,也不要紧,你只要改变保留表后缀来 增加可以扩展的表就行了,如如果有1000亿条数据,每个表存100万,那么你需要10万张表,我们只要保留表后缀为6位即可。

/** * 根据UID分表算法 *  * @param int $uid  //用户ID * @param int $bit    //表后缀保留几位 * @param int $seed //向右移动位数 */function getTable( $uid , $bit , $seed ){  return "user_" . sprintf( "%0{$bit}d" , ($uid >> $seed) );}

 

总结

上面两种方法,都要对我们当前系统的用户数据量做出可能最大的预估,并且对数据库单个表的最大承受量做出预估。

比如第二种方案,如果我们预估我们系统的用户是100亿,单张表的最优数据量是100万,那么我们就需要将UID移动20来确保每个表是100万的数据,保留用户表(user_xxxx)四位来扩展1万张表。

又如第一种方案,每张表100万,md5后取前两位,就只能有256张表了,系统总数据库就是:256*100万;如果你系统的总数据量的比这还多,那你实现肯定要MD5取前三位或者四位甚至更多位了。

两种方法都是将数据水平切分到不同的表中,相对第一种方法,第二种方法更具扩展性。

 

参考:http://www.nowamagic.net/librarys/veda/detail/1528

http://lampblog.org/285.html

http://blog.csdn.net/hhq163/article/details/6219221

转载于:https://www.cnblogs.com/Alight/p/3654278.html

你可能感兴趣的文章
Redis快速入门
查看>>
BootStrap---2.表格和按钮
查看>>
Linear Algebra lecture 2 note
查看>>
CRC计算模型
查看>>
Ajax之404,200等查询
查看>>
Aizu - 1378 Secret of Chocolate Poles (DP)
查看>>
csv HTTP简单表服务器
查看>>
OO设计的接口分隔原则
查看>>
数据库连接字符串大全 (转载)
查看>>
java类加载和对象初始化
查看>>
对于负载均衡的理解
查看>>
django简介
查看>>
window.event在IE和Firefox的异同
查看>>
常见的js算法面试题收集,es6实现
查看>>
IO流写出到本地 D盘demoIO.txt 文本中
查看>>
Windows10 下Apache服务器搭建
查看>>
HDU 5458 Stability
查看>>
左手坐标系和右手坐标系
查看>>
solr后台操作Documents之增删改查
查看>>
http://yusi123.com/
查看>>