本文介绍: bigkey也就意味着每次获取要产生的网络流量较大,假[[设一个bigkey为1MB,客户端每秒访问量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务器来说简直是灭顶之灾,而且一般服务器采用单机多实例方式部署,也就是一个bigkey可能会对其他实例也造成影响,其后果不堪设想。1、对于并发几率很小的数据(如个人维度订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生缓存不一致,可以缓存数据加上过期时间,每隔一段时间触发读的主动更新即可

Redis缓存设计

缓存数据库双写不一致

在大并发下,同时操作数据库缓存存在数据不一致性问题

1、双写不一致情况,线程1写数据库,[线程2写数据库,并更新缓存],线程1更新缓存,此时旧缓存覆盖了新的

2、读写并发不一致,线程1读数据库,[线程2写数据库,并删除缓存],线程1更新缓存,此时的缓存不是最新

解决方案

1、对于并发几率很小的数据(如个人维度的订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生缓存不一致,可以给缓存数据加上过期时间,每隔一段时间触发读的主动更新即可

2、就算并发很高,如果业务上能容忍时间的缓存数据不一致(如商品名称商品分类菜单等),缓存加上过期时间依然可以解决部分业务对于缓存的要求。

3、如果不能容忍缓存数据不一致,可以通过分布式读写保证并发读写或写写的时候顺序排好队,读读的时候相当于无锁

4、也可以阿里开源canal通过监听数据库binlog日志及时的去修改缓存,但是引入了新的中间件,增加了系统复杂度

总结

以上针对的都是读多写少的情况加入缓存提高性能,如果写多读多的情况又不能容忍缓存数据不一致,那就没必要加缓存了,可以直接操作数据库。当然,如果数据库抗不住压力,还可以把缓存作为数据读写的主存储异步将数据同步到数据库,数据库只是作为数据的备份

放入缓存的数据应该是对实时性一致性要求不是很高的数据。切记不要为了用缓存,同时又要保证绝对一致性做大量的过度设计控制,增加系统复杂性!

开发规范性能优化


一、键值设计

1、key设计

业务名(或数据库名)为前缀(防止key冲突),用冒号分隔比如业务名:表名:id

trade:order:1

保证语义的前提下,控制key长度,当key较多时,内存占用也不容忽视,例如

user:{uid}:friends:messages:{mid} 简化为u:{uid}:fr:m:{mid}

反例:包含空格换行、单双引号以及其他转义字符

2、value设计

在Redis中,一个字符串最大512MB,一个二级数据结构(例如hashlistsetzset)可以存储大约40亿个(2^32-1)个元素,但实际中如果下面两种情况,我就会认为它是bigkey

  1. 字符串类型:它的big体现在单个value值很大,一般认为超过10KB就是bigkey

  2. 字符串类型哈希列表集合有序集合,它们的big体现在元素个数太多。

一般来说,string类型控制在10KB以内,hashlistsetzset元素个数不要超过5000。

反例:一个包含200万个元素的list

字符串bigkey,不要使用del删除,使用hscansscan、zscan方式渐进式删除,同时要注意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞

bigkey的危害:

1、导致redis阻塞

2、网络拥塞

bigkey也就意味着每次获取要产生的网络流量较大,假[[设一个bigkey为1MB,客户端每秒访问量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务器来说简直是灭顶之灾,而且一般服务器采用单机多实例方式部署,也就是说一个bigkey可能会对其他实例也造成影响,其后果不堪设想。

3、过期删除

有个bigkey,它安分守己(只执行简单命令,例如hget、lpop、zscore等),但它设置过期时间,当它过期后,会被删除,如果没有使用Redis 4.0的过期异步删除(lazyfree-lazyexpire yes),就会存在阻塞Redis可能性。

bigkey的产生:

一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的,来看几个例子

(1) 社交类:粉丝列表,如果某些明星或者大v不精心设计下,必是bigkey。

(2) 统计类:例如按天存储某项功能或者网站的用户集合,除非没几个人用,否则必是bigkey。

(3) 缓存类:将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需要注意,第一,是不是有必要把所有字段都缓存;第二,有没有相关关联的数据,有的同学为了图方便把相关数据都存一个key下,产生bigkey。

如何优化bigkey

1、拆

big listlist1、list2、…listN

big hash:可以将数据分段存储比如一个大的key,假设存了1百万的用户数据,可以拆分成200个key,每个key下面存放5000个用户数据

2、如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式处理

例如:实体类型(要合理控制和使用数据结构,但也要注意节省内存性能之间平衡)

反例:

set user:1:name tom set user:1:age 19 set user:1:favor football

正例:

hmset user:1 name tom age 19 favor football

3、【推荐】:控制key的生命周期redis不是垃圾桶

建议使用expire设置过期时间(条件许可以打散过期时间,防止集中过期)。

二、命令使用

1、【推荐】 O(N)命令关注N的数量

例如hgetall、lrangesmembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历需求可以使用hscan、sscan、zscan代替。

2、【推荐】:禁用命令

禁止线上使用keysflushall、flushdb等,通过redisrename机制禁掉命令,或者使用scan的方式渐进式处理

3、【推荐】合理使用select

redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是线程处理,会有干扰。

4、【推荐】使用批量操作提高效率

原生命令:例如mgetmset。 非原生命令:可以使用pipeline提高效率

但要注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)。

注意两者不同

a)原生命令是原子操作pipeline是非原子操作

bpipeline可以打包不同的命令,原生命令做不到

cpipeline需要客户端和服务端同时支持

5、【建议】Redis事务功能较弱,不建议过多使用,可以用lua替代

三、客户端使用

1、【推荐】

避免多个应用使用一个Redis实例

正例:不相干的业务拆分公共数据做服务化

2、【推荐】

使用带有连接池的数据库,可以有效控制连接,同时提高效率标准使用方式

JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
jedisPoolConfig.setMaxTotal(5);
jedisPoolConfig.setMaxIdle(2);
jedisPoolConfig.setTestOnBorrow(true);

JedisPool jedisPool = new JedisPool(jedisPoolConfig, "192.168.0.60", 6379, 3000, null);

Jedis jedis = null;
try 
{
    jedis = jedisPool.getResource();
    //具体的命令
    jedis.executeCommand()
} catch (Exception e) 
{
    logger.error("op key {} error: " + e.getMessage(), key, e);
} finally 
{
    //注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。
    if (jedis != null) 
        jedis.close();
}

连接池参数含义:

序号 参数名 含义 默认值 使用建议
1 maxTotal 资源池中最大连接数 8 设置建议见下面
2 maxIdle 资源池允许最大空闲连接数 8 设置建议见下面
3 minIdle 资源池确保最少空闲连接数 0 设置建议见下面
4 blockWhenExhausted 资源池用尽后,调用者是否等待。只有当为true时,下面的maxWaitMillis才会生效 true 建议使用默认值
5 maxWaitMillis 资源连接用尽后,调用者最大等待时间(单位毫秒) -1:表示永不超时 不建议使用默认值
6 testOnBorrow 资源池借用连接时是否做连接有效性检测(ping),无效连接会被移除 false 业务量很大时候建议设置false(多一次ping的开销)。
7 testOnReturn 资源池归还连接时是否做连接有效性检测(ping),无效连接会被移除 false 业务量很大时候建议设置为false(多一次ping的开销)。
8 jmxEnabled 是否开启jmx监控,可用于监控 true 建议开启,但应用本身也要开启
优化建议:

1)maxTotal最大连接数,早期的版本maxActive

实际上这个是一个很难回答的问题考虑因素比较多:

以一个例子说明假设:

那么理论上需要的资源池大小是50000 / 1000 = 50个。但事实上这是个理论值,还要考虑到要比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。

这个值不是越大越好,一方面连接太多占用客户端和服务端资源,另一方面对于Redis这种高QPS的服务器,一个大命令的阻塞即使设置再大资源池仍然会无济于事。

2)maxIdle和minIdle

maxIdle实际上才是业务需要的最大连接数,maxTotal是为了给出余量,所以maxIdle不要设置过小,否则会有new Jedis(新连接)开销。

连接池的最佳性能是maxTotal = maxIdle,这样就避免连接池伸缩带来的性能干扰。但是如果并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。一般推荐maxIdle可以设置为按上面的业务期望QPS计算出来的理论连接数,maxTotal可以再放大一倍。

minIdle(最小空闲连接数),与其说是最小空闲连接数,不如说是”至少需要保持的空闲连接数“,在使用连接的过程中,如果连接数超过了minIdle,那么继续建立连接,如果超过了maxIdle,当超过的连接执行完业务后会慢慢被移出连接池释放掉。

如果系统启动完马上就会有很多的请求过来,那么可以给redis连接池预热比如快速创建一些redis连接,执行简单命令,类似ping(),快速的将连接池里的空闲连接提升minIdle的数量。

连接池预热示例代码

List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle());

for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) 
{
    Jedis jedis = null;
    try 
    {
        jedis = pool.getResource();
        minIdleJedisList.add(jedis);
        jedis.ping();
    } catch (Exception e) 
    {
        logger.error(e.getMessage(), e);
    } finally 
    {
        //注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。。
        //jedis.close();
    }
}
//统一将预热的连接还回连接池
for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) 
{
    Jedis jedis = null;
    try 
    {
        jedis = minIdleJedisList.get(i);
        //将连接归还回连接池
        jedis.close();
    } catch (Exception e) 
    {
        logger.error(e.getMessage(), e);
    } finally 
    {
    }
}

总之,要根据实际系统的QPS和调用redis客户端的规模整体评估每个节点所使用的连接池大小

3、【建议】

高并发下建议客户端添加熔断功能(例如sentinelhystrix)

4、【推荐】

设置合理密码,如有必要可以使用SSL加密访问

5、【建议】

Redis对于过期键有三种清除策略

  1. 被动删除:当读/写一个已经过期的key时,会触发惰性删除策略直接删除掉这个过期key

  2. 主动删除:由于惰性删除策略无法保证冷数据被及时删掉,所以Redis会定期(默认每100ms)主动淘汰一批已过期的key,这里的一批只是部分过期key,所以可能出现部分key已经过期但还没有清理掉的情况,导致内存没有被释放

  3. 当前已用内存超过maxmemory限定时,触发主动清理策略

主动清理策略在Redis 4.0 之前一共实现了 6 种内存淘汰策略,在 4.0 之后,又增加了 2 种策略,总共8种:

a) 针对设置了过期时间的key做处理

  1. volatile-ttl:在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删除,越早过期的越先被删除。

  2. volatilerandom:就像它的名称一样,在设置了过期时间的键值对中,进行随机删除。

  3. volatile-lru:会使用 LRU 算法筛选设置了过期时间的键值对删除。

  4. volatile-lfu:会使用 LFU 算法筛选设置了过期时间的键值对删除。

b) 针对所有的key做处理

  1. allkeysrandom:从所有键值对中随机选择并删除数据。

  2. allkeys-lru:使用 LRU 算法在所有数据中进行筛选删除。

  3. allkeys-lfu:使用 LFU 算法在所有数据中进行筛选删除。

c) 不处理:

  1. noeviction:不会剔除任何数据,拒绝所有写入操作返回客户端错误信息“(error) OOM command not allowed when used memory“,此时Redis只响应操作

LRU 算法(Least Recently Used,最近最少使用)

淘汰很久没被访问过的数据,以最近一次访问时间作为参考

LFU 算法(Least Frequently Used,最不经常使用)

淘汰最近一段时间被访问次数最少的数据,以次数作为参考

存在点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下降,缓存污染情况比较严重。这时使用LFU可能更好点。

根据自身业务类型配置好maxmemorypolicy(默认noeviction),推荐使用volatile-lru。如果不设置最大内存,当 Redis 内存超出物理内存限制时,内存的数据会开始和磁盘产生频繁的交换 (swap),会让 Redis 的性能急剧下降。

当Redis运行主从模式时,只有主结点才会执行过期删除策略然后把删除操作”del key”同步到从结点删除数据。

四、系统内核参数优化

vm.swapiness

swap对于操作系统来说比较重要,当物理内存不足时,可以将一部分内存页进行swap硬盘上,以解燃眉之急。但世界上没有免费午餐,swap空间由硬盘提供,对于需要高并发、高吞吐的应用来说,磁盘IO通常会成为系统瓶颈。在Linux中,并不是要等到所有物理内存都使用完才会使用到swap,系统参数swppiness会决定操作系统使用swap的倾向程度。swappiness的取值范围是0~100,swappiness的值越大,说明操作系统可能使用swap概率越高,swappiness值越低,表示操作系统更加倾向于使用物理内存。swappiness的取值越大,说明操作系统可能使用swap概率越高,越低则越倾向于使用物理内存。

如果linux内核版本<3.5,那么swapiness设置为0,这样系统宁愿swap也不会oom killer(杀掉进程

如果linux内核版本>=3.5,那么swapiness设置为1,这样系统宁愿swap也不会oom killer

一般需要保证redis不会被kill掉:

cat /proc/version  #查看linux内核版本
echo 1 > /proc/sys/vm/swappiness
echo vm.swapiness=1 >> /etc/sysctl.conf

PS:OOM killer 机制是指Linux操作系统发现可用内存不足时,强制杀死一些用户进程(非内核进程),来保证系统有足够的可用内存进行分配

vm.overcommit_memory(默认0)

0:表示内核检查是否有足够的可用物理内存(实际不一定用满)供应用进程使用;如果有足够的可用物理内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程 

1:表示内核允许分配所有的物理内存,而不管当前的内存状态如何

如果是0的话,可能导致类似fork等操作执行失败,申请不到足够的内存空间

Redis建议把这个值设置为1,就是为了让fork操作能够在低内存下也执行成功。

cat /proc/sys/vm/overcommit_memory
echo "vm.overcommit_memory=1" >> /etc/sysctl.conf
sysctl vm.overcommit_memory=1

合理设置文件句柄

操作系统进程试图打开一个文件(或者叫句柄),但是现在进程打开句柄数已经达到了上限,继续打开报错:“Too many open files

ulimit -a  #查看系统文件句柄数,看open files那项
ulimit -n 65535  #设置系统文件句柄

查询日志:slowlog
Redis慢日志命令说明:
config get slow* #查询有关慢日志配置信息
config set slowlog-log-slower-than 20000  #设置慢日志使时间阈值,单位微秒,此处为20毫秒,即超过20毫秒的操作都会记录下来,生产环境建议设置1000,也就是1ms,这样理论上redis并发至少达到1000,如果要求单机并发达到1万以上,这个值可以设置为100
config set slowlog-max-len 1024  #设置慢日志记录保存数量,如果保存数量已满,会删除最早的记录,最新的记录追加进来。记录慢查询日志时Redis会对长命令做截断操作,并不会占用大量内存,建议设置稍大些,防止丢失日志
config rewrite #将服务器当前所使用的配置保存到redis.conf
slowlog len #获取查询日志列表当前长度
slowlog get 5 #获取最新的5条慢查询日志。慢查询日志由四个属性组成:标识ID,发生时间戳,命令耗时,执行命令和参数
slowlog reset #重置查询日志

原文地址:https://blog.csdn.net/weixin_58482311/article/details/134635530

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_38098.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除!

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注