layering-cache是一个支持分布式环境的多级缓存框架,主要解决在高并发下数据快速读取的问题。整体采用了分层架构设计的思路,来保证整个框架的扩展性;采用了面向切面的设计模式,来解决了缓存和业务代码耦合性。
它使用Caffeine作为一级本地缓存,redis作为二级集中式缓存。
一级缓存和二级缓存的数据一致性是通过推和拉两种模式相结合的方式来保证。
- 推主要是基于redis的pub/sub机制
- 拉主要是基于消息队列和记录消费消息的偏移量来实现的。
- 支持缓存命中率的监控统计,统计数据上报支持自定义扩展
- 内置dashboard,支持对缓存的管理和缓存命中率的查看
- 支持缓存过期时间在注解上直接配置
- 支持缓存的自动刷新(当缓存命中并发现二级缓存将要过期时,会开启一个异步线程刷新缓存)
- 缓存Key支持SpEL表达式
- Redis支持Kryo、FastJson、Jackson、Jdk和Protostuff序列化,默认使用Protostuff序列化,并支持自定义的序列化
- 支持同一个缓存名称设置不同的过期时间
- 支持只使用一级缓存或者只使用二级缓存
- Redis支持单机、集群、Sentinel三种客户端
- 提供缓存命中率的监控统计,统计数据上报支持自定义扩展
- 支持本地缓存和集中式两级缓存
- 接入成本和使用成本都非常低
- 无缝集成Spring、Spring boot
- 内置dashboard使得缓存具备可运维性
- 通过缓存空值来解决缓存穿透问题、通过异步加载缓存的方式来解决缓存击穿和雪崩问题
size | serialize(get 10W次) | deserialize(set 10W次) | serialize(cpu) | deserialize(cpu) | |
---|---|---|---|---|---|
Kryo | 273 b | 82919 ms | 90917 ms | 8% | 12% |
FastJson | 329 b | 15405 ms | 18886 ms | 12% | 13% |
Jackson | 473 b | 16066 ms | 16140 ms | 15% | 14% |
Jdk | 1036 b | 17344 ms | 24917 ms | 14% | 13% |
Protostuff | 282 b | 14295 ms | 14355 ms | 15% | 13% |
- layering-cache支持同一个缓存名称设置不同的过期时间,但是一定要保证key唯一,否则会出现缓存过期时间错乱的情况
- 删除缓存的时候会将同一个缓存名称的不同的过期时间的缓存都删掉
- 在集成layering-cache之前还需要添加以下的依赖,主要是为了减少jar包冲突(依赖jar列表)。
- redis的key序列化方式必须StringRedisSerializer
作者博客:https://xiaolyuh.blog.csdn.net/
作者邮箱: [email protected]
github 地址:https://github.com/xiaolyuh/layering-cache
项目的发展离不开你的支持,请作者喝杯咖啡吧!
添加微信记得备注 layering-cache
。
感谢何一睿同学贡献的@BatchCacheable
批量缓存注解