● 数据存储需求:存储大量的数据,在查询方面提供更高的效率。
● 需要的存储结构:能够保存大量的数据,高效的内部存储机制,便于查询。
● set类型:与hash存储结构完全相同,仅存储键,不存储值(nil),并且值是不允许重复的。
● 添加数据
sadd key member1 [member2]
● 获取全部数据
smembers key
● 删除数据
srem key member1 [member2]
● 获取集合数据总量
scard key
● 判断集合中是否包含指定数据
sismember key member
回到目录…
● 随机获取集合中指定数量的数据
srandmember key [count]
● 随机获取集合中的某个数据并将该数据移出集合
spop key [count]
● Tip:redis 应用于随机推荐类信息检索,例如热点歌单推荐,热点新闻推荐,热卖旅游线路,应用APP推荐,大V推荐等
业务场景:
每位用户首次使用今日头条时会设置3项爱好的内容,但是后期为了增加用户的活跃度、兴趣点,必须让用户对其他信息类别逐渐产生兴趣,增加客户留存度,如何实现?
业务分析:
● 系统分析出各个分类的最新或最热点信息条目并组织成set集合
● 随机挑选其中部分信息
● 配合用户关注信息分类中的热点信息组织成展示的全信息集合
回到目录…
● 求两个集合的交、并、差集
sinter key1 [key2]
sunion key1 [key2]
sdiff key1 [key2]
● 求两个集合的交、并、差集并存储到指定集合中
sinterstore destination key1 [key2]
sunionstore destination key1 [key2]
sdiffstore destination key1 [key2]
● 将指定数据从原始集合中移动到目标集合中
smove source destination member
业务场景:
回到目录…
场景一:
集团公司共具有12000名员工,内部OA系统中具有700多个角色,3000多个业务操作,23000多种数据,每位员工具有一个或多个角色,如何快速进行业务操作的权限校验?
解决方案:
● 依赖 set 集合数据不重复的特征,依赖 set 集合hash存储结构特征完成数据过滤与快速查询
● 根据用户id获取用户所有角色信息
● 根据用户所有角色获取用户所有操作权限放入 set 集合
场景二:
公司对旗下新的网站做推广,统计网站的PV(访问量),UV(独立访客),IP(独立IP)。
PV:网站被访问次数,可通过刷新页面提高访问量
UV:网站被不同用户访问的次数,可通过cookie统计访问量,相同用户切换IP地址,UV不变
IP:网站被不同IP地址访问的总次数,可通过IP地址统计访问量,相同IP不同用户访问,IP不变
解决方案:
● 利用set集合的数据去重特征,记录各种访问数据
● 建立string类型数据,利用incr统计日访问量(PV)
● 建立set模型,记录不同cookie数量(UV)
● 建立set模型,记录不同IP数量(IP)
● Tip: redis 应用于同类型数据的快速去重
场景三:
黑名单:
资讯类信息类网站追求高访问量,但是由于其信息的价值,往往容易被不法分子利用,通过爬虫技术,快速获取信息,个别特种行业网站信息通过爬虫获取分析后,可以转换成商业机密进行出售。例如第三方火车票、机票、酒店刷票代购软件,电商刷评论、刷好评。
同时爬虫带来的伪流量也会给经营者带来错觉,产生错误的决策,有效避免网站被爬虫反复爬取成为每个网站都要考虑的基本问题。在基于技术层面区分出爬虫用户后,需要将此类用户进行有效的屏蔽,这就是黑名单的典型应用。
ps: 不是说爬虫一定做摧毁性的工作,有些小型网站需要爬虫为其带来一些流量。
白名单:
对于安全性更高的应用访问,仅仅靠黑名单是不能解决安全问题的,此时需要设定可访问的用户群体,依赖白名单做更为苛刻的访问验证。
解决方案:
● 基于经营战略设定问题用户发现、鉴别规则
● 周期性更新满足规则的用户黑名单,加入set集合
● 用户行为信息达到后与黑名单进行比对,确认行为去向
● 黑名单过滤IP地址:应用于开放游客访问权限的信息源
● 黑名单过滤设备信息:应用于限定访问设备的信息源
● 黑名单过滤用户:应用于基于访问权限的信息源
● Tip: redis 应用于基于黑名单与白名单设定的服务控制
回到目录…
● set 类型不允许数据重复,如果添加的数据在 set 中已经存在,将只保留一份。
● set 虽然与hash的存储结构相同,但是无法启用hash中存储值的空间。
回到目录…
总结:
提示:这里对文章进行总结:
本文是对Redis的学习,学习了set类型的基础操作、随机数据、交并差,以及他的业务场景、注意事项。之后的学习内容将持续更新!!!