一文教你彻底拿下Redis数据库
来源:51cto
时间:2023-01-19 07:58:30 216浏览 收藏
一分耕耘,一分收获!既然打开了这篇文章《一文教你彻底拿下Redis数据库》,就坚持看下去吧!文中内容包含Redis、数据库、运维等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!
REmote DIctionary Server(Redis) 是一个由 Salvatore Sanfilippo 写的 Key-Value 存储系统。

Redis 简介
Redis 是一个开源的使用 ANSI C 语言编写、遵守 BSD 协议、支持网络、可基于内存亦可持久化的日志型、Key-Value 数据库,并提供多种语言的 API。
它通常被称为数据结构服务器,因为值(value)可以是字符串(String),哈希(Map),列表(list),集合(sets) 和有序集合(sorted sets)等类型。
大家都知道 Redis 是基于 Key-Value 的 NoSQL 数据库,因此,先来了解一下关于 Key 相关的知识点:
任何二进制的序列都可以作为 key 使用
Redis 有统一的规则来设计 key
对 Key-Value 允许的最大长度是 512MB
支持的语言
ActionScript Bash C C# C++ Clojure Common Lisp Crystal D Dart Elixir emacs lisp Erlang Fancy gawk GNU Prolog Go Haskell Haxe Io Java Javascript Julia Lua Matlab mruby Nim Node.js Objective-C OCaml Pascal Perl PHP Pure Data Python R Racket Rebol Ruby Rust Scala Scheme Smalltalk Swift Tcl VB VCL
Redis 的应用场景到底有哪些?
最常用的就是会话缓存
消息队列,比如支付
活动排行榜或计数
发布、订阅消息(消息通知)
商品列表、评论列表等
Redis 安装
关于 Redis 安装与相关的知识点介绍请参考:Nosql数据库服务之redis
安装的大概步骤如下:
Redis 是 C 语言开发的,安装 Redis 需要 C 语言的编译环境,如果没有 gcc 需要在线安装:yum install gcc-c++
第一步,获取源码包:wget http://download.redis.io/releases/redis-3.0.0.tar.gz
第二步,解压缩 Redis:tar zxvf redis-3.0.0.tar.gz
第三步,编译。进入redis源码目录(cd redis-3.0.0)。执行 make
第四步,安装。make install PREFIX=/usr/local/redis
#PREFIX 参数指定 Redis 的安装目录
Redis 数据类型
Redis 一共支持五种数据类型:
string(字符串)
hash(哈希)
list(列表)
set(集合)
zset(sorted set 有序集合)
String(字符串):它是 Redis 最基本的数据类型,一个 Key 对应一个 Value,需要注意是一个键值最大存储 512MB。
127.0.0.1:6379> set key "hello world" OK 127.0.0.1:6379> get key "hello world" 127.0.0.1:6379> getset key "nihao" "hello world" 127.0.0.1:6379> mset key1 "hi" key2 "nihao" key3 "hello" OK 127.0.0.1:6379> get key1 "hi" 127.0.0.1:6379> get key2 "nihao" 127.0.0.1:6379> get key3 "hello"
相关命令介绍:
set 为一个 Key 设置 Value(值)
get 获得某个 Key 对应的 Value(值)
getset 为一个 Key 设置 Value(值)并返回对应的值
mset 为多个 Key 设置 Value(值)
Hash(哈希):Redis Hash是一个键值对的集合, 是一个 String 类型的 Field 和 Value 的映射表,适合用于存储对象。
127.0.0.1:6379> hset redishash 1 "001" (integer) 1 127.0.0.1:6379> hget redishash 1 "001" 127.0.0.1:6379> hmset redishash 1 "001" 2 "002" OK 127.0.0.1:6379> hget redishash 1 "001" 127.0.0.1:6379> hget redishash 2 "002" 127.0.0.1:6379> hmget redishash 1 2 1) "001" 2) "002"
相关命令介绍:
hset 将 Key 对应的 Hash 中的 Field 配置为 Value,如果 Hash 不存则自动创建
hget 获得某个 Hash 中的 Field 配置的值
hmset 批量配置同一个 Hash 中的多个 Field 值
hmget 批量获得同一个 Hash 中的多个 Field 值
List(列表):是 Redis 简单的字符串列表,它按插入顺序排序。
127.0.0.1:6379> lpush word hi (integer) 1 127.0.0.1:6379> lpush word hello (integer) 2 127.0.0.1:6379> rpush word world (integer) 3 127.0.0.1:6379> lrange word 0 2 1) "hello" 2) "hi" 3) "world" 127.0.0.1:6379> llen word (integer) 3
相关命令介绍:
lpush 向指定的列表左侧插入元素,返回插入后列表的长度
rpush 向指定的列表右侧插入元素,返回插入后列表的长度
llen 返回指定列表的长度
lrange 返回指定列表中指定范围的元素值
Set(集合):是 String 类型的无序集合,也不可重复。
127.0.0.1:6379> sadd redis redisset (integer) 1 127.0.0.1:6379> sadd redis redisset1 (integer) 1 127.0.0.1:6379> sadd redis redisset2 (integer) 1 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset" 3) "redisset2" 127.0.0.1:6379> sadd redis redisset2 (integer) 0 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset" 3) "redisset2" 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset3" 3) "redisset" 4) "redisset2" 127.0.0.1:6379> srem redis redisset (integer) 1 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset3" 3) "redisset2"
相关命令介绍:
sadd 添加一个 String 元素到 Key 对应的 set 集合中,成功返回 1,如果元素存在返回 0
smembers 返回指定的集合中所有的元素
srem 删除指定集合的某个元素
Zset(sorted set 有序集合):是 String 类型的有序集合,也不可重复。
sorted set 中的每个元素都需要指定一个分数,根据分数对元素进行升序排序,如果多个元素有相同的分数,则以字典序进行升序排序,sorted set 因此非常适合实现排名。
127.0.0.1:6379> zadd nosql 0 001 (integer) 1 127.0.0.1:6379> zadd nosql 0 002 (integer) 1 127.0.0.1:6379> zadd nosql 0 003 (integer) 1 127.0.0.1:6379> zcount nosql 0 0 (integer) 3 127.0.0.1:6379> zcount nosql 0 3 (integer) 3 127.0.0.1:6379> zrem nosql 002 (integer) 1 127.0.0.1:6379> zcount nosql 0 3 (integer) 2 127.0.0.1:6379> zscore nosql 003 "0" 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 127.0.0.1:6379> zadd nosql 1 003 (integer) 0 127.0.0.1:6379> zadd nosql 1 004 (integer) 1 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 3) "004" 127.0.0.1:6379> zadd nosql 3 005 (integer) 1 127.0.0.1:6379> zadd nosql 2 006 (integer) 1 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 3) "004" 4) "006" 5) "005"
相关命令介绍:
zadd 向指定的 sorteset 中添加 1 个或多个元素
zrem 从指定的 sorteset 中删除 1 个或多个元素
zcount 查看指定的 sorteset 中指定分数范围内的元素数量
zscore 查看指定的 sorteset 中指定分数的元素
zrangebyscore 查看指定的 sorteset 中指定分数范围内的所有元素
键值相关的命令
127.0.0.1:6379> exists key (integer) 1 127.0.0.1:6379> exists key1 (integer) 1 127.0.0.1:6379> exists key100 (integer) 0 127.0.0.1:6379> get key "nihao,hello" 127.0.0.1:6379> get key1 "hi" 127.0.0.1:6379> del key1 (integer) 1 127.0.0.1:6379> get key1 (nil) 127.0.0.1:6379> rename key key0 OK 127.0.0.1:6379> get key (nil) 127.0.0.1:6379> get key0 "nihao,hello" 127.0.0.1:6379> type key0 string
exists:#确认 Key 是否存在
del:#删除 Key
expire:#设置 Key 过期时间(单位秒)
persist:#移除 Key 过期时间的配置
rename:#重命名 Key
type:#返回值的类型
Redis 服务相关的命令
127.0.0.1:6379> select 0 OK 127.0.0.1:6379> info # Server redis_version:3.0.6 redis_git_sha1:00000000 redis_git_dirty:0 redis_build_id:347e3eeef5029f3 redis_mode:standalone os:Linux 3.10.0-693.el7.x86_64 x86_64 arch_bits:64 multiplexing_api:epoll gcc_version:4.8.5 process_id:31197 run_id:8b6ec6ad5035f5df0b94454e199511084ac6fb12 tcp_port:6379 uptime_in_seconds:8514 uptime_in_days:0 hz:10 lru_clock:14015928 config_file:/usr/local/redis/redis.conf -------------------省略N行 127.0.0.1:6379> CONFIG GET 0 (empty list or set) 127.0.0.1:6379> CONFIG GET 15 (empty list or set)
slect:#选择数据库(数据库编号 0-15)
quit:#退出连接
info:#获得服务的信息与统计
monitor:#实时监控
config get:#获得服务配置
flushdb:#删除当前选择的数据库中的 Key
flushall:#删除所有数据库中的 Key
Redis 的发布与订阅
Redis 发布与订阅(pub/sub)是它的一种消息通信模式,一方发送信息,一方接收信息。
下图是三个客户端同时订阅同一个频道:

下图是有新信息发送给频道 1 时,就会将消息发送给订阅它的三个客户端:

Redis 事务
Redis 事务可以一次执行多条命令:
发送 exec 命令前放入队列缓存,结束事务
收到 exec 命令后执行事务操作,如果某一命令执行失败,其它命令仍可继续执行
一个事务执行的过程中,其它客户端提交的请求不会被插入到事务执行的命令列表中
一个事务经历三个阶段:
开始事务(命令:multi)
命令执行
结束事务(命令:exec)
127.0.0.1:6379> MULTI OK 127.0.0.1:6379> set key key1 QUEUED 127.0.0.1:6379> get key QUEUED 127.0.0.1:6379> rename key key001 QUEUED 127.0.0.1:6379> exec 1) OK 2) "key1" 3) OK
Redis 安全配置
可以通过修改配置文件设备密码参数来提高安全性:#requirepass foobared。
去掉注释#号就可以配置密码,没有配置密码的情况下查询如下:
127.0.0.1:6379> CONFIG GET requirepass 1) "requirepass" 2) ""
配置密码之后,就需要进行认证:
127.0.0.1:6379> CONFIG GET requirepass (error) NOAUTH Authentication required. 127.0.0.1:6379> AUTH foobared #认证 OK 127.0.0.1:6379> CONFIG GET requirepass 1) "requirepass" 2) "foobared"
Redis 持久化
Redis 持久有两种方式:
Snapshotting(快照)
Append-only file(AOF)
Snapshotting(快照):
将存储在内存的数据以快照的方式写入二进制文件中,如默认 dump.rdb中。
save 900 1,#900 秒内如果超过 1 个 Key 被修改,则启动快照保存。
save 300 10,#300 秒内如果超过 10 个 Key 被修改,则启动快照保存。
save 60 10000,#60 秒内如果超过 10000 个 Key 被修改,则启动快照保存。
Append-only file(AOF):
使用 AOF 持久时,服务会将每个收到的写命令通过 write 函数追加到文件中(appendonly.aof)
AOF 持久化存储方式参数说明:
appendonly yes,#开启 AOF 持久化存储方式
appendfsync always,#收到写命令后就立即写入磁盘,效率最差,效果最好
appendfsync everysec,#每秒写入磁盘一次,效率与效果居中
appendfsync no,#完全依赖 OS,效率最佳,效果没法保证
Redis 性能测试
自带相关测试工具:
[root@test ~]# redis-benchmark --help Usage: redis-benchmark [-h] [-p ] [-c ] [-n [-k ] -h Server hostname (default 127.0.0.1) -p Server port (default 6379) -s Server socket (overrides host and port) -a Password for Redis Auth -c Number of parallel connections (default 50) -n Total number of requests (default 100000) -d Data size of SET/GET value in bytes (default 2) -dbnum SELECT the specified db number (default 0) -k 1=keep alive 0=reconnect (default 1) -r Use random keys for SET/GET/INCR, random values for SADD Using this option the benchmark will expand the string __rand_int__ inside an argument with a 12 digits number in the specified range from 0 to keyspacelen-1. The substitution changes every time a command is executed. Default tests use this to hit random keys in the specified range. -P Pipeline requests. Default 1 (no pipeline). -q Quiet. Just show query/sec values --csv Output in CSV format -l Loop. Run the tests forever -t Only run the comma separated list of tests. The test names are the same as the ones produced as output. -I Idle mode. Just open N idle connections and wait. Examples: Run the benchmark with the default configuration against 127.0.0.1:6379: $ redis-benchmark Use 20 parallel clients, for a total of 100k requests, against 192.168.1.1: $ redis-benchmark -h 192.168.1.1 -p 6379 -n 100000 -c 20 Fill 127.0.0.1:6379 with about 1 million keys only using the SET test: $ redis-benchmark -t set -n 1000000 -r 100000000 Benchmark 127.0.0.1:6379 for a few commands producing CSV output: $ redis-benchmark -t ping,set,get -n 100000 --csv Benchmark a specific command line: $ redis-benchmark -r 10000 -n 10000 eval 'return redis.call("ping")' 0 Fill a list with 10000 random elements: $ redis-benchmark -r 10000 -n 10000 lpush mylist __rand_int__ On user specified command lines __rand_int__ is replaced with a random integer with a range of values selected by the -r option.
实际测试同时执行 100 万的请求:
[root@test ~]# redis-benchmark -n 1000000 -q PING_INLINE: 152578.58 requests per second PING_BULK: 150308.14 requests per second SET: 143266.47 requests per second GET: 148632.58 requests per second INCR: 145857.64 requests per second LPUSH: 143781.45 requests per second LPOP: 147819.66 requests per second SADD: 138350.86 requests per second SPOP: 134282.27 requests per second LPUSH (needed to benchmark LRANGE): 141302.81 requests per second LRANGE_100 (first 100 elements): 146756.67 requests per second LRANGE_300 (first 300 elements): 148104.27 requests per second LRANGE_500 (first 450 elements): 152671.75 requests per second LRANGE_600 (first 600 elements): 148104.27 requests per second MSET (10 keys): 132731.62 requests per second
Redis 的备份与恢复
Redis 自动备份有两种方式:
通过 dump.rdb 文件实现备份
使用 aof 文件实现自动备份
dump.rdb 备份
Redis 服务默认的自动文件备份方式(AOF 没有开启的情况下),在服务启动时,就会自动从 dump.rdb 文件中去加载数据。
具体配置在 redis.conf:
save 900 1
save 300 10
save 60 10000
也可以手工执行 save 命令实现手动备份。
127.0.0.1:6379> set name key OK 127.0.0.1:6379> SAVE OK 127.0.0.1:6379> set name key1 OK 127.0.0.1:6379> BGSAVE Background saving started
Redis 快照到 dump 文件时,会自动生成 dump.rdb 的文件。
# The filename where to dump the DB dbfilename dump.rdb -rw-r--r-- 1 root root 253 Apr 17 20:17 dump.rdb
SAVE 命令表示使用主进程将当前数据库快照到 dump 文件
BGSAVE 命令表示,主进程会 fork 一个子进程来进行快照备份
两种备份不同之处,前者会阻塞主进程,后者不会。
恢复举例
# Note that you must specify a directory here, not a file name. dir /usr/local/redisdata/ 127.0.0.1:6379> CONFIG GET dir 1) "dir" 2) "/usr/local/redisdata" 127.0.0.1:6379> set key 001 OK 127.0.0.1:6379> set key1 002 OK 127.0.0.1:6379> set key2 003 OK 127.0.0.1:6379> save OK
将备份文件备份到其他目录:
[root@test ~]# ll /usr/local/redisdata/ total 4 -rw-r--r-- 1 root root 49 Apr 17 21:24 dump.rdb [root@test ~]# date Tue Apr 17 21:25:38 CST 2018 [root@test ~]# cp ./dump.rdb /tmp/
删除数据:
127.0.0.1:6379> del key1 (integer) 1 127.0.0.1:6379> get key1 (nil)
关闭服务,将原备份文件拷贝回 save 备份目录:
[root@test ~]# redis-cli -a foobared shutdown [root@test ~]# lsof -i :6379 [root@test ~]# cp /tmp/dump.rdb /usr/local/redisdata/ cp: overwrite ‘/usr/local/redisdata/dump.rdb’? y [root@test ~]# redis-server /usr/local/redis/redis.conf & [1] 31487
登录查看数据是否恢复:
[root@test ~]# redis-cli -a foobared 127.0.0.1:6379> mget key key1 key2 1) "001" 2) "002" 3) "003"
AOF 自动备份
Redis服务默认是关闭此项配置:
###### APPEND ONLY MODE ########## appendonly no # The name of the append only file (default: "appendonly.aof") appendfilename "appendonly.aof" # appendfsync always appendfsync everysec # appendfsync no
配置文件的相关参数,前面已经详细介绍过。AOF 文件备份,是备份所有的历史记录以及执行过的命令,和 MySQL binlog 很相似,在恢复时就是重新执次一次之前执行的命令。
需要注意的就是在恢复之前,和数据库恢复一样需要手工删除执行过的del或误操作的命令。
AOF 与 dump 备份不同:
AOF 文件备份与 dump 文件备份不同
服务读取文件的优先顺序不同,会按照以下优先级进行启动
如果只配置 AOF,重启时加载 AOF 文件恢复数据
如果同时 配置了 RBD 和 AOF,启动是只加载 AOF 文件恢复数据
如果只配置 RBD,启动时将加载 dump 文件恢复数据
注意:只要配置了 AOF,但是没有 AOF 文件,这个时候启动的数据库会是空的。
Redis 生产优化介绍
内存管理优化
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
#list 的成员与值都不太大的时候会采用紧凑格式来存储,相对内存开销也较小
在 Linux 环境运行 Redis 时,如果系统的内存比较小,这个时候自动备份会有可能失败,需要修改系统的 vm.overcommit_memory 参数,这个参数是 Linux 系统的内存分配策略。
0 表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。
1 表示内核允许分配所有的物理内存,而不管当前的内存状态如何。
2 表示内核允许分配超过所有物理内存和交换空间总和的内存。
Redis官方的说明是,建议将 vm.overcommit_memory 的值修改为 1,可以用下面几种方式进行修改:
编辑 /etc/sysctl.conf 改 vm.overcommit_memory=1,然后 sysctl -p 使配置文件生效
sysctl vm.overcommit_memory=1
echo 1 > /proc/sysm/overcommit_memory
内存预分配
持久化机制
定时快照:效率不高,会丢失数据
AOF:保持数据完整性(一个实例的数量不要太大2G最大)
优化总结:
根据业务需要选择合适的数据类型
当业务场景不需持久化时就关闭所有持久化方式(采用ssd磁盘来提升效率)
不要使用虚拟内存的方式,每秒实时写入 AOF
不要让 Redis 所在的服务器物理内存使用超过内存总量的 3/5
要使用 maxmemory
大数据量按业务分开使用多个 Redis 实例
Redis 集群应用
集群是将多个 Redis 实例集中在一起,实现同一业务需求,或者实现高可用与负载均衡到底有哪些集群方案呢?
Haproxy+Keepalived+Redis 集群

通过 Redis 的配置文件,实现主从复制、读写分离
通过 Haproxy 的配置,实现负载均衡,当从故障时也会及时从集群中T除
利用 Keepalived 来实现负载的高可用
Redis 官方 Sentinel 集群管理工具
Redis集群生产环境高可用方案实战过程:

Sentinel 负责对集群中的主从服务监控、提醒和自动故障转移
Redis 集群负责对外提供服务
关于 Redis Sentinel Cluster 集群配置可参考
Redis Cluster
Redis Cluster 是 Redis 的分布式解决方案,在 Redis 3.0 版本正式推出的,有效解决了 Redis 分布式方面的需求。
当遇到单机内存、并发、流量等瓶颈时,可以采用Cluster架构达到负载均衡的目的。

官方推荐,毋庸置疑。
去中心化,集群最大可增加 1000 个节点,性能随节点增加而线性扩展。
管理方便,后续可自行增加或摘除节点,移动分槽等等。
简单,易上手。

本篇关于《一文教你彻底拿下Redis数据库》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于数据库的相关知识,请关注golang学习网公众号!
-
286 收藏
-
235 收藏
-
117 收藏
-
138 收藏
-
185 收藏
-
342 收藏
-
361 收藏
-
159 收藏
-
164 收藏
-
221 收藏
-
156 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 507次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习
-
- 无情的航空
- 这篇博文真是及时雨啊,太详细了,太给力了,mark,关注老哥了!希望老哥能多写数据库相关的文章。
- 2023-03-03 05:53:50
-
- 俊逸的小天鹅
- 这篇文章真及时,作者大大加油!
- 2023-02-25 03:49:24
-
- 美好的麦片
- 细节满满,码住,感谢楼主的这篇文章内容,我会继续支持!
- 2023-02-04 10:24:47
-
- 幽默的皮带
- 太给力了,一直没懂这个问题,但其实工作中常常有遇到...不过今天到这,看完之后很有帮助,总算是懂了,感谢大佬分享文章!
- 2023-01-30 12:15:51
-
- 清秀的仙人掌
- 这篇技术文章出现的刚刚好,细节满满,太给力了,已收藏,关注师傅了!希望师傅能多写数据库相关的文章。
- 2023-01-28 04:15:41