背景
最近针对一个单点登录认证项目进行性能优化,在 8核 16G 环境下的认证并发能力从每秒800次提升至每秒1600次,性能提升一倍,整理此次优化过程中的相关性能优化操作总结和大家分享一下。
Nginx配置优化
在并发认证场景下,Nginx 是系统的第一个请求处理层,优化其配置可以有效提高系统的吞吐量和响应速度。
基本配置
工作进程数
工作进程数(worker_processes
)配置为服务器 CPU 核心数,使用 auto
可以自动匹配 CPU 核心数。
# worker_processes 4;
worker_processes auto;
设置为auto后在4核CPU环境下会启动5个进程(4个工作进程):
1 个 master process: Nginx 的主进程,用于启动、关闭和管理 Nginx 的工作进程。
4 个 worker process: Nginx 的 4 个工作进程(Worker Process),用于实际处理请求。
最大连接数
Nginx 的默认配置中,每个工作进程的最大连接数(worker_connections
)的默认值通常是 1024。
events {
worker_connections 65535; # 工作进程的最大连接数
multi_accept on; # 一次性接受尽可能多的连接
use epoll; # 使用 epoll 模型,适合高并发
}
Nginx 服务器最大能够支持的并发连接数是由 worker_processes
和 worker_connections
两者共同决定的。最大连接数 = worker_processes * worker_connections / 2 ,读和写会分别占用连接数。
注意: 增大 worker_connections
值时,需要确保系统的文件描述符(ulimit -n)设置足够高,否则会出现 Too many open files
错误。
文件描述符
文件描述符限制,Nginx 进程能打开的最大文件描述符数量,建议配置为系统最大值,通常与 ulimit -n
保持一致。
worker_rlimit_nofile 65535;
在高并发环境中,Nginx 作为反向代理服务器或负载均衡器,需要同时处理大量的客户端请求。这些请求可能涉及到以下几类文件描述符:
- 客户端连接:每一个客户端连接(HTTP 请求)会占用一个文件描述符。
- 代理到后端服务器的连接:Nginx 作为反向代理时,与后端服务器的连接也会占用文件描述符。
- 静态资源文件:当 Nginx 作为 Web 服务器提供静态资源(HTML、CSS、JS 等)时,打开文件资源也会使用文件描述符。
- 日志文件:Nginx 需要记录访问日志和错误日志,这些日志文件也会占用文件描述符。
测试3000个请求过程中各个工作进程下文件描述符情况如下:
可以看到各个工作进程都在进行请求,有一定数量的文件描述符创建。
如果文件描述符数量配置过少,在高并发时,Nginx 会因为没有足够的文件描述符而拒绝新的连接,出现 too many open files
的错误。Nginx文件描述符配置和系统文件描述符配置区别:
Nginx文件描述符 (worker_rlimit_nofile) | 系统文件描述符 | |
---|---|---|
配置对象 | Nginx worker 进程 | 操作系统、Shell 用户 |
配置范围 | 仅限于 Nginx worker 进程 | 整个系统或单个用户 Shell 环境 |
Gzip 压缩
Nginx 开启 Gzip 压缩,减少传输数据量,提升响应速度。
gzip on;
gzip_disable msie6;
gzip_vary on; # 启用 Vary 响应头,适配不同浏览器
gzip_proxied expired no-cache no-store private auth;
gzip_comp_level 6; # 设置压缩级别为 5-6,平衡性能和压缩率
gzip_buffers 16 8k; # 设置缓冲区大小
gzip_http_version 1.1; # 使用 HTTP/1.1 协议进行压缩
gzip_types text/plain text/css application/json application/javascript text/xml application/xml application/xml+rss text/javascript;
浏览器会自动处理 Gzip 解压缩。当服务器返回的响应数据是经过 Gzip 压缩的,浏览器会根据 HTTP 响应头中的 Content-Encoding: gzip
自动识别并解压缩数据,然后再进行解析和渲染,用户无需做任何额外操作。
Gzip 解压缩流程
- 浏览器发送请求
浏览器发送请求时,默认会在 Accept-Encoding
请求头中加入 gzip
或 br
(Brotli),告知服务器它支持 Gzip 或 Brotli 压缩。
GET /web/login HTTP/1.1
Host: example.com
Accept-Encoding: gzip, deflate, br
- 服务器响应请求
服务器检测到浏览器支持 Gzip 压缩,并且符合压缩条件,就会对返回的数据进行 Gzip 压缩,并在响应头中加入 Content-Encoding: gzip
。
HTTP/1.1 200 OK
Content-Type: text/html
Content-Encoding: gzip
- 浏览器处理响应
浏览器接收到 Content-Encoding: gzip
的响应后,会自动进行解压缩,然后渲染页面或解析数据。
Gzip 解压缩测试
可以使用 curl
来测试是否启用了 Gzip 压缩:
curl -k -I -H "Accept-Encoding: gzip" https://your-nginx-server.com
- 如果返回头中包含
Content-Encoding: gzip
,则说明 Gzip 压缩已启用。
日志配置
高并发下,频繁的日志写入可能会成为性能瓶颈。可以调整日志级别、禁用日志或者使用异步记录日志。
access_log off;
# access_log /var/log/nginx/access.log combined buffer=32k flush=5s aio=on;
error_log /var/log/nginx/error.log error;
配置解释:
- 禁用日志:access_log off
- 日志记录级别设置error,日志级别:debug < info < notice < warn < error < crit < alert < emerg
aio=on
:开启异步 I/O 操作,结合buffer
,提高日志写入性能。日志缓冲 (buffered logging
) 和flush
选项:最简单的提升性能方式。syslog
异步记录:更为彻底的异步处理方式,通过系统日志服务进行处理。
Tomcat配置优化
配置 Tomcat 的连接数和线程池优化设置,提高认证服务对大量请求的处理能力和响应效率。
server:
tomcat:
max-connections: 20000 #Tomcat可以接受的最大连接数10000
accept-count: 400 #请求队列200
threads:
max: 400 #最大线程数200
min-spare: 200 #最小空闲线程数10
连接数与请求队列优化
max-connections: 20000
Tomcat 最大连接数设置为 20000,允许同时维护的客户端连接数增加,适用于需要大量并发连接的场景。
-
- 避免因连接数不足导致的连接拒绝问题。
- 提高高并发时的吞吐量。
accept-count: 400
设置请求队列的最大长度。当连接数达到 max-connections
时,超过此队列长度的请求将被拒绝。
-
- 适当增加队列长度,减少高负载下的连接拒绝几率。
线程池优化
threads.max: 400
设置最大线程数为 400,允许最多同时处理 400 个请求。
-
- 提高服务并发处理能力,减少请求阻塞时间。
threads.min-spare: 200
设置最小空闲线程数为 200,预留线程以应对突发请求流量。
-
- 缩短高并发场景下的线程初始化时间。
通过测试逐步调整连接数和线程数的数量,以找到适合的配置参数。
Redis操作优化
选择合适的数据结构
设计时选择合理的数据结构存储目标数据,例如用户资源账号授权关系使用 Redis 的 Hash 结构进行存储。
避免Redis中keys操作
注意避免keys *操作,在大数据量会阻塞 Redis,严重影响 Redis 性能。可使用SCAN命令代替,它是非阻塞的,可以分批次扫描数据。
避免Redis的isExist冗余查询
如果能够通过返回是否null即可判断的情况,就不再去isExist冗余查询
通过减少Redis连接查询次数,可减少网络资源消耗。
本地缓存优化(二级缓存)
将一些热点的 key 存储在本地缓存中是为了加速访问频率较高的数据,减轻 Redis 服务的压力,提升整体系统性能。
热点 Key 的特性
- 高访问频率:某些 key 被频繁访问,占用了 Redis 的网络 I/O 和处理资源。
- 数据变化少:热点数据通常是读取操作较多,写入频率较低,因此适合缓存。
- 时效性可控:热点数据一般对实时性要求不高,可以接受短时间的延迟更新。
批量操作与管道 (Pipelining)
Redis 的每个请求都会涉及一次客户端和服务端的网络通信。传统模式下,发送 1000 个请求需要 1000 次往返,而使用 Pipeline 后,可以一次性发送所有请求,减少了网络延迟开销从而提升性能。
private void pubMessages(List<Message<?>> messages, String channel) {
redis>redisTemplate.executePipelined((RedisCallback<List<Object>>) connection -> {
for (Message message : messages) {
// 发布日志消息 通过一批次处理100条
connection.publish(channel.getBytes(), JsonUtils.toJson(message).getBytes());
}
return null;
});
}
Redis连接池
配置 Redis 连接池,减少连接创建开销。调整系统环境上合适的连接池的参数,如最大连接数、最小空闲连接数。
redis>redisson:
threads: 0 #Redisson使用的线程池大小,可设置CPU核心数
nettyThreads: 0 #Netty线程池的大小,决定Netty I/O线程数,处理Redis网络请求,可设置CPU核心数
connectPoolSize: 1000 #Redis连接池的最大连接数
connectPoolIdleSize: 100 #连接池中最小的空闲连接数,应对突发请求能够迅速响应,而不需要创建新的连接
connectTimeout: 10000 #客户端在等待 Redis 服务端响应连接请求的最长时间
public RedissonClient redis>redisson() throws IOException {
Config config = new Config();
threads = (threads == 0 ? Runtime.getRuntime().availableProcessors() : threads);
nettyThreads = (nettyThreads == 0 ? Runtime.getRuntime().availableProcessors() : nettyThreads);
config.setThreads(threads);
config.setNettyThreads(nettyThreads);
config.setTransportMode(TransportMode.NIO);
// ...
return Redisson.create(config);
}
合理配置 Redis
禁用 AOF 持久化
AOF(Append-Only File)是 Redis 的持久化方式,按顺序记录每次写操作命令并追加到日志文件中,支持精确的数据恢复。其性能消耗主要来自磁盘 I/O,受 appendfsync
配置影响:always
性能最差但最安全,everysec
性能与可靠性折中,no
性能最好但可能宕机时丢失数据。
如果业务需要更高性能时,禁用 AOF 持久化,Redis 不会将写操作日志追加到 AOF 文件中,减少磁盘 IO 开销。
appendonly no # 禁用 AOF 持久化
如果需要数据持久化场景,当配置appendonly yes时,通过设置appendfsync来控制日志写入频率。
appendfsync everysec
RDB 快照频率
RDB(Redis Database)是 Redis 的一种快照持久化方式,它会按照指定的触发条件(如时间或键的变化数)将内存中的数据保存到磁盘文件中。RDB 的特点是文件小,适合全量备份,但在保存快照的过程中会消耗 CPU 和磁盘 I/O 资源,特别是对于大数据量或高并发场景。
可以通过禁用 RDB 持久化或者调整持久化策略来提升性能。
#save "" # 禁用 RDB 持久化
save 3600 1000
# 每隔 3600 秒(1小时) 检查一次是否需要保存快照。
# 操作条件(1000 次): 如果在这段时间内,有 至少 1000 次数据修改操作,Redis 就会触发一次快照保存。
Redis I/O 多线程(Redis 6.0 及以上版本)
Redis I/O 多线程功能主要针对网络 I/O 的性能瓶颈,通过多线程并发处理 Redis 的读写请求,将网络 I/O 操作分配给多线程处理,提升吞吐量和响应速度,适合高性能服务器场景。Redis 默认是单线程处理网络请求,即使开启了多线程功能,也是默认只用于写操作。设置 io-threads-do-reads yes
后,Redis 会同时使用多线程处理读请求和写请求,适用于 CPU 核心数较多,并且CPU没有充分占满的场景。
io-threads 4 # 配置 I/O 线程数量
io-threads-do-reads yes # 是否启用多线程处理读操作
可部署时通过脚本动态判断当前系统CPU核心数来决定是否启用I/O多线程。如果CPU核心数大于 16,表示这是一个高性能服务器,适合启用 Redis 的 I/O 多线程功能。
- 对于 CPU 核心较少的服务器,开启 I/O 多线程可能导致性能下降。I/O 多线程的性能提升更多地体现在网络 I/O,而非 Redis 内部操作,因此适用于客户端数量多、网络 I/O 密集的场景。
- 通过测试逐步调整
io-threads
的数量,以找到适合的线程数,避免线程过多带来的上下文切换开销。
避免冗余查询
合并一些配置类的缓存到一个对象中,或者同一个配置类的缓存在一次认证方法调用中,只需要通过一次查询后以参数的形式进行传递,减少Redis的冗余查询次数。
一些通用优化
异步操作
能异步的都尽量异步执行,比如日志的记录,消息的发送等。
批量操作
1. Kafka消息批量处理
- 批量消息消费
@KafkaListener(topics = "user", groupId = "user", containerFactory = "batchKafkaListenerContainerFactory")
public void userLogListener(ConsumerRecords<String, Message<?>> records) {
}
- 描述:这个方法是针对批量 Kafka 消息的消费,即每次从 Kafka 消息队列中拉取一批消息 (
ConsumerRecords
),然后对这批消息进行处理。 - 特点:
-
- 一次性处理多条消息,
ConsumerRecords
是 Kafka 提供的批量消费的数据结构,包含多条Message<?>
消息。 - Kafka 消费者可以配置
max.poll.records
参数,指定每次最多拉取多少条消息。
- 一次性处理多条消息,
- 性能:
-
- 高吞吐量:批量处理能够减少 Kafka 拉取请求的次数,并行处理多条消息,提高吞吐量。
- 可能增加延迟:在消息量较小时,Kafka 需要等待足够多的消息到达,才会形成一个批次,这可能会导致消息延迟增加。
从性能角度来看,批量消费方式的吞吐量要远高于单条消费方式,但可能会带来稍微高一些的延迟。因此,具体选择需要根据业务需求和负载特点进行权衡。
数据库批量保存
认证日志等操作进行Kafka批量订阅后批量保存,可使用mybatisplus的批量保存saveBatch方法。
public Result<String> batchAdd(List<LogLogin> logLoginList) {
// ...
logLoginService.saveBatch(loginList);
// ...
}
日志打印
减少系统中不必要的LOG日志后台输出或调高日志级别。
Java线程池配置
合理配置Java执行任务线程池大小,核心线程数、最大线程数、工作队列大小。
@Bean("executeTaskExecutor")
public Executor taskExecutor(){
ThreadPoolTaskExecutor executor=new ThreadPoolTaskExecutor();
executor.setThreadPriority(8);
executor.setCorePoolSize(Runtime.getRuntime().availableProcessors()*3);
executor.setMaxPoolSize(Runtime.getRuntime().availableProcessors()*3);
executor.setQueueCapacity(100);
executor.setKeepAliveSeconds(120);
executor.setThreadGroupName("global-thd-");
executor.setThreadNamePrefix("custom-task-");
executor.setRejectedExecutionHandler(new ThreadPoolExecutor.CallerRunsPolicy());
executor.setWaitForTasksToCompleteOnShutdown(true);
executor.initialize();
return TtlExecutors.getTtlExecutor(executor);
}
JVM优化
Java8默认垃圾回收器是-XX:+UseParallelGC,尝试设置 G1 垃圾收集器(G1 是一种低延迟、高吞吐量的垃圾回收器,适合大内存的应用)
- 指定 JVM 内存大小(动态根据服务器内存自动配置),设置固定值避免内存收缩。
- 垃圾回收器设置(
-XX:+UseG1GC
)并设置垃圾回收暂停时间目标(-XX:MaxGCPauseMillis=300
)
系统参数优化
Linux操作系统相关可优化操作。
文件描述符
文件描述符是操作系统用来表示打开的资源(如文件、套接字),对于网络连接,文件描述符主要用于表示 TCP/UDP 套接字。操作系统对每个进程的文件描述符数量有限制(通常是 1024 或更高)。如果连接数超过限制,将导致无法接收新连接。为了提高系统网络连接性能,可通过ulimit -n
命令配置系统的文件描述符限制。
ulimit -n 65535
TCP协议连接队列大小
在Linux系统高并发场景下,半连接队列(SYN 队列)和全连接队列(accept 队列)的大小限制可能成为性能瓶颈。
通过调高这两个队列的大小,可以:
- 增强瞬时抗压能力,服务器可以容纳更多未处理的连接,减少丢包和连接失败。
- 在流量高峰期,增加缓冲能力,使得连接能够被逐步处理,而不是直接丢弃。
通过模拟网络连接测试发现,当服务端并发处理大量请求时,如果TCP全连接队列过小,就容易溢出。发生TCP全连接队溢出的时候,后续的请求就会被丢弃,这样就会出现服务端请求数量上不去的现象。
半连接队列
服务器来不及处理握手完成,队列被填满,导致连接失败。
- 查看半连接队列大小
半连接队列的大小由 tcp_max_syn_backlog
参数决定。默认大小1024,如果队列满了,多余的连接会被丢弃。
[root@centos ~]# sysctl net.ipv4.tcp_max_syn_backlog
net.ipv4.tcp_max_syn_backlog = 256
- 调整半连接队列大小
sysctl -w net.ipv4.tcp_max_syn_backlog=256
将参数写入 /etc/sysctl.conf
配置文件,永久生效。
echo "net.ipv4.tcp_max_syn_backlog = 256" >> /etc/sysctl.conf
# 当执行sysctl -p命令时,系统会读取/etc/sysctl.conf文件中的配置并应用这些设置
sysctl -p
全连接队列
应用层的处理速度跟不上握手完成速度,队列满载,连接被拒绝。
- 查看全连接队列大小
全连接队列的大小由 tcp_max_syn_backlog
参数决定。默认大小128,如果队列满了,多余的连接会被丢弃。
[root@centos ~]# sysctl net.core.somaxconn
net.core.somaxconn = 512
- 调整全连接队列大小
sysctl -w net.core.somaxconn=512
将参数写入 /etc/sysctl.conf
配置文件,永久生效。
echo "net.core.somaxconn = 512" >> /etc/sysctl.conf
ss -s 命令查询系统网络连接情况
Total: 1473 (kernel 2330) :总共的网络连接数量为 1473,其中内核维护的连接数为 2330。这个数字表示当前系统在内核层面维护的所有连接(包括已建立的连接和其他状态的连接)。
传输层协议统计(主要是 TCP)
- TCP: 926 (estab 881, closed 3, orphaned 0, synrecv 0, timewait 2/0) :
-
- estab 881:表示当前有 881个 TCP 连接是已建立的连接(
ESTABLISHED
状态)。 - closed 3:表示当前有 3个 TCP 连接已经关闭。
- orphaned 0:表示当前有 0 个连接处于“孤儿”状态(通常是异常连接)。
- synrecv 0:表示当前没有处于 SYN_RECV 状态的连接。SYN_RECV 状态表示接收到连接请求并且正在等待确认。
- timewait 2/0:表示当前有 2个连接处于
TIME_WAIT
状态,0 表示没有正在进行的连接处于半关闭状态。TIME_WAIT
状态表示连接已关闭,但仍需要保持一段时间,以确保双方都知道连接关闭。
- estab 881:表示当前有 881个 TCP 连接是已建立的连接(
ss -lnt 命令可查询系统的TCP连接情况
ss -lnt
# -l 显示正在监听的socket(listening)
# -n 不解析服务名称
# -t 只显示tcp socket
在「LISTEN 状态」时,Recv-Q/Send-Q
表示的含义如下:
Recv-Q:当前全连接队列的大小,也就是当前已完成三次握手并等待服务端 accept()的TCP连接;
Send-Q:当前全连接最大队列长度,上面的输出结果说明监听8443端口的TCP服务,最大全连接长度为511;
在「非LISTEN状态」时,Recv-Q/Send-Q表示的含义如下:
- Recv-Q:已收到但未被应用进程读取的字节数;
- Send-Q:已发送但未收到确认的字节数;
总结
本次优化从 Nginx、Redis、Tomcat、TCP、批量操作、二级缓存等多个角度入手,最终在 8核16G 环境下,将认证系统的并发性能翻倍。
🌟 你的支持是我持续创作的动力,欢迎点赞、收藏、分享!