百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

记录1次Mybatis-Wrapper导致的生产事故

ztj100 2025-05-25 16:50 18 浏览 0 评论

1.灾难回顾

1)某日早上,生产环境告警群出现了慢接口告警,随之而来的是CPU告警。

2)因为最近没有上新功能,所以初步猜测是否中间件或数据库出了问题?经排查,各中间件一切正常,数据库慢sql也不算很慢。

3)在主机上使用top命令查看CPU占用情况,发现有异常:主机CPU一直保持在1000%(主机16核),一直持续。

4)有了上次的经验,第一时间看GC情况:jstat -gcutil pid 1000。果然,发现FGC每几秒就增加1次,说明JVM在疯狂进行Full GC,至于为什么会频繁Full GC,一脸茫然。

第一反应是重启部分机器,留1台机器进行dump内存快照。

5)10分钟后,经分析快照,发现有个类ShopAddress占内存特别大,包含对象数150多万。

6)使用jstack命令(jstack -l pid)查看JVM线程,搜索关键词ShopAddress,发现的确是有关于ShopAddress的堆栈信息。

7)基于堆栈信息找到对应的代码,修改代码并发布到生产环境,CPU终于降下来了...

2.场景简化回顾

假如说有这么一张表

CREATE TABLE `t_shop_address` (
 `id` int(11) unsigned NOT NULL AUTO_INCREMENT COMMENT 'id',
 `shop_id` int(11) NOT NULL COMMENT 't_shop.id',
 ...
) COMMENT='门店地址';

需求是:需要根据多个shop_id同时查询数据,于是某老6写了以下的代码

public List<ShopAddress> selectByShopIdList(List<Integer> shopIdList) {
    Wrapper<ShopAddress> wrapper = new EntityWrapper<>();
    wrapper.in("shop_id", shopIdList);
    List<ShopAddress> shopAddressList = shopAddressMapper.selectList(wrapper);
    return shopAddressList;
}

就1个查询而已啊,有啥问题吗?

Wrapper是mybatis ORM框架用来组装sql类。翻译过来的sql应该是:

select * from t_shop_address where shop_id in(?,?,?,...);

即使t_shop_address表中存储了大量数据,只要shopIdList的数据量比较少,该查询都不会有问题。

但是今天突然有shopIdList = [] 传进来了,于是CPU便起飞了...

在mybatis的Wrapper API中,如果value为null或者空列表的情况下,组装的sql会忽略该条件

从而导致上面的查询sql为:

select * from t_shop_address;

结果是全表查询,150多万的数据量,这就是JVM会疯狂进行Full GC的原因。

3.预防措施

1)使用Wrapper查询之前增加每一个参数的非空校验,确保都是有值的。

2)避免使用Wrapper来组装条件查询数据库,尽量自己写sql,即时是shop_id in(),最多也只是该业务报错,而不会导致整个系统垮掉。

但还是建议不要出现shop_id in()的情况,这个会报sql语法错误。可以增加1<>1条件让sql正确执行并返回0条数据。

3)使用mybatis拦截器来统一限制查询条数,为每个查询增加limit限制,比如1次查询最多返回1000条结果,当触发limit限制的情况下可以告警。如果超过1000条,需要进行分页查询。


怎么样?还不赶快去看看你的项目,看看有没有老6给你留坑!!!

相关推荐

拒绝躺平,如何使用AOP的环绕通知实现分布式锁

如何在分布式环境下,像用synchronized关键字那样使用分布式锁。比如开发一个注解,叫@DistributionLock,作用于一个方法函数上,每次调方法前加锁,调完之后自动释放锁。可以利用Sp...

「解锁新姿势」 兄dei,你代码需要优化了

前言在我们平常开发过程中,由于项目时间紧张,代码可以用就好,往往会忽视代码的质量问题。甚至有些复制粘贴过来,不加以整理规范。往往导致项目后期难以维护,更别说后续接手项目的人。所以啊,我们要编写出优雅的...

消息队列核心面试点讲解(消息队列面试题)

Rocketmq消息不丢失一、前言RocketMQ可以理解成一个特殊的存储系统,这个存储系统特殊之处数据是一般只会被使用一次,这种情况下,如何保证这个被消费一次的消息不丢失是非常重要的。本文将分析Ro...

秒杀系统—4.第二版升级优化的技术文档二

大纲7.秒杀系统的秒杀活动服务实现...

SpringBoot JPA动态查询与Specification详解:从基础到高级实战

一、JPA动态查询概述1.1什么是动态查询动态查询是指根据运行时条件构建的查询,与静态查询(如@Query注解或命名查询)相对。在业务系统中,80%的查询需求都是动态的,例如电商系统中的商品筛选、订...

Java常用工具类技术文档(java常用工具类技术文档有哪些)

一、概述Java工具类(UtilityClasses)是封装了通用功能的静态方法集合,能够简化代码、提高开发效率。本文整理Java原生及常用第三方库(如ApacheCommons、GoogleG...

Guava 之Joiner 拼接字符串和Map(字符串拼接join的用法)

Guave是一个强大的的工具集合,今天给大家介绍一下,常用的拼接字符串的方法,当然JDK也有方便的拼接字符串的方式,本文主要介绍guava的,可以对比使用基本的拼接的话可以如下操作...

SpringBoot怎么整合Redis,监听Key过期事件?

一、修改Redis配置文件1、在Redis的安装目录2、找到redis.windows.conf文件,搜索“notify-keyspace-events”...

如何使用Python将多个excel文件数据快速汇总?

在数据分析和处理的过程中,Excel文件是我们经常会遇到的数据格式之一。本文将通过一个具体的示例,展示如何使用Python和Pandas库来读取、合并和处理多个Excel文件的数据,并最终生成一个包含...

利用Pandas高效处理百万级数据集,速度提升10倍的秘密武器

处理大规模数据集,尤其是百万级别的数据量,对效率的要求非常高。使用Pandas时,可以通过一些策略和技巧显著提高数据处理的速度。以下是一些关键的方法,帮助你使用Pandas高效地处理大型数据集,从而实...

Python进阶-Day 25: 数据分析基础

目标:掌握Pandas和NumPy的基本操作,学习如何分析CSV数据集并生成报告。课程内容...

Pandas 入门教程 - 第五课: 高级数据操作

在前几节课中,我们学习了如何使用Pandas进行数据操作和可视化。在这一课中,我们将进一步探索一些高级的数据操作技巧,包括数据透视、分组聚合、时间序列处理以及高级索引和切片。高级索引和切片...

原来这才是Pandas!(原来这才是薯片真正的吃法)

听到一些人说,Pandas语法太乱、太杂了,根本记不住。...

python(pandas + numpy)数据分析的基础

数据NaN值排查,统计,排序...

利用Python进行数据分组/数据透视表

1.数据分组源数据表如下所示:1.1分组键是列名分组键是列名时直接将某一列或多列的列名传给groupby()方法,groupby()方法就会按照这一列或多列进行分组。按照一列进行分组...

取消回复欢迎 发表评论: