不看绝对血亏!hadoop和kafka啥关系
作者:互联网
### 第一次压测
![](http://www.icode9.com/i/li/?n=2&i=images/20210711/1625956205670857.jpg)
惨不忍睹,平均响应时间150ms,而且在这次压测过程中还发现其它的问题,后台报错,经查是OpenSearch每秒查询次数限制
#### 优化代码与配置
1、修改OpenSearch配置,并且将压测环境中的OpenSearch连接地址改为内网地址。2、将代码中循环查询缓存的地方改为一次性批量查询返回。3、和相关同学确认后去掉项目中无用的代码。
### 第二次压测
![](http://www.icode9.com/i/li/?n=2&i=images/20210711/1625956205425762.jpg)
虽然优化了代码,修改了配置,但是情况更糟糕了,而且还改出了新的问题。当时,反复检查了代码,确定查询缓存的次数已经是最少了,而且连接线程池相关参数也调到一个相对较大且合理的值了。如果,再压测还是无法达到要求的话,只有出最后一招了:缓存结果集。即,以用户ID和用户搜索的关键词为key,查询的结果为value,缓存5分钟。
### 第三次压测
![](http://www.icode9.com/i/li/?n=2&i=images/20210711/1625956205529737.jpg)
总算符合要求了,并发60的时候响应时间达到32ms,而我又发现了新的优化点。
![](http://www.icode9.com/i/li/?n=2&i=images/20210711/1625956205279547.jpg)
接口中居然还有查数据库的操作,这可不能忍,排查之后去掉了一些不必要的依赖。
### 成长
学会了使用RedisTemplate的executePipelined进行redis批量查询
![](http://www.icode9.com/i/li/?n=2&i=images/20210711/1625956206979030.jpg)
### 针对本次优化的总结
1、一定要绝对避免循环查数据库和缓存(PS:循环里面就不能有查询缓存,更不能有查询数据库的操作,因为循环的次数没法控制);
2、对于API接口的话,一般都是直接查缓存的,没有查数据库的;
3、多用批量查询,少用单条查询,尽量一次查出来;
4、对于使用阿里云,要留意一下相应产品的配置,该花的钱还是得花,同时,千万要记得正式环境中使用相应产品的内网地址;
5、注意连接池大小(包括数据库连接池、Redis缓存连接池、线程池);
6、压测的机器上不要部署其它的服务,只跑待压测的服务,避免受其它项目影响;对于线上环境,最好一台机器上只部署一个重要的服务;
7、没有用的以及被注释掉的代码,没有用的依赖最好及时清理掉;
8、集群自不用说;
9、一些监控类的工具工具可以帮助我们更好的定位问题,比如链路跟踪,这次项目中使用了PinPoint;
10、如果技术上优化的空间已经非常小了,可以试着从业务上着手,用实际的数据说话,可以从日常的访问量,历史访问量数据来说服测试;
11、每一次代码改动都有可能引入新的问题,因此,每次修改代码后都要回归测试一下(PS:每次修改完以后,我都会用几组不同的关键词搜索,然后比对修改前和修改后返回的数据是否一致,这个时候postman,以及Beyond compare就派上用场了);
12、关键的地方一定要多加点儿日志,方便以后排除问题,因为排查线上问题最主要还是靠日志;
### 最后
**如果大家需要这份清华大牛整理的进大厂必备的redis视频、面试题和技术文档的话,[可以戳这里即可免费获取!](https://gitee.com/vip204888/java-p7)**
祝大家早日进入大厂,拿到满意的薪资和职级~~~加油!!
感谢大家的支持!!
![image.png](http://www.icode9.com/i/li/?n=2&i=images/20210711/1625956206745497.jpg)
标签:缓存,查询,压测,hadoop,血亏,https,kafka,com,### 来源: https://blog.51cto.com/u_15293101/3035142