druid配置logback日志记录慢sql以及应用数据源监控开启
作者:互联网
性能排查在数据源方面,通过使用druid提供的慢sql日志记录以及应用数据源监控来跟踪,分析,定位应用上的性能问题。
基于druid配置开启慢sql的例子很多,大部分都是使用log4j,但项目中使用的是logback,所以一下都是基于logback的配置。
1.druid慢日志记录的开启配置
1.1 配置Filter
<!-- 慢SQL记录 --> <bean id="stat-filter" class="com.alibaba.druid.filter.stat.StatFilter"> <!-- 慢sql时间设置,即执行时间大于1000毫秒的都是慢sql --> <property name="slowSqlMillis" value="1000"/> <property name="logSlowSql" value="true"/> </bean> <bean id="log-filter" class="com.alibaba.druid.filter.logging.Slf4jLogFilter"> <property name="dataSourceLogEnabled" value="true" /> <property name="statementExecutableSqlLogEnable" value="true"/> </bean>
1.2 数据源使用Filter
<bean id="ims-druidDataSource-adb" class="com.alibaba.druid.pool.DruidDataSource" init-method="init" destroy-method="close" primary="false"> <property name="url" value="${spring.datasource.adb.url}"/> <property name="username" value="${spring.datasource.adb.username}"/> <property name="password" value="${spring.datasource.adb.password}"/> <property name="driverClassName" value="${spring.datasource.adb.driver-class-name}"/> <!--druid数据源使用Filter --> <property name="proxyFilters"> <list> <ref bean="stat-filter"/> <ref bean="log-filter"/> </list> </property>
</bean>
1.3配置logback
<appender name="DruidFILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <!-- 正在记录的日志文件的路径及文件名 --> <file>${LOG_HOME}/log_druid_slow_sql.log</file> <!-- 日志记录器的滚动策略,按日期,按大小记录 --> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!-- 归档的日志文件的路径,例如今天是2013-12-21日志,当前写的日志文件路径为file节点指定,可以将此文件与file指定文件路径设置为不同路径,从而将当前日志文件或归档日志文件置不同的目录。 而2013-12-21的日志文件在由fileNamePattern指定。%d{yyyy-MM-dd}指定日期格式,%i指定索引 --> <fileNamePattern>${LOG_HOME}/log-druid_slow_sql-%d{yyyy-MM-dd}.%i.log</fileNamePattern> <!-- 除按日志记录之外,还配置了日志文件不能超过2M,若超过2M,日志文件会以索引0开始, 命名日志文件,例如log-error-2013-12-21.0.log --> <timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP"> <maxFileSize>200MB</maxFileSize> </timeBasedFileNamingAndTriggeringPolicy> </rollingPolicy> <!-- 追加方式记录日志 --> <append>true</append> <!-- 日志文件的格式 --> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger Line:%-3L - %msg%n</pattern> <charset>utf-8</charset> </encoder> <!-- 此日志文件只记录级别的 --> <filter class="ch.qos.logback.classic.filter.LevelFilter"> <level>ERROR</level> <onMatch>ACCEPT</onMatch> <onMismatch>DENY</onMismatch> </filter> </appender> <logger name="com.alibaba.druid.filter.stat.StatFilter" level="ERROR"> <appender-ref ref="DruidFILE" /> </logger>
效果如下:会在日志目录按天生成日志文件,将慢sql记录到日志文件中。
2.配置druid内置监控页面(基于springboot)
直接上代码:
import com.alibaba.druid.support.http.StatViewServlet; import com.alibaba.druid.support.http.WebStatFilter; import org.springframework.boot.web.servlet.FilterRegistrationBean; import org.springframework.boot.web.servlet.ServletRegistrationBean; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import java.util.Arrays; import java.util.HashMap; import java.util.Map; /** * <P> * 描述:druidCofig监控 * </p> * * @author lishang Created on 2020/5/8 17:24 * @version 1.0 */ @Configuration public class DruidConfig { //1.配置管理后台的servlet @Bean public ServletRegistrationBean statViewServlet(){ //druid监控页面的url ServletRegistrationBean bean = new ServletRegistrationBean(new StatViewServlet(),"/druid/*"); Map<String,String> initParams = new HashMap<>(); initParams.put("loginUsername","druid"); //登陆用户名 initParams.put("loginPassword","123456"); //密码 initParams.put("allow",""); //允许哪些ip initParams.put("deny",""); //拒绝ip bean.setInitParameters(initParams); return bean; } //2.配置一个web监控的filter,监控sql @Bean public FilterRegistrationBean webStatFilter(){ FilterRegistrationBean bean = new FilterRegistrationBean(); bean.setFilter(new WebStatFilter()); Map<String,String> initParams = new HashMap<>(); initParams.put("exclusions","*.js,*.css,*.html,/druid/*"); bean.setInitParameters(initParams); bean.setUrlPatterns(Arrays.asList("/*")); return bean; } }
然后, 就可以通过也没访问了,如下:
数据源相关信息,一目了然:
不得不承认,durid提供的相关监控使用起来方便,功能也是十分强大。
有了强大的监控支持,慢慢去定位系统的性能瓶颈去吧,希望通过我们的努力可以给客户更好用户体验。
标签:数据源,druid,new,bean,sql,import,initParams 来源: https://www.cnblogs.com/sloveling/p/druid_log.html