springBoot使用druid数据库连接池以及logback,并开启慢sql记录输出到指定的日志文件

zz/2024/7/13 10:33:52

该文主要记录下自己使用过程,以后用到可以看看,我的springBoot版本是2.2.1,2以上应该都没问题

1.首先添加好需要的依赖包:

<!--mysql--><dependency><groupId>mysql</groupId><artifactId>mysql-connector-java</artifactId><version>5.1.35</version><scope>runtime</scope></dependency><dependency><groupId>com.alibaba</groupId><artifactId>druid-spring-boot-starter</artifactId><version>1.1.10</version></dependency>

2.logback配置:

springBoot2.0默认使用的日志是logback已自动集成,对于日志的配置只需要在resources添加一个logback-spring.xml配置文件就可以自动生效,注释很明白了,没学过的看看以下博客:

  1. https://blog.csdn.net/haidage/article/details/6794509
  2. https://blog.csdn.net/haidage/article/details/6794529
  3. https://blog.csdn.net/haidage/article/details/6794540
<?xml version="1.0" encoding="UTF-8"?>
<!--debug属性配置是否打印日志框架本身的运行情况信息-->
<configuration debug="false"><!--自定义日志存放目录--><property name="LOG_HOME" value="F:/log/hjzlive/" /><!--只在控制台输出日志组件--><appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender"><encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"><pattern>%highlight(%d{yyyy-MM-dd HH:mm}) %boldYellow([%thread]) %-5level  %boldCyan([%logger{50}[%L]]) %msg%n</pattern><charset>UTF-8</charset></encoder></appender><!--info日志文件输出组件--><appender name="FILE_INFO"  class="ch.qos.logback.core.rolling.RollingFileAppender"><!--当前日志输出文件位置,目录不存在时会自动创建--><file>${LOG_HOME}/service.log</file><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><!--每天滚动,满足条件时滚动生成的文件名格式--><fileNamePattern>${LOG_HOME}/service.%d{yyyy-MM-dd}.%i.log</fileNamePattern><!--该日志的最大数量--><MaxHistory>120</MaxHistory><!--按文件大小滚动,当某一天的日志文件大于100m时滚动,生成一个新的文件来存放日志,结合上面的每天滚动一起使用,可以避免日志文件过大不利于查找--><timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP"><maxFileSize>100MB</maxFileSize></timeBasedFileNamingAndTriggeringPolicy></rollingPolicy><!--日志输出格式,编码以及信息格式--><encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"><pattern>%d{yyyy-MM-dd HH:mm} [%thread] %-5level %logger{50}[%L] - %msg%n</pattern><charset>UTF-8</charset></encoder></appender><!--error日志文件输出组件--><appender name="FILE_ERROR"  class="ch.qos.logback.core.rolling.RollingFileAppender"><file>${LOG_HOME}/error.log</file><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><fileNamePattern>${LOG_HOME}/error.%d{yyyy-MM-dd}.%i.log</fileNamePattern><MaxHistory>120</MaxHistory><timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP"><maxFileSize>100MB</maxFileSize></timeBasedFileNamingAndTriggeringPolicy></rollingPolicy><!-- 过滤日志,只输出error等级的日志--><filter class="ch.qos.logback.classic.filter.ThresholdFilter"><level>ERROR</level></filter><encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"><pattern>%d{yyyy-MM-dd HH:mm:ss} [%thread] %-5level %logger{50}[%L] - %msg%n</pattern><charset>UTF-8</charset></encoder></appender><!--druid慢查询日志输出,没有使用druid监控的去掉这部分以及下面的一个相关logger--><appender name="Druid_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"><!-- 正在记录的日志文件的路径及文件名 --><file>${LOG_HOME}/log_druid.log</file><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><fileNamePattern>${LOG_PATH}/${APPDIR}/info/log-druid-%d{yyyy-MM-dd}.%i.log</fileNamePattern><timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP"><maxFileSize>2MB</maxFileSize></timeBasedFileNamingAndTriggeringPolicy></rollingPolicy><!-- 追加方式记录日志 --><append>true</append><!-- 日志文件的格式 --><encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"><pattern>%d{yyyy-MM-dd HH:mm:ss} %-5level %logger Line:%-3L - %msg%n</pattern><charset>utf-8</charset></encoder><!--过滤日志--><filter class="ch.qos.logback.classic.filter.LevelFilter"><level>ERROR</level></filter></appender><!--druid相关logger,additivity="false" 设置打印信息行为不向上级传递--><logger name="com.alibaba.druid.filter.stat.StatFilter" level="ERROR" additivity="false"><appender-ref ref="STDOUT" /><appender-ref ref="Druid_FILE" /></logger><!--<logger name="org.apache.ibatis" level="DEBUG" additivity="false">--><!--<appender-ref ref="STDOUT"/>--><!--</logger>--><!--logger用来配置绑定某个包或者类下的日志输出等级,以及使用哪一个appender来输出日志--><!--additivity配置是否向上级logger传递打印信息行为,该logger的上级为root,默认true--><logger name="com.ccg.hjzlive.mapper" level="DEBUG" additivity="false"><appender-ref ref="STDOUT"/></logger><!--顶级logger--><root level="INFO"><appender-ref ref="STDOUT" /><appender-ref ref="FILE_INFO" /><appender-ref ref="FILE_ERROR" /></root></configuration>

3.Druid属性配置以及监控配置

springboot2.0默认使用数据源是Hikari,如果想用第三方的数据源须在配置文件spring.datasource.type指出;
Hikari在性能上比druid好一些,而druid的优点就是有成套的sql监控,如果你的项目不需要监控,使用默认的就ok了

第一部分:配置文件配置:

spring:datasource:url: jdbc:mysql://localhost:3306/hjzlive?characterEncoding=utf8&useSSL=false&serverTimezone=Asia/Shanghaiusername: password: type: com.alibaba.druid.pool.DruidDataSourceinitialSize: 5minIdle: 5maxActive: 10maxWait: 60000     #获取连接时最大等待时间,单位毫秒timeBetweenEvictionRunsMillis: 1800000     #配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒filters: stat,wall,slf4j    #通过别名的方式配置扩展插件,常用的插件有:监控统计用的filter:stat,日志用的filter: slf4j,防御sql注入的filter:wallconnectionProperties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=90;druid.stat.logSlowSql=true   # 通过connectProperties属性来打开mergeSql功能;慢SQL记录validationQuery: select 'x'   #用来检测连接是否有效的sql,要求是一个查询语句testWhileIdle: true       #建议配置为true,不影响性能,并且保证安全性。如果空闲时间大于timeBetweenEvictionRunsMillis,执行validationQuery检测连接是否有效。testOnBorrow: false       #申请连接时执行validationQuery检测连接是否有效,做了这个配置会降低性能testOnReturn: false       #归还连接时执行validationQuery检测连接是否有效,做了这个配置会降低性能poolPreparedStatements: false #是否缓存preparedStatement,也就是PSCache。PSCache对支持游标的数据库性能提升巨大,比如说oracle。在mysql下建议关闭

注意看一下属性颜色不同的地方:有特殊颜色的属性是不会自动注入的(可以自己debug验证一下),如果你只是简单的使用druid连接池,不要求sql监控,到这里就可以结束了。可以把这些属性删了,然后再删了上面logback-spring.xml配置文件的druid的appender和logger组件就ok了,当然你不删也没关系

第二部分:druid监控配置

创建一个配置类:DruidConfig,代码如下

@Configuration
public class DruidConfig {//该注解向bean自动注入对应的属性,属性在配置文件配置@ConfigurationProperties(prefix = "spring.datasource")@Beanpublic DataSource druid(){return new DruidDataSource();}//配置druid的监控//1.配置管理后台的servlet@Beanpublic ServletRegistrationBean statViewServlet(){//druid监控页面的urlServletRegistrationBean bean = new ServletRegistrationBean(new StatViewServlet(),"/druid/*");Map<String,String> initParams = new HashMap<>();initParams.put("loginUsername","druid");   //登陆用户名initParams.put("loginPassword","123456");  //密码initParams.put("allow","");                //允许哪些ipinitParams.put("deny","");                 //拒绝ipbean.setInitParameters(initParams);return bean;}//2.配置一个web监控的filter,监控sql@Beanpublic FilterRegistrationBean webStatFilter(){FilterRegistrationBean bean = new FilterRegistrationBean();bean.setFilter(new WebStatFilter());Map<String,String> initParams = new HashMap<>();initParams.put("exclusions","*.js,*.css,*.html,/druid/*");bean.setInitParameters(initParams);bean.setUrlPatterns(Arrays.asList("/*"));return bean;}
}

如果你配置没问题的话,打开你的项目地址+/druid/,  就可以看到

       

有收获的收藏点赞!

我的其他博客:

springBoot以及mybatis配置logback日志输出策略,按每天及大小滚动


http://www.ngui.cc/zz/2732105.html

相关文章

重温经典:Windows1.0系统体验和尝试自己编写Windows1.0系统

相关说明 如果你觉得文章含有侵权部分,可以联系CSDN私聊,我会适当修改。 未经允许,不得转载,如需转载,请CSDN私聊。 Windows Windows,意思是窗口,窗户。当然,他也是一个操作系统的名字。 1983年,由比尔盖茨建立的Microsoft,也就是微软公司,开始研制Windows操作系统…

读书笔记_mysql必知必会_27_全球化和本地化

目录 字符集和校对顺序 使用字符集和校对顺序 字符集和校对顺序 数据库表被用来存储和检索数据。不同的语言和字符集需要以不同的方式存储和检索。因此&#xff0c;MySQL 需要适应不同的字符集&#xff08;不同的字母和字符&#xff09;&#xff0c;适应不同的排序和检索数据…

Serializable和Externalizable浅析

Java序列化是指把Java对象转换为字节序列的过程&#xff1b;而Java反序列化是指把字节序列恢复为Java对象的过程。从而达到网络传输、本地存储的效果。 本文主要要看看JDK中使用Serializable和Externalizable接口来完成Java对象序列化&#xff0c;并给出部分属性序列化的几种方…

java8新特性_12_Stream练习

public class TestStreamApi04lianxi {List<Employee> emps Arrays.asList(new Employee("张三", 18,9999.99, Status.FREE),new Employee("李四", 38,5555.99, Status.BUSY),new Employee("王五", 50,6666.66, Status.VOCATION),new Emp…

《并发编程的艺术》第一章 并发编程的挑战

1.1 上下文切换 CPU 通 过时间 片分配算法来循 环执 行任 务 &#xff0c;当前任 务执 行一个 时间 片后会切 换 到下一个 任务 。但是&#xff0c;在切 换 前会保存上一个任 务 的状 态 &#xff0c;以便下次切 换 回 这 个任 务时 &#xff0c;可以再加 载这 个任务 的状 态…

保障消息100%投递成功、消息幂等性

一、前言 我们小伙伴应该都听说够消息中间件MQ&#xff0c;如&#xff1a;RabbitMQ&#xff0c;RocketMQ&#xff0c;Kafka等。引入中间件的好处可以起到抗高并发&#xff0c;削峰&#xff0c;业务解耦的作用。 如上图&#xff1a; &#xff08;1&#xff09;订单服务投递消息…

MySQL高级之索引面试题分析

索引优化简单案例 单表 需求&#xff1a;查询category_id为1 且 comments大于1 的情况下&#xff0c;views最多的id 1、无索引的情况下&#xff1a; 很显然&#xff0c;type是ALL&#xff0c;即最坏的情况&#xff0c;Extra还出现了Using filesort也是最坏的情况&#xff0c…

消息不丢失

大家好&#xff0c;我是君哥。 引入消息队列可以方便地实现系统解耦、削峰填谷等作用。但是消息队列使用不当&#xff0c;可能会引起消息丢失&#xff0c;在一些消息敏感的业务场景下&#xff0c;这是不允许的。今天我们来聊一聊 RocketMQ 怎么做能确保消息不丢失。 1 Rocket…

Java设计模式之《享元模式》

享元模式&#xff1a;“享”就是分享之意&#xff0c;指一物被众人共享&#xff0c;而这也正是该模式的终旨所在。 享元模式有点类似于单例模式&#xff0c;都是只生成一个对象来被共享使用。这里有个问题&#xff0c;那就是对共享对象的修改&#xff0c;为了避免出现这种情况&…

Java设计模式之《抽象工厂模式》

一、概述 抽象工厂模式是对工厂方法模式的再升级&#xff0c;但是二者面对的场景稍显差别。 工厂方法模式面对的目标一般都是单类的&#xff0c;就比如《ava设计模式之《工厂方法模式》及使用场景》中所举的例子&#xff0c;目标就是桌子这一类商品。 如果是这样的呢&#x…