logback动态获取nacos配置

文章目录

  • 前言
  • 一、整体思路
  • 二、使用bootstrap.yml
  • 三、增加环境变量
  • 四、pom文件
  • 五、logback-spring.xml更改
  • 总结


前言

主要是logback动态获取nacos的配置信息,结尾完整代码
项目springcloud+nacos+plumelog,使用的时候、特别是部署的时候,需要改环境,改地址
在这里插入图片描述
application.yml
在这里插入图片描述
logback-spring.xml

<?xml version="1.0" encoding="UTF-8"?>
<!-- 日志级别从低到高分为TRACE < DEBUG < INFO < WARN < ERROR < FATAL,如果设置为WARN,则低于WARN的信息都不会输出 -->
<!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true -->
<!-- scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。 -->
<!-- debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 -->
<configuration scan="true" scanPeriod="10 seconds"><!--<include resource="org/springframework/boot/logging/logback/base.xml" />--><contextName>logback</contextName><!-- name的值是变量的名称,value的值时变量定义的值。通过定义的值会被插入到logger上下文中。定义变量后,可以使“${}”来使用变量。 --><property name="log.path" value="./logs"/><property name="log.name" value="main"/><!--输出到控制台--><appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender"><!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息--><filter class="ch.qos.logback.classic.filter.ThresholdFilter"><level>debug</level></filter><encoder><pattern>%green(TIMESTAMP):%-5d{yyyy-MM-dd HH:mm:ss.SSS}; %yellow(LEVEL):%level; %magenta(CLASS):%C{50};%magenta(METHOD):%M; %yellow(CT):%thread; %green(MSG):%msg%n</pattern><charset>UTF-8</charset></encoder></appender><!-- 时间滚动输出 level为 INFO 日志 --><appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"><!-- 正在记录的日志文件的路径及文件名 --><file>${log.path}/${log.name}.log</file><!--日志文件输出格式--><!-- class="com.yomahub.tlog.core.enhance.logback.AspectLogbackEncoder"--><encoder><pattern>%green(TIMESTAMP):%-5d{yyyy-MM-dd HH:mm:ss.SSS}; %yellow(LEVEL):%level; %magenta(CLASS):%C{50};%magenta(METHOD):%M; %yellow(CT):%thread; %green(MSG):%msg%n</pattern><charset>UTF-8</charset></encoder><!-- 日志记录器的滚动策略,按小时 --><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><!-- 每天日志归档路径以及格式 --><fileNamePattern>${log.path}/all/${log.name}-%d{yyyy-MM-dd-HH}.gz</fileNamePattern><!--日志文件保留小时数--><maxHistory>2160</maxHistory></rollingPolicy><!-- 此日志文件全部记录,不加入Filter --></appender><!-- 时间滚动输出 level为 ERROR 日志 --><appender name="ERROR_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"><!-- 正在记录的日志文件的路径及文件名 --><file>${log.path}/${log.name}-error.log</file><!--日志文件输出格式--><encoder><pattern>%green(TIMESTAMP):%-5d{yyyy-MM-dd HH:mm:ss.SSS}; %yellow(LEVEL):%level; %magenta(CLASS):%C{50};%magenta(METHOD):%M; %yellow(CT):%thread; %green(MSG):%msg%n</pattern><charset>UTF-8</charset> <!-- 此处设置字符集 --></encoder><!-- 日志记录器的滚动策略,按小时 --><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><fileNamePattern>${log.path}/error/${log.name}-error-%d{yyyy-MM-dd-HH}.gz</fileNamePattern><!--日志文件保留小时数--><maxHistory>2160</maxHistory></rollingPolicy><!-- 此日志文件只记录ERROR级别的 --><filter class="ch.qos.logback.classic.filter.LevelFilter"><level>ERROR</level><onMatch>ACCEPT</onMatch><onMismatch>DENY</onMismatch></filter></appender><!-- 异步输出 --><appender name="ASYNC_CONSOLE" class="ch.qos.logback.classic.AsyncAppender"><!-- 不丢失日志的话,discardingThreshold必须大于0,并且应小于appender的maxQueueSize --><discardingThreshold>0</discardingThreshold><!-- 设置日志事件的最大队列长度 --><queueSize>256</queueSize><!-- 添加真正的日志appender,引用同步,将其包装为异步 --><appender-ref ref="CONSOLE"/></appender><!-- 异步输出 --><appender name="ASYNC_INFO_FILE" class="ch.qos.logback.classic.AsyncAppender"><!-- 不丢失日志的话,discardingThreshold必须大于0,并且应小于appender的maxQueueSize --><discardingThreshold>0</discardingThreshold><!-- 设置日志事件的最大队列长度 --><queueSize>256</queueSize><!-- 添加真正的日志appender,引用同步,将其包装为异步 --><appender-ref ref="INFO_FILE"/></appender><!-- 异步输出 --><appender name="ASYNC_ERROR_FILE" class="ch.qos.logback.classic.AsyncAppender"><!-- 不丢失日志的话,discardingThreshold必须大于0,并且应小于appender的maxQueueSize --><discardingThreshold>0</discardingThreshold><!-- 设置日志事件的最大队列长度 --><queueSize>256</queueSize><!-- 添加真正的日志appender,引用同步,将其包装为异步--><appender-ref ref="ERROR_FILE"/></appender><!-- 使用kafka启用下面配置--><appender name="plumelog" class="com.plumelog.logback.appender.KafkaAppender"><appName>cmp-system</appName><!--        qa--><!--                <kafkaHosts>192.168.31.12:6667,192.168.31.13:6667,192.168.31.14:6667</kafkaHosts>--><!--prod--><kafkaHosts>192.168.30.17:6667,192.168.30.18:6667,192.168.30.19:6667,192.168.30.20:6667,192.168.30.21:6667</kafkaHosts></appender><!--开发环境:打印控制台--><springProfile name="dev"><root level="info"><appender-ref ref="CONSOLE"/><!--<appender-ref ref="DEBUG_FILE" />--><appender-ref ref="INFO_FILE"/><!--<appender-ref ref="WARN_FILE" />--><appender-ref ref="ERROR_FILE"/><appender-ref ref="plumelog"/></root></springProfile><!--测试环境:输出到文件--><springProfile name="test"><root level="info"><appender-ref ref="CONSOLE"/><!--<appender-ref ref="DEBUG_FILE" />--><appender-ref ref="INFO_FILE"/><!--<appender-ref ref="WARN_FILE" />--><appender-ref ref="ERROR_FILE"/><appender-ref ref="plumelog"/></root></springProfile><!--QA环境:输出到文件--><springProfile name="qa"><root level="info"><appender-ref ref="CONSOLE"/><!--<appender-ref ref="DEBUG_FILE" />--><appender-ref ref="INFO_FILE"/><!--<appender-ref ref="WARN_FILE" />--><appender-ref ref="ERROR_FILE"/><appender-ref ref="plumelog"/></root></springProfile><!--生产环境:输出到文件--><springProfile name="prod"><root level="info"><appender-ref ref="CONSOLE"/><!--<appender-ref ref="DEBUG_FILE" />--><appender-ref ref="INFO_FILE"/><!--<appender-ref ref="WARN_FILE" />--><appender-ref ref="ERROR_FILE"/><appender-ref ref="plumelog"/></root></springProfile></configuration>

每次部署需要修改使用active的版本。和修改xml的kafka地址。已经使用了nacos的服务发现功能。决定用配置中心整理下。


一、整体思路

在nacos上将配置信息配置上。logback动态获取nacos的配置

二、使用bootstrap.yml

原来是application.yml,但是在spring中,logback.xml的加载循序在application.yml之前。导致logback.xml动态获取kafka服务器地址失败。
bootstrap.yml
在这里插入图片描述
NACOS_SERVER_ADDR、NACOS_NAMESPACE是自定义环境变量。
如果读取不到NACOS_SERVER_ADDR、NACOS_NAMESPACE值,默认值为后面的nacos地址、命名空间

三、增加环境变量

本地不用管。默认即可。qa、prod环境需要再机器上执行命令

export NACOS_SERVER_ADDR=192.168.31.11:8848
export NACOS_NAMESPACE=bd1c9d0c-be99-425f-a0bc-93838b2171a5

四、pom文件

pom中增加nacos-config依赖

        <dependency><groupId>com.alibaba.cloud</groupId><artifactId>spring-cloud-starter-alibaba-nacos-config</artifactId></dependency>

五、logback-spring.xml更改

logback-spring.xml修改为logback-nacos.xml,名字可以自定义。
在nacos的配置文件中。做日志指向。

logging:config: classpath:logback-nacos.xml

这步最重要,不然动态获取失败。也是看别人解决的
在这里插入图片描述
在这里插入图片描述
完整的代码
在这里插入图片描述
bootstrap.yml

# Tomcat
server:port: 9003# Spring
spring:application:# 应用名称name: cmp-sim-managementcloud:nacos:discovery:# 服务注册地址server-addr: ${NACOS_SERVER_ADDR:10.10.10.20:8848}config:# 配置中心地址server-addr: ${NACOS_SERVER_ADDR:10.10.10.20:8848}# 配置文件格式file-extension: yamlnamespace: ${NACOS_NAMESPACE:bd1c9d0c-be99-425f-a0bc-93838b2171a5}refresh-enabled: true

logback-nacos-xml

<?xml version="1.0" encoding="UTF-8"?>
<!-- 日志级别从低到高分为TRACE < DEBUG < INFO < WARN < ERROR < FATAL,如果设置为WARN,则低于WARN的信息都不会输出 -->
<!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true -->
<!-- scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。 -->
<!-- debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 -->
<configuration scan="true" scanPeriod="10 seconds"><!--<include resource="org/springframework/boot/logging/logback/base.xml" />--><!--    <contextName>logback1</contextName>--><!-- name的值是变量的名称,value的值时变量定义的值。通过定义的值会被插入到logger上下文中。定义变量后,可以使“${}”来使用变量。 --><property name="log.path" value="./logs"/><property name="log.name" value="main"/><springProperty scope="context" name="application.name" source="spring.application.name"/><springProperty scope="context" name="plumelog.kafka" source="spring.kafka.bootstrap-servers"/><!--输出到控制台--><appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender"><!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息--><filter class="ch.qos.logback.classic.filter.ThresholdFilter"><level>info</level></filter><encoder><pattern>%green(TIMESTAMP):%-5d{yyyy-MM-dd HH:mm:ss.SSS}; %yellow(LEVEL):%level; %magenta(CLASS):%C{50};%magenta(METHOD):%M; %yellow(CT):%thread; %green(MSG):%msg%n</pattern><charset>UTF-8</charset></encoder></appender><!-- 时间滚动输出 level为 INFO 日志 --><appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"><!-- 正在记录的日志文件的路径及文件名 --><file>${log.path}/${log.name}.log</file><!--日志文件输出格式--><!-- class="com.yomahub.tlog.core.enhance.logback.AspectLogbackEncoder"--><encoder><pattern>%green(TIMESTAMP):%-5d{yyyy-MM-dd HH:mm:ss.SSS}; %yellow(LEVEL):%level; %magenta(CLASS):%C{50};%magenta(METHOD):%M; %yellow(CT):%thread; %green(MSG):%msg%n</pattern><charset>UTF-8</charset></encoder><!-- 日志记录器的滚动策略,按小时 --><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><!-- 每天日志归档路径以及格式 --><fileNamePattern>${log.path}/all/${log.name}-%d{yyyy-MM-dd-HH}.gz</fileNamePattern><!--日志文件保留小时数--><maxHistory>2160</maxHistory></rollingPolicy><!-- 此日志文件全部记录,不加入Filter --></appender><!-- 时间滚动输出 level为 ERROR 日志 --><appender name="ERROR_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"><!-- 正在记录的日志文件的路径及文件名 --><file>${log.path}/${log.name}-error.log</file><!--日志文件输出格式--><encoder><pattern>%green(TIMESTAMP):%-5d{yyyy-MM-dd HH:mm:ss.SSS}; %yellow(LEVEL):%level; %magenta(CLASS):%C{50};%magenta(METHOD):%M; %yellow(CT):%thread; %green(MSG):%msg%n</pattern><charset>UTF-8</charset> <!-- 此处设置字符集 --></encoder><!-- 日志记录器的滚动策略,按小时 --><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><fileNamePattern>${log.path}/error/${log.name}-error-%d{yyyy-MM-dd-HH}.gz</fileNamePattern><!--日志文件保留小时数--><maxHistory>2160</maxHistory></rollingPolicy><!-- 此日志文件只记录ERROR级别的 --><filter class="ch.qos.logback.classic.filter.LevelFilter"><level>ERROR</level><onMatch>ACCEPT</onMatch><onMismatch>DENY</onMismatch></filter></appender><!-- 异步输出 --><appender name="ASYNC_CONSOLE" class="ch.qos.logback.classic.AsyncAppender"><!-- 不丢失日志的话,discardingThreshold必须大于0,并且应小于appender的maxQueueSize --><discardingThreshold>0</discardingThreshold><!-- 设置日志事件的最大队列长度 --><queueSize>256</queueSize><!-- 添加真正的日志appender,引用同步,将其包装为异步 --><appender-ref ref="CONSOLE"/></appender><!-- 异步输出 --><appender name="ASYNC_INFO_FILE" class="ch.qos.logback.classic.AsyncAppender"><!-- 不丢失日志的话,discardingThreshold必须大于0,并且应小于appender的maxQueueSize --><discardingThreshold>0</discardingThreshold><!-- 设置日志事件的最大队列长度 --><queueSize>256</queueSize><!-- 添加真正的日志appender,引用同步,将其包装为异步 --><appender-ref ref="INFO_FILE"/></appender><!-- 异步输出 --><appender name="ASYNC_ERROR_FILE" class="ch.qos.logback.classic.AsyncAppender"><!-- 不丢失日志的话,discardingThreshold必须大于0,并且应小于appender的maxQueueSize --><discardingThreshold>0</discardingThreshold><!-- 设置日志事件的最大队列长度 --><queueSize>256</queueSize><!-- 添加真正的日志appender,引用同步,将其包装为异步--><appender-ref ref="ERROR_FILE"/></appender><!--    &lt;!&ndash; 使用kafka启用下面配置&ndash;&gt;--><appender name="plumelog" class="com.plumelog.logback.appender.KafkaAppender"><appName>${application.name}</appName><kafkaHosts>${plumelog.kafka}</kafkaHosts></appender><root level="info"><appender-ref ref="CONSOLE"/><!--<appender-ref ref="DEBUG_FILE" />--><appender-ref ref="INFO_FILE"/><!--<appender-ref ref="WARN_FILE" />--><appender-ref ref="ERROR_FILE"/><appender-ref ref="plumelog"/></root></configuration>

从nacos中动态获取kafka信息
在这里插入图片描述
在这里插入图片描述


总结

原本想着将logback-nacos.xml也放到nacos中。这样就维护一份就可以了。但是没有成功,之后有空再试吧

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/887235.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

OpenMM的安装与使用

技术背景 OpenMM是一款基于Python开发的开源分子动力学模拟软件&#xff0c;这几年因为AlphaFold的缘故&#xff0c;使得这个软件的热度有了不少提升。并且可以使用GPU硬件加速&#xff0c;所以性能上也不赖。这里介绍一下该软件的基本安装和使用方法&#xff0c;并附带一个真空…

Linux各种并发服务器优缺点

本文旨在介绍针对“无并发C/S模型”改进的方法总结以及各种改进方法的优缺点&#xff0c;具体函数的实现并不介绍。 1. 无并发C/S模型 创建服务器流程分析&#xff1a; socket()创建服务器的监听套接字bind()将服务器给服务器的监听套接字绑定IP地址和Port端口号listen()设置…

cookie反爬----普通服务器,阿里系

目录 一.常见COOKIE反爬 普通&#xff1a; 1. 简介 2. 加密原理 二.实战案例 1. 服务器响应cookie信息 1. 逆向目标 2. 逆向分析 2. 阿里系cookie逆向 1. 逆向目标 2. 逆向分析 实战&#xff1a; 无限debugger原理 1. Function("debugger").call() 2. …

网络无人值守批量装机-cobbler

网络无人值守批量装机-cobbler 一、cobbler简介 ​ 上一节中的pxe+kickstart已经可以解决网络批量装机的问题了,但是环境配置过于复杂,而且仅针对某一个版本的操作系统进批量安装则无法满足目前复杂环境的部署需求。 ​ 本小节所讲的cobbler则是基于pxe+kickstart技术的二…

推荐一款开源电子书阅读器Koodo Reader

Koodo Reader 是一个开源的电子书阅读器&#xff0c;支持多达15种主流电子书格式&#xff0c; 内置笔记、高亮、翻译功能&#xff0c;助力高效书籍阅读和学习。 官网地址&#xff1a;https://www.koodoreader.com/zh 一、下载软件 下载地址&#xff1a;https://dl.koodoreader.…

FreeRTOS——互斥信号量

一、为什么需要互斥信号量 前面的学习中&#xff1a; 调度锁、临界段不可避免的破坏了实时性&#xff0c;还有二值信号量存在这样的隐患——“优先级翻转” 优先级翻转 简单来说&#xff0c;就是由于信号量被低优先级任务占用&#xff0c;即使遇到高优先级任务&#xff0c;它…

AIGC学习笔记(6)——AI大模型开发工程师

文章目录 AI大模型开发工程师005 OpenAI大模型案例实践1 AI 翻译助手需求分析项目起源市场价格和市场前景基于大模型的翻译软件核心功能设计 2 AI 翻译助手架构设计架构设计代码结构设计 3 AI 翻译助手核心功能文档解析文档操作PDF文档操作表格操作图片操作 Prompt封装 4 AI 翻…

程序语言语法上手题目合集

程序语言语法上手题目合集 1跑步2猜年龄3Vigenre 密码 1跑步 2.跑步 - 蓝桥云课 枚举日期&#xff0c;判断是否符合条件即可。 参考程序&#xff1a; #include<stdio.h> int y2022,m1,d1; int week6; int month[13]{0,31,28,31,30,31,30,31,31,30,31,30,31};int judg…

C#调用C++ DLL方法之P/Invoke

关于P/Invoke Platform Invoke (P/Invoke) 是 .NET 提供的一种服务&#xff0c;允许托管代码&#xff08;如 C#&#xff09;调用非托管代码&#xff08;如 C/C 编写的 DLL 函数&#xff09;。通过 P/Invoke&#xff0c;可以在 .NET 应用程序中使用现有的非托管代码库&#xff…

Centos Stream 9安装Jenkins-2.485 构建自动化项目步骤

官网&#xff1a;https://www.jenkins.io/ 1 下载 环境准备&#xff1a; 版本支持查询&#xff1a;https://pkg.jenkins.io/redhat-stable/ 安装JDK17&#xff1a;https://blog.csdn.net/qq_44870331/article/details/140784297 yum -y install epel-release wget upgradew…

青训营刷题笔记16

问题描述 小R从班级中抽取了一些同学&#xff0c;每位同学都会给出一个数字。已知在这些数字中&#xff0c;某个数字的出现次数超过了数字总数的一半。现在需要你帮助小R找到这个数字。 测试样例 样例1&#xff1a; 输入&#xff1a;array [1, 3, 8, 2, 3, 1, 3, 3, 3] 输出…

Go语言链接Redis数据库

1.使用go get命令安装go-redis/v8库&#xff1a; 我这里使用的vscode工具安装&#xff1a; go get github.com/go-redis/redis/v82.创建Redis客户端实例 使用以下Go代码连接到Redis服务器并执行命令&#xff1a; package mainimport ("context""fmt"&q…

Mybatis 核心配置文件

MyBatis的全局配置文件mybatis-config.xml&#xff0c;配置内容如下&#xff1a; properties&#xff08;属性&#xff09; settings&#xff08;全局配置参数&#xff09; typeAliases&#xff08;类型别名&#xff09; typeHandlers&#xff08;类型处理器&#xff09; obj…

09 —— Webpack搭建开发环境

搭建开发环境 —— 使用webpack-dev-server 启动Web服务&#xff0c;自动检测代码变化&#xff0c;有变化后会自动重新打包&#xff0c;热更新到网页&#xff08;代码变化后&#xff0c;直接替换变化的代码&#xff0c;自动更新网页&#xff0c;不用手动刷新网页&#xff09; …

TCP vs UDP:如何选择适合的网络传输协议?

在网络通信中&#xff0c;TCP&#xff08;Transmission Control Protocol&#xff09;和UDP&#xff08;User Datagram Protocol&#xff09;是两种非常重要的传输层协议。它们各有特点&#xff0c;适用于不同类型的应用场景。本文将详细探讨TCP和UDP协议的结构、优缺点及应用&…

网络安全之内网安全

下面给出了应对企业内网安全挑战的10种策略。这10种策略即是内网的防御策略&#xff0c;同时也是一个提高大型企业网络安全的策略。 1、注意内网安全与网络边界安全的不同 内网安全的威胁不同于网络边界的威胁。网络边界安全技术防范来自Internet上的攻击&#xff0c;主要是防…

7-2 扑克牌花色

作者 李祥 单位 湖北经济学院 给 52 张扑克牌面编号如下&#xff1a; 编号牌面编号牌面编号牌面编号牌面0♠A13♥A26♣A39♦A1♠214♥227♣240♦22♠315♥328♣341♦33♠416♥429♣442♦44♠517♥530♣543♦55♠618♥631♣644♦66♠719♥732♣745♦77♠820♥833♣846♦88♠9…

windows 中docker desktop 安装

前提条件&#xff1a; 安装wsl2 1. 下载 Docker Desktop 访问 Docker Desktop 官方下载页面。 https://www.docker.com/products/docker-desktop/ 根据你的操作系统架构&#xff08;一般为 Windows x86_64&#xff09;下载安装程序。 选择标准&#xff1a; AMD64 是行业…

初学 flutter 环境变量配置

一、jdk&#xff08;jdk11&#xff09; 1&#xff09;配置环境变量 新增&#xff1a;JAVA_HOMEC:\Program Files\Java\jdk-11 //你的jdk目录 在path新增&#xff1a;%JAVA_HOME%\bin2&#xff09;验证是否配置成功&#xff08;cmd运行命令&#xff09; java java -version …

Linux——进程间通信之管道

进程间通信之管道 文章目录 进程间通信之管道1. 进程间通信1.1 为什么要进行进程间的通信1.2 如何进行进程间的通信1.3 进程间通信的方式 2. 管道2.1 匿名管道2.1.1 系统调用pipe()2.1.2 使用匿名管道进行通信2.1.1 匿名管道四种情况2.1.2 匿名管道的五大特性2.1.3 进程池 2.2 …