一、简介

官网地址

Plumelog一个简单易用的java分布式日志组件

img

二、使用方法

1. 安装

  1. 安装 redis 或者 kafka(一般公司redis足够)

  2. 安装 elasticsearch

  3. 下载安装包plumelog-server https://gitee.com/plumeorg/plumelog/releases

    好像3.0版本之后ui已经跟server包整合 只需要下载server包就行了

  4. 配置application.properties

spring.application.name=plumelog_server
spring.profiles.active=test-confidential
#服务端口
server.port=8891
spring.thymeleaf.mode=LEGACYHTML5
spring.mvc.view.prefix=classpath:/templates/
spring.mvc.view.suffix=.html
spring.mvc.static-path-pattern=/plumelog/**
spring.boot.admin.context-path=admin

#队列redis地址,model配置redis集群模式,哨兵模式用逗号隔开,队列redis不支持集群模式
plumelog.queue.redis.redisHost=127.0.0.1:6379
#如果使用redis有密码,启用下面配置
plumelog.queue.redis.redisPassWord=
plumelog.queue.redis.redisDb=11

#elasticsearch相关配置,Hosts支持携带协议,如:http、https
plumelog.es.esHosts=127.0.0.1:9200
plumelog.es.shards=5
plumelog.es.replicas=1
plumelog.es.refresh.interval=30s
#日志索引建立方式day表示按天、hour表示按照小时
plumelog.es.indexType.model=day
plumelog.es.maxShards=100000
#ES设置密码,启用下面配置
plumelog.es.userName=elastic
plumelog.es.passWord=elastic


#单次拉取日志条数
plumelog.maxSendSize=100
#拉取时间间隔,kafka不生效
plumelog.interval=100

#plumelog-ui的地址 如果不配置,报警信息里不可以点连接
plumelog.ui.url=http://demo.plumelog.com

#管理密码,手动删除日志的时候需要输入的密码
admin.password=123456

#日志保留天数,配置0或者不配置默认永久保留
admin.log.keepDays=30
#链路保留天数,配置0或者不配置默认永久保留
admin.log.trace.keepDays=30
#登录配置,配置后会有登录界面
login.username=admin
login.password=admin
  1. 启动

Windows下启动startup.bat

linux下启动 startup.sh

2. 项目使用

性能排名,log4j2>logback>log4j ,##我这里使用的logback 因为项目之前是用的logback

  • 引入依赖
<dependency>
   <groupId>com.plumelog</groupId>
   <artifactId>plumelog-logback</artifactId>
   <version>2.1.1</version>
</dependency>
  • 配置
<?xml version="1.0" encoding="UTF-8"?>

<!-- Logback configuration. See http://logback.qos.ch/manual/index.html
 表示如果配置文件发生更改,重新加载配置文件。默认为true
 在scan为true时生效,表示监测配置文件修改的时间间隔。默认为1min
 -->
<configuration scan="true" scanPeriod="10 seconds">
    <jmxConfigurator/>
    <!--定义日志文件的存储地址和前缀名-->
    <property name="LOG_HOME" value="logs"/>
    <!-- 一般信息按照每天生成日志文件 -->
    <appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <File>${LOG_HOME}/stdout.log</File>
        <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
            <!-- 每天一归档 -->
            <fileNamePattern>${LOG_HOME}/stdout-%d{yyyyMMdd}.log.%i</fileNamePattern>
            <!-- 单个日志文件最多100MB, 30天的日志周期,最大不能超过5GB -->
            <maxFileSize>100MB</maxFileSize>
            <maxHistory>30</maxHistory>
            <totalSizeCap>5GB</totalSizeCap>
        </rollingPolicy>
        <encoder>
            <!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符-->
            <Pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{36} -%msg%n</Pattern>
        </encoder>
    </appender>

    <!--错误信息按照每天生成日志文件-->
    <appender name="ERROR_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
            <level>ERROR</level>
        </filter>
        <File>${LOG_HOME}/error.log</File>
        <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
            <!-- 每天一归档 -->
            <fileNamePattern>${LOG_HOME}/error-%d{yyyyMMdd}.log.%i</fileNamePattern>
            <!-- 单个日志文件最多100MB, 30天的日志周期,最大不能超过2GB -->
            <maxFileSize>100MB</maxFileSize>
            <maxHistory>30</maxHistory>
            <totalSizeCap>2GB</totalSizeCap>
        </rollingPolicy>
        <encoder>
            <!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符-->
            <Pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{36} -%msg%n</Pattern>
        </encoder>
    </appender>

    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符-->
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n</pattern>
        </encoder>
        <target>System.out</target>
    </appender>

    <!--!!!!!!!!!!!!plumelog的重点是这里!!!!!!!!!!!!!!!!!!!!!!!-->
    <appender name="PLUME_LOG" class="com.plumelog.logback.appender.RedisAppender">
        <appName>PLUME_DEMO</appName>
        <redisHost>127.0.0.1</redisHost>
        <redisAuth>123456</redisAuth>
        <redisPort>6379</redisPort>
    </appender>

    <!-- 日志输出级别<appender-ref ref="STDOUT"/>-->
    <root level="INFO">
        <appender-ref ref="STDOUT"/>
        <appender-ref ref="INFO_FILE"/>
        <appender-ref ref="ERROR_FILE"/>
        <!--appender PLUME_LOG-->
        <appender-ref ref="PLUME_LOG"/>
    </root>
</configuration>
Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐