深入分析Oracle数据库日志文件(1)

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深入分析Oracle数据库日志文件(1)相关的知识,希望对你有一定的参考价值。

参考技术A   作为Oracle DBA 我们有时候需要追踪数据误删除或用户的恶意操作情况 此时我们不仅需要查出执行这些操作的数据库账号 还需要知道操作是由哪台客户端(IP地址等)发出的 针对这些问题 一个最有效实用而又低成本的方法就是分析Oracle数据库的日志文件 本文将就Oracle日志分析技术做深入探讨      一 如何分析即LogMiner解释   从目前来看 分析Oracle日志的唯一方法就是使用Oracle公司提供的LogMiner来进行 Oracle数据库的所有更改都记录在日志中 但是原始的日志信息我们根本无法看懂 而LogMiner就是让我们看懂日志信息的工具 从这一点上看 它和tkprof差不多 一个是用来分析日志信息 一个则是格式化跟踪文件 通过对日志的分析我们可以实现下面的目的      查明数据库的逻辑更改      侦察并更正用户的误操作      执行事后审计      执行变化分析     不仅如此 日志中记录的信息还包括 数据库的更改历史 更改类型(INSERT UPDATE DELETE DDL等) 更改对应的SCN号 以及执行这些操作的用户信息等 LogMiner在分析日志时 将重构等价的SQL语句和UNDO语句(分别记录在V$LOGMNR_CONTENTS视图的SQL_REDO和SQL_UNDO中) 这里需要注意的是等价语句 而并非原始SQL语句 例如 我们最初执行的是 delete a where c <> cyx ; 而LogMiner重构的是等价的 条DELETE语句 所以我们应该意识到V$LOGMNR_CONTENTS视图中显示的并非是原版的现实 从数据库角度来讲这是很容易理解的 它记录的是元操作 因为同样是 delete a where c <> cyx ; 语句 在不同的环境中 实际删除的记录数可能各不相同 因此记录这样的语句实际上并没有什么实际意义 LogMiner重构的是在实际情况下转化成元操作的多个单条语句     另外由于Oracle重做日志中记录的并非原始的对象(如表以及其中的列)名称 而只是它们在Oracle数据库中的内部编号(对于表来说是它们在数据库中的对象ID 而对于表中的列来说 对应的则是该列在表中的排列序号 COL COL 等) 因此为了使LogMiner重构出的SQL语句易于识别 我们需要将这些编号转化成相应的名称 这就需要用到数据字典(也就说LogMiner本身是可以不用数据字典的 详见下面的分析过程) LogMiner利用DBMS_LOGMNR_D BUILD()过程来提取数据字典信息     LogMiner包含两个PL/SQL包和几个视图      dbms_logmnr_d包 这个包只包括一个用于提取数据字典信息的过程 即dbms_logmnr_d build()过程      dbms_logmnr包 它有三个过程     add_logfile(name varchar options number) 用来添加/删除用于分析的日志文件     start_logmnr(start_scn number end_scn number start_time number end_time number dictfilename varchar options number) 用来开启日志分析 同时确定分析的时间/SCN窗口以及确认是否使用提取出来的数据字典信息     end_logmnr() 用来终止分析会话 它将回收LogMiner所占用的内存     与LogMiner相关的数据字典      v$logmnr_dictionary LogMiner可能使用的数据字典信息 因logmnr可以有多个字典文件 该视图用于显示这方面信息      v$logmnr_parameters 当前LogMiner所设定的参数信息      v$logmnr_logs 当前用于分析的日志列表      v$logmnr_contents 日志分析结果      二 Oracle i LogMiner的增强    支持更多数据/存储类型 链接/迁移行 CLUSTER表操作 DIRECT PATH插入以及DDL操作 在V$LOGMNR_CONTENTS的SQL_REDO中可以看到DDL操作的原句(CREATE USER除外 其中的密码将以加密的形式出现 而不是原始密码) 如果TX_AUDITING初始化参数设为TRUE 则所有操作的数据库账号将被记录      提取和使用数据字典的选项 现在数据字典不仅可以提取到一个外部文件中 还可以直接提取到重做日志流中 它在日志流中提供了操作当时的数据字典快照 这样就可以实现离线分析      允许对DML操作按事务进行分组 可以在START_LOGMNR()中设置MITTED_DATA_ONLY选项 实现对DML操作的分组 这样将按SCN的顺序返回已经提交的事务      支持SCHEMA的变化 在数据库打开的状态下 如果使用了LogMiner的DDL_DICT_TRACKING选项 Oracle i的LogMiner将自动对比最初的日志流和当前系统的数据字典 并返回正确的DDL语句 并且会自动侦察并标记当前数据字典和最初日志流之间的差别 这样即使最初日志流中所涉及的表已经被更改或者根本已经不存在 LogMiner同样会返回正确的DDL语句      在日志中记录更多列信息的能力 例如对于UPDATE操作不仅会记录被更新行的情况 还可以捕捉更多前影信息      支持基于数值的查询 Oracle i LogMiner在支持原有基于元数据(操作 对象等)查询的基础上 开始支持基于实际涉及到的数据的查询 例如涉及一个工资表 现在我们可以很容易地查出员工工资由 变成 的原始更新语句 而在之前我们只能选出所有的更新语句      三 Oracle i/ i的日志分析过程   LogMiner只要在实例起来的情况下都可以运行 LogMiner使用一个字典文件来实现Oracle内部对象名称的转换 如果没有这个字典文件 则直接显示内部对象编号 例如我们执行下面的语句     delete from C A where C = gototop and ROWID = AAABg AAFAAABQaAAH ;  如果没有字典文件 LogMiner分析出来的结果将是   delete from UNKNOWN OBJ# where COL = HEXTORAW( d a d ae ) and ROWID   = AAABg AAFAAABQaAAH ;     如果想要使用字典文件 数据库至少应该出于MOUNT状态 然后执行dbms_logmnr_d build过程将数据字典信息提取到一个外部文件中 下面是具体分析步骤      确认设置了初始化参数 UTL_FILE_DIR 并确认Oracle对改目录拥有读写权限 然后启动实例 示例中UTL_FILE_DIR参数如下     SQL> show parameter utl  NAME             TYPE    value     utl_file_dir         string   /data /cyx/logmnr     这个目录主要用于存放dbms_logmnr_d build过程所产生的字典信息文件 如果不用这个 则可以不设 也就跳过下面一步      生成字典信息文件     exec dbms_logmnr_d build(dictionary_filename =>   dic ora dictionary_location => /data /cyx/logmnr );     其中dictionary_location指的是字典信息文件的存放位置 它必须完全匹配UTL_FILE_DIR的值 例如 假设UTL_FILE_DIR=/data /cyx/logmnr/ 则上面这条语句会出错 只因为UTL_FILE_DIR后面多了一个 / 而在很多其它地方对这一 / 是不敏感的     dictionary_filename指的是放于字典信息文件的名字 可以任意取 当然我们也可以不明确写出这两个选项 即写成     exec dbms_logmnr_d build( dic ora /data /cyx/logmnr );     如果你第一步的参数没有设 而直接开始这一步 Oracle会报下面的错误     ERROR at line :  ORA : initialization parameter utl_file_dir is not set  ORA : at SYS DBMS_LOGMNR_D line   ORA : at SYS DBMS_LOGMNR_D line   ORA : at line      需要注意的是 在oracle for Windows版中会出现以下错误      : : SQL> execute dbms_logmnr_d build( oradict ora c:\\oracle\\admin\\ora\\log );  BEGIN dbms_logmnr_d build( oradict ora c:\\oracle\\admin\\ora\\log ); END;  *  ERROR at line :  ORA : Subscript outside of limit  ORA : at SYS DBMS_LOGMNR_D line   ORA : at line      解决办法     编辑 $ORACLE_HOME/rdbms/admindbmslmd sql 文件 把其中的  TYPE col_desc_array IS VARRAY( ) OF col_description;  改成   TYPE col_desc_array IS VARRAY( ) OF col_description;     保存文件 然后执行一遍这个脚本      : : SQL> @c:\\oracle\\ora \\rdbms\\admin\\dbmslmd sql  Package created   Package body created   No errors   Grant succeeded      然后重新编译DBMS_LOGMNR_D包      : : SQL> alter package DBMS_LOGMNR_D pile body;  Package body altered   之后重新执行dbms_logmnr_d build即可    : : SQL> execute dbms_logmnr_d build( oradict ora c:\\oracle\\admin\\ora\\log );  PL/SQL procedure successfully pleted       添加需要分析的日志文件     SQL>exec dbms_logmnr add_logfile( logfilename=>   /data /cyx/rac arch/arch_ _ arc options=>dbms_logmnr new);  PL/SQL procedure successfully pleted      这里的options选项有三个参数可以用     NEW 表示创建一个新的日志文件列表     ADDFILE 表示向这个列表中添加日志文件 如下面的例子     REMOV lishixinzhi/Article/program/Oracle/201311/18949

深入理解Linux文件系统与日志分析

@TOC

深入理解Linux文件系统与日志分析

inode与block

inode和block概述

  • 文件数据包括元信息与实际数据

  • 文件存储在硬盘上,硬盘最小存储单位是"扇区”,每个扇区存储512字节

  • block(块)

    • 连续的八个扇区组成一个block(4K)
    • 是文件存取的最小单位,操作系统读取硬盘的时候,是一次性连续读取多个扇区,即一个块一个块的读取的。
  • inode(索引节点)

    • 中文译名为“索引节点”,也叫i节点
    • 用于存储文件元信息

inode的内容

  • inode包含文件的元信息(==不包含文件名==)

    • 文件的字节数
    • 文件拥有者的User ID
    • 文件的Group ID
    • 文件的读、写、执行权限
    • 文件的时间戳
    • ……
  • 用stat命令可以查看某个文件的inode信息

    • 例:stat aa.txt
    • Acess、atime(accesstime):当使用这个文件的时候就会更新这个时间

    • Modify、mtime (modification time) :当修改文件的内容数据的时候,就会更新这个时间,而更改权限或者属性,mtime不会改变,这就是和ctime的区别。

    • Change、ctime (status time):当修改文件的权限或者属性的时候,就会更新这个时间,ctime并不是create time,更像是change time,只有当更新文件的属性或者权限的时候才会更新这个时间,但是更改内容的话是不会更新这个时间。
  • 目录文件的结构

    • 目录也是一种文件

    • 目录文件的结构

    ==文件名 -- inode号码==(一行称为一个目录项)

  • 每个inode都有一个号码,操作系统用inode号码来识别不同的文件

  • Linux系统内部不使用文件名,而使用inode号码来识别文件

  • 对于用户,文件名只是inode号码便于识别的别称

inode的号码

  • 用户通过文件名打开文件时,系统内部的过程
    1. 系统先根据文件名去查找它对应的inode号码。
    2. 通过inode号码,获取inode信息
    3. 根据inode信息,看该用户是否具有访问这个文件的权限:如果有,就指向相对应的数据block,并读取数据。
  • 查看inode号码的方法
    • ls -i命令:查看文件名对应的inode号码
    • stat命令:查看文件inode信息中的inode号码

文件存储小结

  • 硬盘分区后的结构

  • 访问文件的简单流程

inode的大小

  • inode也会消耗硬盘空间

    • 每个inode的大小
    • —般是128字节或256字节
  • 格式化文件系统时确定inode的总数

  • 使用df -i命令可以查看每个硬盘分区的inode总数和已经使用的数量

  • 按inode号删除文件

    find ./ -inum 52305110 -exec rm -i {} \\;

    find ./ -inum 52305110 -delect

    find ./ -inum 52305110 | xargs rm -rf

链接文件

  • 为文件或目录建立链接文件

  • 链接文件分类

    软链接(又称符号链接) 硬链接
    删除原始文件后 失效 仍旧可用
    使用范围 适用于文件或目录 只可用于文件
    保存位置 与原始文件可以位于不同的文件系统中 必须与原始文件在同一个文件按系统(如同一个Linux分区)内
    • 硬链接

    ln 源文件 目标位置

    • 软链接

    ln [-s] 源文件或目录… 链接文件或目标位置

恢复误删除的文件

案例1:inode节点耗尽故障

  • 使用fdisk创建分区/dev/sdb1,分区大小30M即可

    fdisk /dev/sdb

    mkfs.ext4 /dev/sdb1 //ext4文件系统在df -i显示时能最准确的显示出inode号的数量

    mkdir /test

    mount /dev/sdb1 /mnt

    df -i //查看inode数量,下一步循环操作要使用

  • 模拟inode节点耗尽故障

    for ((i=1;i&lt;=7680;i++));do touch /test/file$i;done或者touch {1..7680}.txt

    df -i

    df -hT

  • 删除文件恢复

    rm -rf /test/*

    df -i

    df -hT

案例2:恢复EXT类型的文件

  • 编译安装extundelete软件包

    • 使用fdisk创建分区/dev/ sdc1,格式化ext3文件系统

    fdisk /dev/sdc

    partprobe /dev/sdc //刷新磁盘状态

    mkfs.ext3 /dev/sdc1

    mkdir /test

    mount /dev/sdc1 /test

    df -hT

    • 安装依赖包

    yum -y install e2fsprogs-devel e2fsprogs-libs

    • 编译安装extundelete

    cd /test

    wget http://nchc.dl.sourceforge.net/project/extundelete/extundelete/0.2.4/extundelete-0.2.4.tar.bz2

    tar jxvf extundelete-0.2.4.tar.bz2

    cd extundelete-0.2.4/

    ./configure --prefix=/usr/local/extundelete && make && make install //指定安装目录

    ln -s /usr/local/extundelete/bin/* /usr/bin/ //创建软链接使系统能够识别命令

    • 模拟删除并执行恢复操作

    cd /test

    echo a&gt;a

    echo a&gt;b

    echo a&gt;c

    echo a&gt;d

    ls

    extundelete /dev/sdc1 --inode 2 //查看文件系统/dev/sdc1下存在哪些文件,i节点是从2开始的,2代表该文件系统最开始的目录。

    rm -rf a b

    extundelete /dev/sdc1 --inode 2 //刚才被删除的文件带上了delect的标记

    cd ~

    umount /test //解挂防止新写入的文件覆盖被删除文件的inode号

    extundelete /dev/sdc1 --restore-all //恢复/dev/sdc1文件系统下的所有内容,在当前目录下会出现一个RECOVERED_FILES/目录,里面保存了已经恢复的文件

    ls RECOVERED_FILES/

案例3:恢复XFS类型的文件(预先备份)

  • xfsdump命令格式

    xfsdump -f 备份存放位置 要备份的路径或设备文件

  • xfsdump备份级别(默认为0)

    • 0:完全备份(默认级别)

    • 1-9:增量备份
  • xfsdump常用选项:

    • -f:指定备份文件目录
    • -L:指定标签 session label
    • -M:指定设备标签 media label
    • -s:备份单个文件,后面不能直接跟路径
  • xfsrestore命令格式

    xfsrestore -f 恢复文件的位置 存放恢复后文件的位置

  • xfsdump使用限制:

    1. 只能备份己挂载的文件系统

    2. 必须使用root的权限才能操作

    3. 只能备份XFS文件系统

    4. 备份后的数据只能让xfsrestore解析

    5. 不能备份两个具有相同UUID的文件系统(可用blkid命令查看)

模拟删除并执行恢复操作

  • 使用fdisk创建分区/dev/sdb1,格式化xfs文件系统

    fdisk /dev/sdb

    partprobe /dev/sdb

    mkfs -t xfs /dev/sdb

    mkdir /data

    mount /dev/sdb1 /data/

    cd /data

    cp /etc/passwd ./

    mkdir test

    touch test/a

  • 使用xfsdump命令备份整个分区

    rpm -qa | grep xfsdump

    yum install -y xfsdump

    xfsdump -f /opt/dump_sdb1 /dev/sdb1 [-L dump_sdb1 -M sdb1] //可以按提示输入

  • 模拟数据丢失并使用xfsrestore命令恢复文件

    cd /data/

    rm -rf ./*

    ls

    xfsrestore -f /opt/dump_sdb1 /data/

分析日志文件

日志文件

  • 日志的功能

    • 用于记录系统、程序运行中发生的各种事件
    • 通过阅读日志,有助于诊断和解决系统故障
  • 日志文件的分类

    • 内核及系统日志
    • 由系统服务rsyslog统一进行管理,日志格式基本相似
    • 软件包:rsyslog-7.4.7-16.el7.x86_64
    • 主要程序:/sbin/rsyslogd
    • 主配置文件/etc/rsyslog.conf
      • GLOBAL DIRECTIVES全局配置
      • MODULES模块
      • RULES规则
    • 用户日志
    • 记录系统用户登录及退出系统的相关信息
    • 程序日志
    • 由各种应用程序独立管理的日志文件,记录格式不统一
  • 日志保存位置

    • 默认位于:==/var/log==目录下
  • 主要日志文件介绍

    日志类型 日志路径
    内核及公共消息日志 ==/var/log/messages==
    计划任务日志 /var/log/cron
    系统引导日志 /var/log/dmesg
    邮件系统日志 /var/log/maillog
    用户登录日志 /var/log/lastlog secure wtmp 和 /var/run/btmp
  • 常见的一些日志文件

    • 内核及公共消息日志
    • ==/var/log/messages==:记录Linux内核消息及各种应用程序的公共日志信息,包括启动、IO错误、网络错误、程序故障等。对于未使用独立日志文件的应用程序或服务,一般都可以从该日志文件中获得相关的事件记录信息。
    • 计划任务日志
    • /var/log/cron:记录crond计划任务产生的事件信息。
    • 系统引导日志
    • /var/log/dmesg:记录Linux系统在引导过程中的各种事件信息。
    • 邮件系统日志
    • /var/log/maillog:记录进入或发出系统的电子邮件活动。

用户日志分析

  • 用户登录日志

    • ==/var/log/secure==:记录用户认证相关的安全事件信息。

    • /var/log/lastlog:记录每个用户最近的登录事件。二进制格式

    • /var/log/wtmp:记录每个用户登录、注销及系统启动和停机事件。二进制格式

    • /var/run/btmp:记录失败的、错误的登录尝试及验证事件。二进制格式
    • /var/log/utmp:当前登录的每个用户的详细信息。二进制格式
  • 分析工具

    • users、who、w、last、lastb
    • last命令用于查询成功登录到系统的用户记录
    • lastb命令用于查询登陆失败的用户记录

主配置文件rsyslog.conf

  • 查看rsyslog.conf配置文件,规则(RULES)配置格式(【设备.级别 动作】)

    vim /etc/rsyslog.conf

    *.info;mail.none;authpriv.none;cron.none /var/log/messages

  • 设备字段说明

    字段 说明
    auth 用户认证时产生的日志
    authpriv ssh,ftp等登录信息的验证信息
    daemon 一些守护进程产生的日志
    ftp FTP产生的日志
    lpr 打印相关活动
    mark rsyslog服务内部的信息,时间标识
    news 网络新闻传输协议(nntp)产生的消息
    syslog 系统日志
    uucp Unix-to-Unix Copy 两个unix之间的相关通信
    console 针对系统控制台的消息
    cron 系统执行定时任务产生的日志
    kern 系统内核日志
    ==local0~local7== 自定义程序使用
    mail 邮件日志
    user 用户进程
  • Linux系统内核日志消息的优先级别(数字等级越小,优先级越高,消息越重要)

    • 0:EMERG(紧急):会导致主机系统不可用的情况,如系统崩溃。

    • 1:ALERT(警告):必须马上采取措施解决的问题,如数据库被破坏

    • 2:CRIT(严重):比较严重的情况。如硬盘错误,可能会阻碍程序的部分功能

    • 3:ERR(错误):运行出现错误。不是非常紧急,尽快修复的

    • 4:WARNING(提醒):可能影响系统功能,需要提醒用户的重要事件。不是错误,如磁盘空间用了85%

    • 5:NOTICE(注意):不会影响正常功能,但是需要注意的事件。无需处理

    • 6:INFO(信息):一般信息。正常的系统信息

    • 7:DEBUG(调试):程序或系统调试信息等。包含详细开发的信息,调试程序时使用。

    none:没有优先级,不记录任何日志信息

  • 举例:

    • mail.info /var/log/maillog:比指定级别更高的日志级别,包括指定级别自身,保存到/var/log/maillog中

    • mail.=info /var/log/maillog:明确指定日志级别为info,保存至/var/log/maillog

    • mail.!info /var/log/maillog:除了指定的日志级别(info)所有日志级别,保存至/var/log/maillog

    • *.info /var/log/maillog:所有facility的info级别,保存至/var/log/maillog

    • mail.* /var/log/maillog:mail的有日志级别信息,都保存至/var/log/maillog

    • mail.notice;news.info /var/log/maillog:mail的notice以上的日志级别和news的info以上的级别保存至/var/log/maillog

    • mail,news.crit -/var/log/maillog:mail和news的crit以上的日志级别保存至/var/log/maillog中:"-"代表异步模式

程序日志分析

  • 由相应的应用程序独立进行管理

    • Web服务:/var/log/httpd/(/etc/httpd/路径下有该路径的软链接,由/etc/httpd/conf/httpd.conf文件的配置决定)

    • access_log //记录客户访问事件
    • error_log //记录错误事件

    • 代理服务:/var/log/squid/

    • access.log、cache.log

    • 分析工具

    • 文本查看、grep过滤搜索、Webmin管理套件中查看

    • awk、sed等文本过滤、格式化编辑工具

    • Webalizer、Awstats等专用日志分析工具

日志管理策略

  • 及时作好备份和归 档

  • 延长日志保存期限

  • 控制日志访问权限(640)

    • 日志中可能会包含各类敏感信息,如账户、口令等
  • 集中管理日志

    • 将服务器的日志文件发到统一的日志文件服务器
  • 便于日志信息的统一收集、整理和分析
    • 杜绝日志信息的意外丢失、恶意篡改或删除

配置日志服务器手机日志

  • 发送服务器:客户端192.168.80.20(主机名更改为send)

  • 收集服务器:服务端192.168.80.30(主机名更改为receive)

  • 关闭服务器和客户端防火墙、SELinux

    setenforce 0

    systemctl stop firewalld

    systemctl disable firewalld

  • ==修改客户端配置文件,并启动服务==

    vim /etc/rsyslog.conf

    #### MODULES ####

    $ModLoad imudp

    $UDPServerRun 514

    $ModLoad imtcp

    $InputTCPServerRun 514

    将以上四行注释取消

    #### RULES ####

    $template myFormat, "%timestamp% %hostname% %syslogseverity-text% %syslogtag% %msg%\\n"

    $ActionFileDefaultTemplate myFormat //调用格式

    *.info;mail.none;authpriv.none;cron.none @@192.168.20.30:514 //以UDP发送至192.168.20.30的514端口

    添加以上内容

    • 各字段释义
    • %timestamp%:时间戳
    • %fromhost-ip%:接收的信息来自于哪个节点的IP
    • %hostname%:主机名
    • %syslogseverity-text%:日志等级
    • %syslogtag%:服务进程
    • %msg%:日志内容
    • 接收方IP前面一个@表示TCP传输,两个@表示UDP传输

    systemctl restart rsyslog

    netstat -anutp | grep 514 //查看重启后的服务

  • ==修改服务端配置文件,并启动服务==

    vim /etc/rsyslog.conf

    将下面四行前的注释取消掉

    $ModLoad imudp

    $UDPServerRun 514

    $ModLoad imtcp

    $InputTCPserverRun 514

    添加以下内容

    $AllowedSender tcp, 192.168.80.0/24 //允许192.168.80.0 网段内的主机以tcp协议来传输

    $template Remote, "/data/log/%fromhost-ip%/%fromhost-ip%_%$YEAR$-%$MONTH$-%$DAY%.log" //定义模板,接受日志文件路径,区分了不同主机的日志

    :fromhost-ip, !isequal, "127.0.0.1" ?Remote //过滤掉server本机的日志

  • 在服务端创建/data/log目录,以接受大量日志信息,配置文件中的路径应当与该路径一致

    mkdir -p /data/log

    systemctl restart rsyslog //新建完存储文件夹再重启服务

  • 验证

    cd /data/log/

    ls

    tree ./ //以树形结构查看本文件夹,无tree服务则yum安装

    tail -f 192.168.80.20_2021_11_24.log //接收端跟踪日志文件

    logger "hello world" //发送端的客户端的终端命令行输入或者重启一个服务

    systemctl restart network

    此时在接收端查看日志文件是否在同步更新显示

journalctl日志管理工具(CentOS 7)

  • 查看所有日志(默认情况下,只保存本次启动的日志)

    journalctl

    journalctl -r //-r表示倒序,从尾部看(推荐)

  • 查看内核日志(不显示应用日志)

    journalctl -k

  • 查看系统本次启动的日志

    journalctl -b [-0]

  • 查看上一次启动的日志(需更改设置,如上次系统崩溃,需要查看日志时,就要看上一次的启动日志)

    journalctl -b -1

  • 显示尾部指定行数的日志

    查看的是/var/log/messages的日志,但是格式上有所调整,如主机名格式不一样而已

    journalctl -n 20 [-f] //-f实现跟踪

  • 查看某个服务的日志

    journalctl -u nginx.service [-f]

  • 查看指定进程的日志

    journalctl -u _PID=1

  • 查看指定用户的日志

    journalctl _UID=0 --since today

    journalctl -xe //-x是目录(catalog)的意思,在报错的信息下会,附加解决问题的网址;-e pager-end从末尾看

以上是关于深入分析Oracle数据库日志文件(1)的主要内容,如果未能解决你的问题,请参考以下文章

Oracle重做日志管理与深入解析_超越OCP精通Oracle视频课程培训14

Oracle数据库备份恢复高级培训视频课程(案例实战深入全面)

怎么分析 oracle 归档日志

如何分析oracle trace文件

01.Oracle存储结构深入分析与管理的课程内容介绍

oracle里怎么对sql查询的日志进行查看