oracle 数据库中udump文件中日志过多,导致系统磁盘使用率达到100%,怎么解决。

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了oracle 数据库中udump文件中日志过多,导致系统磁盘使用率达到100%,怎么解决。相关的知识,希望对你有一定的参考价值。

linux系统下oracle 数据库中udump文件中日志过多,导致系统磁盘使用率达到100%,有什么办法可以让其不打或少打udump文件下的日志,谢谢。

udump的文件是系统的事务日志,你可以写个sh脚本呢来定期清理trc文件。
参考如下:

du -sk * |sort -k1rn|more 按照文件大小排序查看文件大小

cd $ORACLE_BASE/admin/$ORACLE_SID 切换到ORACLE_BASE 下面进行操作
bdump .trc 文件可以置空
adump 登陆认证信息可以删除
udump .trc文件可以置空

cd $ORACLE_HOME 切换到ORACLE_HOME 下面进行操作

network/log

监听日志文件可以置空

这些是可以清理的,so 一个定时i脚本就ok了。不过我布置在公司的环境里面,家里面电脑没有。没办法copy给你。你先自己写写看,不会再跟我说
参考技术A udump文件中的内容是系统的跟踪日志,如果系统正常没有不要看的话可以全部删掉。
想永久性不产生日期调整两个初始化参数试试disk_asynch_io和filesystemio_options。不过万一出了问题就查不到日志信息了。追问

调整两个初始化参数已经用过,还是不管用;所以最近一直在用的删除日志的办法来降低磁盘使用率,请问还有其他什么办法吗?

追答

把这个TRACE_ENABLED 改为false试试。

追问

好吧,后天上班时试下,不行的话继续请教你啊,先谢了哈~~~

追答

你的数据库是否在归档模式下运行?如果是,那把归档日志随时拷贝出来,以免占过多的空间。

追问

到时过去查下,感觉其他都正常着的,就是这个udump占的太大,70多个G的,郁闷的要死呐~~~

追答

攒了多长时间的?都删掉吧。

追问

现在基本就是一两天就会到达这个程度的,所以会随时去删除的。

追答

晕死,怎么会这么多啊。

追问

只有一两个环境是这样的,其他的都好着的,就只想赶紧找个永久的办法把这处理掉。

追答

最好能找出产生大量日志的根,彻底解决它。祝你走运!

追问

我今天看了下,其实那个修改参数是可以的,只是我当时没注意被删除掉的那70G日志在后台还占着资源的,最后用/usr/sbin/lsof |grep deleted 命令查出来后将其kill掉了就好了。

追答

问题解决了就好。

本回答被提问者采纳

批量数据文件用sqlldr导数据到oracle中

    使用sqlload导文本数据到oracle中想必很多人多使用过,但是倘若有几百或者几千个数据文本,或者实时有文本数据产生。这种场景如何批量导入oracle呢,下面就来讲解下我处理的方式。

    1.shell脚本LoadData.sh如下

#!/bin/bash
data_dir=/home/bea/datasource/warn-log/dayflow  # 文本数据目录
data_dir_bak=/home/bea/datasource/warn-log/dayflow_bak
shell_dir=/home/bea/script
while [ 1 ]
do
cd $data_dir
if [ `pwd` == $data_dir ]
then
   filelist=`ls -rt | grep dayflow.log_.`  #数据文本文件名匹配
fi

#echo $filelist
cd $shell_dir
if [ `pwd` == $shell_dir ]
then
   for file in $filelist
   do
       date=`date "+%Y%m%d %H:%M:%S"`
       export LoadFileName=$data_dir"/"$file    #这个地方很重要,要加载变量到环境中
       echo "Time is $date ,开始导$LoadFileName数据"
       sqlldr user_1/[email protected]_db control=dayflow.log.ctl BAD=dayflow.log.bad
       echo "Time is $date ,$LoadFileName数据导入完毕"
       
       echo "开始备份文件$file"
       mv $LoadFileName $data_dir_bak
       echo "$file备份完毕"
   done
fi
done

这个地方最应该要注意的是

export LoadFileName=$data_dir"/"$file

这里将LoadFileName (导入oracle 的文本,绝对路径)这个变量 export到linux环境中,这样sqlload的控制文件就可以读到这个变量并进行导入

2.sqlldr控制文本dayflow.log.ctl

load data
CHARACTERSET AL32UTF8
infile ‘$LoadFileName‘
APPEND into table user_1.BIL_FLUX_HIGH_CUR
fields terminated by ‘|‘
trailing nullcols
(ACCS_NBR "TRIM(:ACCS_NBR)",
DATE_ID "TRIM(:DATE_ID)",
TOTAL_FLUX "TRIM(:TOTAL_FLUX)",
sys_date "sysdate")

请注意 infile ‘$LoadFileName‘,这里就是shell中 刚才export的变量,通过这种方式就可以以变量的形式传入文件名,那么批量导入也就是一个循环的操作。

本文出自 “改变世界” 博客,请务必保留此出处http://wongsong.blog.51cto.com/6040075/1907121

以上是关于oracle 数据库中udump文件中日志过多,导致系统磁盘使用率达到100%,怎么解决。的主要内容,如果未能解决你的问题,请参考以下文章

Oracle重做undo表空间

oracle 执行跟踪

oracle数据库备份

批量数据文件用sqlldr导数据到oracle中

批量数据文件用sqlldr导数据到oracle中

oracle归档日志老满怎么办