oracle 数据库中udump文件中日志过多,导致系统磁盘使用率达到100%,怎么解决。
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了oracle 数据库中udump文件中日志过多,导致系统磁盘使用率达到100%,怎么解决。相关的知识,希望对你有一定的参考价值。
linux系统下oracle 数据库中udump文件中日志过多,导致系统磁盘使用率达到100%,有什么办法可以让其不打或少打udump文件下的日志,谢谢。
udump的文件是系统的事务日志,你可以写个sh脚本呢来定期清理trc文件。参考如下:
du -sk * |sort -k1rn|more 按照文件大小排序查看文件大小
cd $ORACLE_BASE/admin/$ORACLE_SID 切换到ORACLE_BASE 下面进行操作
bdump .trc 文件可以置空
adump 登陆认证信息可以删除
udump .trc文件可以置空
cd $ORACLE_HOME 切换到ORACLE_HOME 下面进行操作
network/log
监听日志文件可以置空
这些是可以清理的,so 一个定时i脚本就ok了。不过我布置在公司的环境里面,家里面电脑没有。没办法copy给你。你先自己写写看,不会再跟我说 参考技术A udump文件中的内容是系统的跟踪日志,如果系统正常没有不要看的话可以全部删掉。
想永久性不产生日期调整两个初始化参数试试disk_asynch_io和filesystemio_options。不过万一出了问题就查不到日志信息了。追问
调整两个初始化参数已经用过,还是不管用;所以最近一直在用的删除日志的办法来降低磁盘使用率,请问还有其他什么办法吗?
追答把这个TRACE_ENABLED 改为false试试。
追问好吧,后天上班时试下,不行的话继续请教你啊,先谢了哈~~~
追答你的数据库是否在归档模式下运行?如果是,那把归档日志随时拷贝出来,以免占过多的空间。
追问到时过去查下,感觉其他都正常着的,就是这个udump占的太大,70多个G的,郁闷的要死呐~~~
追答攒了多长时间的?都删掉吧。
追问现在基本就是一两天就会到达这个程度的,所以会随时去删除的。
追答晕死,怎么会这么多啊。
追问只有一两个环境是这样的,其他的都好着的,就只想赶紧找个永久的办法把这处理掉。
追答最好能找出产生大量日志的根,彻底解决它。祝你走运!
追问我今天看了下,其实那个修改参数是可以的,只是我当时没注意被删除掉的那70G日志在后台还占着资源的,最后用/usr/sbin/lsof |grep deleted 命令查出来后将其kill掉了就好了。
追答问题解决了就好。
本回答被提问者采纳批量数据文件用sqlldr导数据到oracle中
使用sqlload导文本数据到oracle中想必很多人多使用过,但是倘若有几百或者几千个数据文本,或者实时有文本数据产生。这种场景如何批量导入oracle呢,下面就来讲解下我处理的方式。
1.shell脚本LoadData.sh如下
#!/bin/bash data_dir=/home/bea/datasource/warn-log/dayflow # 文本数据目录 data_dir_bak=/home/bea/datasource/warn-log/dayflow_bak shell_dir=/home/bea/script while [ 1 ] do cd $data_dir if [ `pwd` == $data_dir ] then filelist=`ls -rt | grep dayflow.log_.` #数据文本文件名匹配 fi #echo $filelist cd $shell_dir if [ `pwd` == $shell_dir ] then for file in $filelist do date=`date "+%Y%m%d %H:%M:%S"` export LoadFileName=$data_dir"/"$file #这个地方很重要,要加载变量到环境中 echo "Time is $date ,开始导$LoadFileName数据" sqlldr user_1/[email protected]_db control=dayflow.log.ctl BAD=dayflow.log.bad echo "Time is $date ,$LoadFileName数据导入完毕" echo "开始备份文件$file" mv $LoadFileName $data_dir_bak echo "$file备份完毕" done fi done
这个地方最应该要注意的是
export LoadFileName=$data_dir"/"$file
这里将LoadFileName (导入oracle 的文本,绝对路径)这个变量 export到linux环境中,这样sqlload的控制文件就可以读到这个变量并进行导入
2.sqlldr控制文本dayflow.log.ctl
load data CHARACTERSET AL32UTF8 infile ‘$LoadFileName‘ APPEND into table user_1.BIL_FLUX_HIGH_CUR fields terminated by ‘|‘ trailing nullcols (ACCS_NBR "TRIM(:ACCS_NBR)", DATE_ID "TRIM(:DATE_ID)", TOTAL_FLUX "TRIM(:TOTAL_FLUX)", sys_date "sysdate")
请注意 infile ‘$LoadFileName‘,这里就是shell中 刚才export的变量,通过这种方式就可以以变量的形式传入文件名,那么批量导入也就是一个循环的操作。
本文出自 “改变世界” 博客,请务必保留此出处http://wongsong.blog.51cto.com/6040075/1907121
以上是关于oracle 数据库中udump文件中日志过多,导致系统磁盘使用率达到100%,怎么解决。的主要内容,如果未能解决你的问题,请参考以下文章