写这篇文章的时候,生产系统又双叒叕出事了。
首先是之前只听说过哪里哪里的Oracle挂了,这次是身边的Oralce挂了
开始写程序时没考虑到数据库会挂的情况,所以数据暂时在中间过程的临时表中,主表数据没了,这也不是事。
问题是,现场同事过了半个月才发现主表没数据...
没有申请自动备份,自己没写脚本定时备份,过了半个月的生产Oralce怎么还会留存快照,感觉就算打电话给Oralce公司也没救...
借此机会记一笔,安全的数据操作与根据快照恢复丢失的数据和Oralce用户回收站
出问题的原因:
操作一张表A时,需要更新A表所有行的最后两个字段col(n-1),col(n),出于效率考虑,当时解决方案是
step 1>insert into A_temp select col1,2,3,4...,B.col(n-1),B.col(n) from A left join B on A.dbname=B.dbname and A.dataname=B.dataname
step 2>delete from A
step 3>insert into A select * from A_temp
step 4>drop table A_temp
然后在step 2后step 3前,数据库挂了...
这么玩的原因只是因为B表太大,update A的时候太慢了,于是乎做了个临时表想着加快速度
如果发现的及时,通常几天以内发现的话,(最好还是一天以内),Oracle快照还是会记录删除之前表的情况的,获取快照方式如下:
select * from A as of timestamp (systimestamp - interval '1' hour)
interval后面两个参数类似时间操作的参数,通俗易懂就不解释太多了。上述是1个小时之前的快照,根据需要可以自己调整。可以把快照查询结果集和常规查询结果集left join后筛选出被删掉的数据,就不详细写具体SQL了
此点需要注意,尤其是当Oracle数据过多的时候,快照不会保存很久,要是太久后才发现数据丢了,这办法也救不了你,需要发现的很及时才行,而且这个“及时”因不同数据库而异,无法确定。
这里也提供一下今天的优化方案,比较简单的调整,就当抛砖引玉吧
step 1>create table B_temp as select dbname,dataname,col(n-1),col(n) from B where (dbname,dataname) in (select dbname,dataname from A)
step 2>update A set (A.col(n-1),A.col(n)) = (
select col(n-1),col(n)
from B_temp
where A.dbname=B.dbname and
A.dataname=B.dataname
)
step 3>drop table B_temp
----子查询时的sql如下
update A set (A.col(n-1),A.col(n)) = (
select B.col(n-1),B.col(n) from B where A.dbname=B.dbname and A.dataname=B.dataname
)
这样update效率就很快了。总体会比子查询update时快N倍,这里至于直接用子查询update为什么那么慢我还没搞懂,希望了解的大牛点拨点拨。
上面是第一种方式,delete掉数据的情况下,一段时间内,表空间还在时,可以使用Oralce数据库快照恢复。
下面简单介绍一下drop table的情况,毕竟还没碰到这么惨的...希望大家也不要碰到
可以通过用户回收站查看哪些表是被drop掉的...
当我们drop table A【purge】时,如果不指定purge时,系统只是将这个表重命名为BIN$开头的名称,并在数据字典中修改了相关数据,表所占用的物理空间并没有真正的回收,此时所占用的空间还是原来的表空间,当表空间不够用时,ORACLE会跟据DROPSCN#自动进行逐个清理回收站中对像所占用的空间(
select obj#, type#, flags, related, bo, purgeobj, con#
from RecycleBin$
where ts#=:1 and
to_number(bitand(flags, 16)) = 16
order by dropscn
)
step 1>select * from user_recyclebin;
step 2>flashback table A to before drop [rename to A_temp]
**此点需要注意的是,
1.开启了回收站...
2.被删表所在表空间要有足够多的空间,不然可能会根据DROPSCN被清掉
**
写在最后
实际上还是推荐写个脚本或者程序自动备份数据并压缩转存储,
一个shell一个crontab就解决了的事情,为什么要这么麻烦...
怎么通过一个shell加crontab请出门右转Baidu/Google
谨慎谨慎再谨慎,小心小心再小心
毕竟数据无价!