linux中shell指令碼匯出備份mysql資料庫

來源:互聯網
上載者:User

最近公司有個需求需要從mysql資料庫中查詢狀態為60的資料並匯出。

執行個體代碼如下

#!/bin/bash
 
dir="/cache1" ##要存到匯出資料的目錄名
open="open" ##匯出資料的檔案名稱
open_dir="${open}.$(date +%Y%m%d)" ##匯出資料的檔案名稱,按日期區分
db="/opt/trustedm/mysql/current/bin/mysql -uroot -pmv_XQ_mv" ##資料庫連接語句
$db -Dmed_001  -e "select receiverEmail from edmLetterArchive WHERE status = 70 or status = 65;" >> $dir/open.txt##查詢出資料並匯出
cat $dir/open.txt| awk  '{print $1}' | sort |uniq >> $dir/$open_dir ##對匯出的檔案進行排序和去重
rm $dir/open.txt -rf

執行個體代碼進行升級

1.建立指令碼

      該Shell指令碼可以自動備份資料庫。只要複製粘貼本指令碼到文字編輯器中,輸入資料庫使用者名稱、密碼以及資料庫名即可。這裡我們備份資料庫使用的是mysqldump 命令。後面會對每行指令碼命令進行說明。
(1)在你想要放置備份檔案的目錄下建立兩個目錄“backup”和“oldbackup”,這裡使用的是根目錄

#mkdir /backup
#mkdir /oldbackup
(2)建立並編輯檔案“backup.sh”

#!bin/bash
cd /backup
echo “You are In Backup Directory”
mv backup* /oldbackup
echo “Old Databases are Moved to oldbackup folder”
Now=$(date +”%d-%m-%Y--%H:%M:%S”)
File=backup-$Now.sql
mysqldump –u user-name  –p ‘password’ database-name > $File
echo “Your Database Backup Successfully Completed”
(3)設定 backup.sh 指令檔的可執行許可

# chmod +x /backup/backup.sh
(4)指令碼執行

#./backup.sh
      指令碼運行結束後會得到以下輸出:

root@Server1:/download#./backup.sh
You areinDownload Directory
Old Backup DatabaseisMoved to oldbackup folder
database backup successful completed
root@Server1:/download#
      註:首次執行該指令碼會有一個“no such file”的提示資訊,這是由於舊備份檔案還不存在。只要再次執行該指令碼就沒有問題了,這個問題已經不存在了。

2.指令碼說明

      在第8行命令中,在mysqldump命令後要輸入自己的資料庫使用者名稱、密碼及資料庫名。
      執行該指令碼,首先會進入 /backup 目錄(要與自己建立的目錄保持一致),然後該指令碼會把原有的舊Database Backup移動到 /oldbackup 檔案夾中,接著根據系統的日期及時間產生一個檔案名稱,在最後 mysqldump 命令會產生一個“.sql”格式的Database Backup檔案。

3.使用cron制定備份計劃

      使用Cron可以定時執行該指令碼,備份會自動完成。使用 crontab 命令編輯cron 執行的計劃任務。

#crontab –e
      在編輯器中輸入一下代碼,儲存退出即可:

013* * * * /backup/backup.sh

例子,下面這個更專業

思路

擷取mysql伺服器所有資料庫名稱,過濾掉不需要備份的資料庫
通過mysqldump來for迴圈匯出所有的資料庫的sql檔案
用zip加密壓縮所有的sql檔案
定期進行資料清理工作

shell代碼

資料庫匯出代碼
[html] view plain copy print?
#!/bin/bash 
 
#1.資料庫資訊定義 
mysql_host="192.168.1.1" 
mysql_user="root" 
mysql_passwd="root" 
 
#sql備份目錄 
root_dir="/backup" 
back_dir="/backup/databases" 
data_dir="databases" 
store_dir="database" 
if [ ! -d $back_dir ]; then 
    mkdir -p $back_dir 
fi 
 
#備份的資料庫數組 
db_arr=$(echo "show databases;" | mysql -u$mysql_user -p$mysql_passwd -h$mysql_host) 
#不需要備份的單例資料庫 
nodeldb="test1" 
 
#當前日期 
date=$(date -d '+0 days' +%Y%m%d) 
 
#zip打包密碼 
zippasswd="passwd" 
zipname="lczh_"$date".zip" 
 
 
#2.進入到備份目錄 
cd $back_dir 
 
 
#3.迴圈備份 
for dbname in ${db_arr} 
do 
    if [ $dbname != $nodeldb ]; then 
        sqlfile=$dbname-$date".sql" 
        mysqldump -u$mysql_user -p$mysql_passwd -h$mysql_host $dbname >$sqlfile 
    fi 
done 
 
 
#4.tar打包所有的sql檔案 
tar -zcPpf $root_dir/$store_dir/$zipname --directory /  $root_dir/$data_dir 
#打包成功後刪除sql檔案 
if [ $? = 0 ]; then 
    rm -r $data_dir 
fi 


資料定期清理指令碼

作用
定期清理14天前的備份檔案

shell代碼
[html] view plain copy print?
#!/bin/bash -  
 
#1.參數配置 
 
#mysql檔案備份目錄 
backup_dir1="/backup/test1/" 
backup_dir2="/backup/test2/" 
backdir_arr=($backup_dir1 $backup_dir2) 
 
#到期檔案的時間 
keep_time=14 
 
#當前所在星期,crontab在奇數的星期7執行 
week=$(date +%W) 
flag=`expr $week % 2` 
 
 
 
#2.清理到期檔案,只在奇數星期7執行 
if [ $flag -eq 1 ]; then 
    for dir in ${backdir_arr[*]} 
    do 
        if [ -d $dir ]; then 
            #尋找14天之外的檔案資料 
            clean_arr=`find $dir -type f -mtime +$keep_time -exec ls {} \;` 
            for cleanfile in ${clean_arr} 
            do 
                rm $cleanfile 
            done 
        fi 
    done 
fi 

crontab配置
[html] view plain copy print?
0 5 * * 7  執行清理指令碼

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.