vps备份网站mysql数据到邮箱/ftp 不指定

jed , 2013-8-12 05:51 , 服务器技术 , 评论(0) , 阅读(301803) , Via 本站原创 | |
用vps也有一阵了,但是谁也不知道哪天vps就会跑路了,也说不定;无论现在做什么,都要先学会未雨绸缪.

其实,关于网上的有很多种方法备份vps的mysql和数据.但是往往都不是很理想.
首先我觉得备份数据一定要满足一下几点:

支持低成本备份mysql:网站数据其实并不会经常改动,经常要备份的主要是mysql,所谓的低成本就是自动化,而且可以发送到免费的邮箱.
mysql必须是分卷备份的:不要把N个数据库合并成一个sql文件,那样我不会恢复.
如果你网站很大图片很多,那么还得随时可以备份到ftp.
不过终于在Cat上找到了这个备份的方法,还是相当靠谱的..贴出代码先~

首先安装mutt:

yum install sendmail mutt


vi AutoBackupToFtp.sh

#!/bin/bash
#你要修改的地方从这里开始
MYSQL_USER=root                             #mysql用户名
MYSQL_PASS=123456                      #mysql密码
MAIL_TO=cat@hostloc.com                 #数据库发送到的邮箱
FTP_USER=cat                              #ftp用户名
FTP_PASS=123456                         #ftp密码
FTP_IP=imcat.in                          #ftp地址
FTP_backup=backup                          #ftp上存放备份文件的目录,这个要自己得ftp上面建的
WEB_DATA=/home/www                          #要备份的网站数据
#如果不需要ftp功能请注释掉FTP_USER,FTP_IP.ftp.backup
#你要修改的地方从这里结束

#定义数据库的名字和旧数据库的名字
DataBakName=Data_$(date +"%Y%m%d").tar.gz
WebBakName=Web_$(date +%Y%m%d).tar.gz
OldData=Data_$(date -d -5day +"%Y%m%d").tar.gz
OldWeb=Web_$(date -d -5day +"%Y%m%d").tar.gz
#删除本地3天前的数据
rm -rf /home/backup/Data_$(date -d -3day +"%Y%m%d").tar.gz /home/backup/Web_$(date -d -3day +"%Y%m%d").tar.gz
cd /home/backup
#导出数据库,一个数据库一个压缩文件
for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do
    (/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz)
done
#压缩数据库文件为一个文件
tar zcf /home/backup/$DataBakName /home/backup/*.sql.gz
rm -rf /home/backup/*.sql.gz
#发送数据库到Email,如果数据库压缩后太大,请注释这行
echo "主题:数据库备份" | mutt -a /home/backup/$DataBakName -s "内容:数据库备份" $MAIL_TO
#压缩网站数据
tar zcf /home/backup/$WebBakName $WEB_DATA
#上传到FTP空间,删除FTP空间5天前的数据
ftp -v -n $FTP_IP << END
user $FTP_USER $FTP_PASS
type binary
cd $FTP_backup
delete $OldData
delete $OldWeb
put $DataBakName
put $WebBakName
bye
END

chmod +x AutoBackupToFtp.sh
利用crontab 实现每天00:00自动备份网站文件和数据库上传到FTP空间

crontab -e
00 00 * * * /home/AutoBackupToFtp.sh

一切都很顺利,但是也遇到了一点小麻烦,在cat博客里面也有人问道.
执行

./AutoBackupToFtp.sh


以后却出现

mysqldump: Got error: 1044: Access denied for user 'root'@'localhost' to database 'information_schema' when using LOCK TABLES


在csdn找到解决办法是因为没有LOCK TABLES的权限,于是查看mysqldump的帮助,加上参数–skip-lock-tables


mysqldump --opt -h192. 168.0 . 156  -uUsername -pPassword --skip-lock-tables databaseName>database.sql


还有就是会提示:

tar: Removing leading `/' from member names

其实大家不用在意这个,根据鸟哥的说法:

『tar: Removing leading `/’ from member names(移除了檔名開頭的 `/’ )』所告知的情況!

那為什麼要拿掉根目錄呢?主要是為了安全!我們使用 tar 備份的資料可能會需要解壓縮回來使用, 在 tar 所記錄的檔名 (就是我們剛剛使用 tar -jtvf 所察看到的檔名) 那就是解壓縮後的實際檔名。 如果拿掉了根目錄,假設你將備份資料在 /tmp 解開,那麼解壓縮的檔名就會變成『/tmp/etc/xxx』。 但『如果沒有拿掉根目錄,解壓縮後的檔名就會是絕對路徑, 亦即解壓縮後的資料一定會被放置到 /etc/xxx 去!』如此一來,你的原本的 /etc/ 底下的資料, 就會被備份資料所覆蓋過去了!
相关日志
linux mutt详解
Tags: ,
发表评论

昵称

网址

电邮

打开HTML 打开UBB 打开表情 隐藏 记住我 [登入] [注册]