linux自动备份脚本核心是tar+rsync+cron三步闭环:本地打包、远程同步、定时执行;关键在路径准确、权限到位、日志留存、清理合理。

Linux自动备份脚本的核心是:用 tar + rsync + cron 搭配,实现本地打包、远程同步、定时执行三步闭环。关键不在多,而在稳——路径别写错、权限要到位、日志得留痕。
一、基础备份脚本(带时间戳和日志)
以下是一个常用且安全的本地备份脚本示例(保存为 /opt/scripts/backup.sh):
- 先确保目标目录存在:
mkdir -p /backup - 脚本内容(可直接复制使用,记得
chmod +x):
#!/bin/bash
# 备份源目录(按需修改)
SRC_DIR=”/var/www/html“
# 备份目标目录
BACKUP_DIR=”/backup”
# 生成带日期的压缩包名
date=$(date +%Y%m%d_%H%M%S)
ARCHIVE_NAME=”web_backup_${DATE}.tar.gz”
# 开始记录日志
echo “[$(date)] 开始备份 ${SRC_DIR}” >> /var/log/backup.log
# 打包并压缩(排除临时文件)
if tar -czf “${BACKUP_DIR}/${ARCHIVE_NAME}” -C “$(dirname “$SRC_DIR”)” “$(basename “$SRC_DIR”)” –exclude=’*.log’ –exclude=’cache/*’ >> /var/log/backup.log 2>&1; then
echo “[$(date)] 备份成功:${ARCHIVE_NAME}” >> /var/log/backup.log
# 可选:只保留最近7天的备份
find “${BACKUP_DIR}” -name “web_backup_*.tar.gz” -mtime +7 -delete
else
echo “[$(date)] 备份失败!” >> /var/log/backup.log
fi
二、加一层rsync推送到远程服务器
如果需要异地容灾,可在脚本末尾追加 rsync 同步(假设已配置好免密ssh):
- 在远程服务器上创建接收目录:
mkdir -p /backup/web - 在本地脚本中添加(接在 tar 成功之后):
# 推送至远程(替换 user@host:/path)
if rsync -az –delete “${BACKUP_DIR}/${ARCHIVE_NAME}” user@192.168.1.100:/backup/web/ >> /var/log/backup.log 2>&1; then
echo “[$(date)] 已同步至远程服务器” >> /var/log/backup.log
else
echo “[$(date)] 同步失败,请检查网络或SSH密钥” >> /var/log/backup.log
fi
三、用cron设置定时任务
运行 crontab -e,添加一行即可(例如每天凌晨2:30执行):
30 2 * * * /opt/scripts/backup.sh
- 如需每4小时一次:
0 */4 * * * /opt/scripts/backup.sh - 务必确认脚本中所有路径用绝对路径(
/usr/bin/tar而非tar),避免cron环境变量缺失导致失败 - 测试时可先手动执行:
/opt/scripts/backup.sh && tail -n 5 /var/log/backup.log
四、简单但实用的健壮性增强点
- 检查磁盘空间:在脚本开头加
df -h /backup | awk 'NR==2 {print $5}' | sed 's/%//' | [[ $(cat) -gt 90 ]] && echo "磁盘超90%!跳过备份" && exit 1 - 锁定机制防重复:用
if [ -f /tmp/backup.lock ]; then exit; else touch /tmp/backup.lock; trap 'rm -f /tmp/backup.lock' EXIT; - 邮件通知(需配置mail命令):失败时加一句
echo "备份异常" | mail -s "Backup alert" admin@example.com
基本上就这些。不复杂但容易忽略的是:路径、权限、日志、清理策略——四项对了,脚本能跑一年不掉链子。