跳至正文

猫哥的数据备份血泪史:从一次硬盘翻车说起

今天是4月13号,刚好在整理最近折腾的东西,突然想起前阵子NAS那块盘挂掉的事。说实话,当时看到数据救援公司报价的那一刻,我整个人都不好了——1TB的数据,救回来要800块,还不保证100%完整。那天晚上我对着黑屏的NAS坐了两个小时,一边后悔没做备份,一边疯狂查资料。

后来冷静下来想想,其实问题不在于硬盘质量,而是我的备份策略压根就是形同虚设。3-2-1原则(3份副本、2种介质、1份异地)挂在嘴边,真到落实的时候,异地备份?那是啥?本地冗余?删了省空间。结果就是一块盘GG,所有东西一起陪葬。

这波操作让我重新审视了自己的数据管理思路。今天这篇文章,就聊聊数据备份那些事儿——不是科普文,是实打实的血泪经验。

技术笔记

备份的本质是对抗“不确定性”,而不是“防止硬盘坏掉”

很多人以为备份就是“多存一份”,其实远远不够。我总结了一套自己的备份体系,分三层:

第一层:本地快照
用的是NAS自带的BTRFS快照功能,每周一快照,保留最近4个。关键是快照要放在独立卷,不能和主数据在同一块盘。之前我就是把快照存在同一块HDD上,盘一坏快照也跟着没了,白折腾。

第二层:离线冷备
每周五把重要数据(照片、文档、代码库)用外接硬盘做一次全量备份,然后拔掉硬盘放抽屉里。这个习惯坚持了三个月,现在已经自动化了——用cron定时任务+USB控制插座,到点自动执行然后断电。

第三层:云端同步
这个是最容易踩坑的地方。国内的云盘你懂的,隐私政策先不说,关键时刻限速能把你气哭。我现在用的是rclone把关键数据同步到OneDrive+阿里云OSS双保险,重要文件(比如代码库、数据库导出)走加密后上传。

具体到WordPress博客这种场景,我的方案是:数据库每天凌晨3点自动导出SQL文件,保留最近7天,同时通过rclone同步到云端。封面图和媒体文件则通过PicList(之前折腾过这个工具)做增量备份。

还有个容易忽略的点:备份的可恢复性要定期测试。我每个季度会故意删一篇测试文章,然后用备份恢复,确保数据真的能用。这比备份本身更重要——毕竟无法恢复的备份等于没备份。

随想

折腾来折腾去,我发现数据备份这件事,本质上是一种“和未来的自己签合同”。

现在的多花1小时做备份,未来的自己就少掉1次800块的救援费+2小时的焦虑+可能永远找不回来的回忆。账很容易算,但人天生就是重视当下、轻视未来的动物。

所以我现在把备份策略当成一种“数字自律”——和定期运动、定期体检一样,是对自己生活质量的一种承诺。只不过这个承诺的受益人,是未来的自己。

有意思的是,当我真正把备份做成自动化流程之后,反而获得了某种奇怪的安心感。就像给服务器上了监控告警之后,半夜惊醒看日志的次数明显少了。这种“系统帮我兜底”的感觉,大概就是折腾自动化的终极奥义吧。

下次再聊。