Стало интересно, кто как бекапит, лично я для снятия использую:
dd if=/dev/%раздел%|lzma -9cf>backup
И для заливки:
lzma -c backup|dd of=/dev/%раздел%
Для раздела с / это занимает почти 3 часа, размер раздела 7гб, заполнено 5гб.
Выходной размер - 2.1гб
А как вы бэкапите?
-
Спасибо! Подумаю т.к. ты тут сразу распмчал что да как =) Правда главного не сказал - скока образ с 5 гектар весит?
А я тупо копирую на другой раздел все важные данные, /home и /etc
-
Я загружаюсь в отдельную ось (какой-нить установочный дистр), монтирую раздел на котором буду хранить бэкап (скажем, раздел, на котором обычно лежит /home я монтирую в /mnt) и делаю почти то же самое, только без сжатия:
dd if=/dev/sda of=/mnt/kraplax/sda_bkp-2.6.28-kde4.2.2-20090404.img
Под корневой раздел у меня выделен твердотельный накопитель 4ГиБ, поэтому размер бэкапа всегда один и тот же. Со слабеньким процессором Eee 900 я не заморачиваюсь насчет сжатия - если нужно, то копирую бэкап на десктоп и там уже его храню в сжатом виде.
Загрузка в отдельную ось у меня просто из-за предрассудков, наверное, но все же как-то поспокойнее будет. Да и заодно апробирую "спасительный" дистр - восстановление ведь будет проходить абсолютно в тех же условиях, только if и of поменяются местами :)
-
Бекаплю следующим ужасным скриптом:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
|
#!/bin/sh
DATE=`LC_ALL=C date`
EXCLUDE="--exclude=/proc --exclude=/lost+found --exclude=/dev --exclude=/home --exclude=/sys --exclude=/tmp"
echo "Start backup / at "`date`
tar czf /home/backup-"$DATE".tar.gz $EXCLUDE /
#to unbackup use - sudo tar xpfz backup.tar.gz -C /
echo "Backup of / ended at "`date`
echo "Creating MD5 file..."
md5sum /home/backup-"$DATE".tar.gz > /home/backup-"$DATE".md5
echo "MD5 file created!"
#===================================================================
DIRS=".adobe .assaultcube_v1.0 .bash_history .bashrc .cache .checkbox .compiz
.config .ctags .dbus .dmrc .esd_auth .evolution .face .fetchmailrc .fontconfig
.fonts .fonts.conf .gajim .gconf .gconfd .gegl-0.0 .gimp-2.6 .gnome2 .gnome2_private .gnupg .gstreamer-0.10 .gtk-bookmarks .gtk_qt_engine_rc .gtkrc-2.0-kde-kde4
.gvfs .icons .inputrc .liferea_1.4 .local .logjam .macromedia .mailcap .mcop .mcoprc .mozilla .msmtprc .muttrc .nautilus .procmailrc .profile
.pulse .qt
.screenrc .signature .Skype .ssh .texmf-var .themes .thumbnails .update-manager-core
.update-notifier .urlview .vim .viminfo .vimprojects .vimrc .wvdial.conf .VirtualBox .Xmodmap"
echo "CD to ~"
echo "Start backup ~ at "`date`
cd ~
tar czf /home/home-backup-"$DATE".tar.gz $DIRS
echo "Backup of ~ ended at "`date`
echo "Creating MD5 file..."
md5sum /home/home-backup-"$DATE".tar.gz > /home/home-backup-"$DATE".md5
echo "MD5 file created!"
#to unbackup use - sudo tar xpfz backup.tar.gz -C /home/drag0n
|
Бекапы и md5 суммы копирую руками на внешний носитель.
-
-
оффтоп:
это тэг code так погнул страничку?
-
-
Я буду ответственно относиться к безопасности своих приложений.
-
-
Молоток, исправил
-
на 1280*1024 гнулось =)
-
Видимо
-
Почему ужасный скрипт? Напротив, все четко и с каментами. ПОзаимтвую часть наверн, тока под себя переделаю. А в тебе еще гентушник не умер =)))
-
Для раздела с / это занимает почти 3 часа, размер раздела 7гб, заполнено 5гб.
ОМГ.
А если без сжатия, то сколько времени?
И на сколько ужимаются эти 5гб? Есть ли смысл вообще так сжимать?
-
А я hdup-ом пользуюсь, много удобнее чем dd.
-
-
/me ушел гуглить
-
Есть мнение, что использовать dd для регулярного бекапа не очень гуд. Причина в том, что dd работает с носителем на "железном уровне" (не учитывает наличие файловой системы как таковой). И характер такой деятельности дюже агрессивен по отношению к механике жесткого диска.
Что там в отношении твердотельного накопителя я не в курсе.
Мне удобно использовать rsync. Схема бэкапа напоминает схему h0rr0rr_drag0n`а
-
-
А что ему будет, накопителю-то? Что винт, что флэшка - если у тебя потерялась разметка диска или что-то подобное, то тут имхо самое простое это залить на железку образ ее. А там и файловая система, и все-превсе что только на ней было в момент снятия слепка.
-
-
Что будет? "За всех не скажу", но вероятность выхода жесткого диска из строя (по износу механики) повышается при регулярном (частом) использовании dd вместо более других способов бекапа.
А то, что оно самое простое, - да кто бы спорил.
-
-
Я буду ответственно относиться к безопасности своих приложений.
-
-
Хорошо, если так. Я ж правильно понимаю, что ты так бекапишь не первый месяц? Остается порадоваться за качество изготовления дисков.
-
Накопителю-то ничего не будет. Но вот шанс того что потом этот бекап не прочитается - довольно большой если это делают на неотмонтированном диске!
Команда dd копирует с винта байтики по-очереди с 1 и до конца.
Теперь пример:
Предположим что dd скопировал уже половину диска.
Пока dd копирует вторую половину система решила сохранить новый файлик на диск. И записала она половину этого файлика в начало диска, вторую половину - в конец.
Теперь вопрос - что у нас получится в бекапе? Правильно, половина этого файлика.
Так что если и бекапить через dd, то только отмонтированные диски или смонтированные в read-only.
-
основной инструмент -- bacula
бакулой на отдельный хост по сети со сжатием. конфиг немного странный, но зато с нескольких хостов легко можно бэкапить.
еще использую unison для синхронизации коллекции фоток и всяческих скриптов.
немножко rsync для сохранения результатов бэкапа бакулы на удаленные хосты
а вообще: apt-cache search backup
-
Систему:
/usr/bin/dar -m 256 -z -D -R / -c $file \
-Z "*.gz" -Z "*.bz2" -Z "*.zip" -Z "*.tar" \
-X *.flv -X *.avi -X *.wmv -X *home*.run \
-P swap -P proc -P opt -P mnt -P media -P tmp -P sys \
-P var/ftp -P var/spool/squid -P usr/local/games -P var/cache/pacman/pkg \
-P var/abs -P home/holo*****/.ccache -P usr/share/wesnoth -P usr/share/hedgewars -P usr/share/wormux \
-A $dstdir/rootfs
В отличие от dd умеет исключения, в результате чего при размере корня 13гб, размер бэкапа 3,7гб, а так же дифференциальный бэкап относительно полного, сделанного без последней строчки. У меня на 2гц полный бэкап делается 1ч40м, дифференциальные ежедневно успевают сделаться за 25 минут при размере пока ~250мб. Умеет доставать отдельную директорию или файл, разбивать образы на слайсы под размер cd/dvd и т.д.
Для бэкапа мускуля, конечно, mysqldump.
Ну, и отдельно тарболятся /etc и /srv/www, чтобы вся история изменений лежала под рукой.
-
А кто куда заливает бекапы помимо своего сервера?
-
-
на второй винт...
-
-
Второго винта нет, думал на народ запароленные архивы с бекапами заливать, а там походу всего 100мб можно закачать, для моих ~5гиговых бекапов маловато...
-
-
угу. Да и долго и дорого. Потому второй винт дешевле и всегда под рукой
-
Кстати, раз уже бэкапить с помощью dd, то было бы неплохо превратить незанятое место не в мешанину байтов, а в нули - они тогда сожмутся на ура. Для того чтобы сделать это - выполняем следующее (взято с commandlinefu):
cd your_partition ; sudo dd if=/dev/zero of=ShredMe ; sudo shred -vzu -n=1 ShredMe
В данном случае происходить будет следующее - на "очищаемом" разделе создается файл из нулей. Размер его не задан, поэтому создаваться он будет до тех пор, пока не займет на разделе все место. Затем этот файл будет удален, причем сначала стерт и перезаписан опять-таки мешаниной байтов, а потом уже поверх этого перезаписан нулями. В итоге еули сожмуться гораздо эффективнее, что позволит поиметь меньший размер бэкапа.
-
Вот пришла пора сделать первое восстановление после бэкапа. Попробовал твой метод - не вышло :(
Оказалось, что lzma при восстановлении нужно явно указать, что нужно распаковывать из файла, поэтому для восстановления хорошо сработала команда:
lzma -cd sda1_backup-090909.lzma | dd of=/dev/sda1
-
rdiff-backup вполне устраивает. Правда, не жмет, но и объемы не велики.
|
|
|
Последние посты
|
|
Последние комментарии
|
|
Изменения
|
|
Черновики (все)
|
|
Избранное (всё)
|
|
|