Quelles options ai-je pour sauvegarder le contenu d'un Rackspace Cloud Sites, y compris les fichiers et les bases de données? Je sais qu'ils ont des tâches cron, mais je ne sais pas quelles options j'ai à ce sujet.
Quelles options ai-je pour sauvegarder le contenu d'un Rackspace Cloud Sites, y compris les fichiers et les bases de données? Je sais qu'ils ont des tâches cron, mais je ne sais pas quelles options j'ai à ce sujet.
Réponses:
J'utilise deux scripts pour sauvegarder mon VPS (hébergé sur Linode, mais le même devrait fonctionner sur Rackspace).
Tout d'abord, pour la sauvegarde mysql, j'utilise le script automysqlbackup . Il s'occupe de vider vos bases de données, de les compresser et de maintenir plusieurs copies quotidiennes / hebdomadaires / mensuelles des fichiers de sauvegarde. Il peut également vous envoyer par e-mail les vidages .sql compressés.
Pour la sauvegarde générale du système de fichiers, j'utilise la duplicité - cela peut utiliser un certain nombre de backends de stockage différents (ftp, scp, nfs, etc.), mais j'ai choisi d'utiliser le backend Amazon S3. Duplicity effectuera des sauvegardes complètes ou incrémentielles en fonction de vos besoins. Il gérera également la compression de vos fichiers de sauvegarde ainsi que le cryptage si vous le souhaitez.
Rackspace n'autorise pas SSH sur leurs sites cloud, donc je ne pense pas que Duplicity fonctionnera à moins que vous ne puissiez les convaincre de l'installer.
Nous recherchions également une solution, mais nous avons fini par construire un système de sauvegarde qui archive les fichiers et les vidages SQL et les transfère vers Rackspace Cloud Files, nommés et datés. Le système gère le nettoyage des anciennes sauvegardes (nous conservons une variété de sauvegardes quotidiennes / hebdomadaires / mensuelles) et fonctionne comme un module sur une installation Drupal dédiée. L'administrateur donne des commentaires sur l'état de chaque sauvegarde et remplit une feuille de calcul Google pour donner un aperçu. Il peut également fonctionner avec n'importe quel site en dehors de Rackspace, car il utilise un client PHP pour faire tout le travail (téléchargez un script PHP sur les sites que vous souhaitez sauvegarder, configurez-le sur l'interface d'administration et le site maître prendra soin de toute la planification / authentification / etc ...) Nous l'utilisons en interne mais pouvons le publier en tant que module s'il y a un intérêt, alors faites le moi savoir.
La seule façon que je sache est de créer un travail cron pour sauvegarder vos données et bases de données et le faire ftp ou toute autre méthode que vous souhaitez utiliser pour la transmission de données. Voici un exemple de script.
#!/bin/sh
# System + MySQL backup script
# Full backup day - Sun (rest of the day do incremental backup)
# Copyright (c) 2005-2006 nixCraft
# This script is licensed under GNU GPL version 2.0 or above
# Automatically generated by http://bash.cyberciti.biz/backup/wizard-ftp-script.php
# ---------------------------------------------------------------------
### System Setup ###
DIRS="/home /etc /var/www"
BACKUP=/tmp/backup.$$
NOW=$(date +"%d-%m-%Y")
INCFILE="/root/tar-inc-backup.dat"
DAY=$(date +"%a")
FULLBACKUP="Sun"
### MySQL Setup ###
MUSER="admin"
MPASS="mysqladminpassword"
MHOST="localhost"
MYSQL="$(which mysql)"
MYSQLDUMP="$(which mysqldump)"
GZIP="$(which gzip)"
### FTP server Setup ###
FTPD="/home/vivek/incremental"
FTPU="vivek"
FTPP="ftppassword"
FTPS="208.111.11.2"
NCFTP="$(which ncftpput)"
### Other stuff ###
EMAILID="admin@theos.in"
### Start Backup for file system ###
[ ! -d $BACKUP ] && mkdir -p $BACKUP || :
### See if we want to make a full backup ###
if [ "$DAY" == "$FULLBACKUP" ]; then
FTPD="/home/vivek/full"
FILE="fs-full-$NOW.tar.gz"
tar -zcvf $BACKUP/$FILE $DIRS
else
i=$(date +"%Hh%Mm%Ss")
FILE="fs-i-$NOW-$i.tar.gz"
tar -g $INCFILE -zcvf $BACKUP/$FILE $DIRS
fi
### Start MySQL Backup ###
# Get all databases name
DBS="$($MYSQL -u $MUSER -h $MHOST -p$MPASS -Bse 'show databases')"
for db in $DBS
do
FILE=$BACKUP/mysql-$db.$NOW-$(date +"%T").gz
$MYSQLDUMP -u $MUSER -h $MHOST -p$MPASS $db | $GZIP -9 > $FILE
done
### Dump backup using FTP ###
#Start FTP backup using ncftp
ncftp -u"$FTPU" -p"$FTPP" $FTPS<
mkdir $FTPD
mkdir $FTPD/$NOW
cd $FTPD/$NOW
lcd $BACKUP
mput *
quit
EOF
### Find out if ftp backup failed or not ###
if [ "$?" == "0" ]; then
rm -f $BACKUP/*
else
T=/tmp/backup.fail
echo "Date: $(date)">$T
echo "Hostname: $(hostname)" >>$T
echo "Backup failed" >>$T
mail -s "BACKUP FAILED" "$EMAILID" <$T
rm -f $T
fi
Un travail Cron exécutant un script semble être une solution plus "solide" pour moi. Je suis toujours en train de m'éloigner de ma dépendance aux interfaces graphiques. RÉ:
Cela étant dit, j'utilise Cobian Backup pour sauvegarder automatiquement tous les fichiers du site @ cloudsites via FTP tous les soirs. C'est une très bonne solution d'incendie et d'oubli qui ne nécessite aucune connaissance de script ou des tâches Cron, assurez-vous simplement de tester la restauration régulièrement.
Plus de détails ici: http://www.iainlbc.com/2010/04/how-to-backup-rackspace-cloudsites-automatically-incrementally-using-free-software/
L'administrateur MySQL (EOL) gère les sauvegardes automatisées de notre Amazon RDS
script très simple pour la sauvegarde dans des fichiers cloud rackscpace avec duplicité
J'ai essayé http://www.zipitbackup.com/ . Son utilitaire de sauvegarde depuis rackspace. Ça marche bien.
La documentation indique comment cela fonctionne:
-> Fonctionne sur une base par site. L'utilitaire de sauvegarde Zipit doit être installé pour chaque site que vous souhaitez sauvegarder.
-> L'utilitaire de sauvegarde Zipit sauvegarde tous les fichiers et bases de données Cloud Sites sur votre compte Cloud Files.
-> Liste toutes les sauvegardes disponibles. Les sauvegardes disponibles peuvent être gérées via le panneau de configuration du cloud.